私は4x 2TB WD赤いハードドライブを備えた5年前のPR4100を持っています。常にデフォルトのRaid1設定で構成されます。 1週間前に初めてPR4100を駆動したときに赤いLEDが表示されました。私のファイルは引き続きアクセスでき、すべてがうまく機能します。クイックドライブテストを実行すると、ダッシュボードにドライブ3にエラーが発生したと表示されます。少し奇妙に見え、NASを再起動しました。
再起動後、システムのすべてのドライブに赤いLEDが表示されます。自分のファイルや共有にアクセスできなくなり、ドライブがアンマウントされているようです。ダッシュボードには、RAIDボリュームを再構成する必要があることを示すメッセージが表示されます。ドライブが消去されるので、明らかにこれをやりたくありません。通常は攻撃台の再構築を自動的に設定しましたが、今はこの機能がダッシュボードにありません。
フルテストを再実行すると、ドライブ3を交換する必要があるというメッセージがシステムに表示されます。今日、私は同じ新しい2TB WD赤いHDDを受け取り、ドライブ3を交換しました。とにかく私はこれが魔法のようにレイドの再構築を開始すると予想しましたが、NASはただ…何もしません。別のドライブテストを実行し、4つのドライブすべてがシステムに赤いLEDを持っていましたが、すべてのドライブが正常であることがわかりました。
それでもダッシュボードにログインし、完全なSSHアクセス権を持つことはできますが、いかなる方法でもファイルにアクセスすることはできません。私はこれがraid構成または欠落している構成ファイルに関連していると思います。
エラーが発生した後にハードドライブ上のファイルを読み書きしたことがないため、NASにある個人用ファイルが破損または失われないことを願っています。しかし、どのように進むべきかわかりません。 SSHでRAID再構築を手動で開始しますか?不足しているRAID構成ファイルを検索または変更しますか?どんな助けでも大変感謝します!
root@MyCloudPR4100 ~ # mdadm --detail /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Sat Feb 11 11:13:50 2023
Raid Level : raid1
Array Size : 2094080 (2045.00 MiB 2144.34 MB)
Used Dev Size : 2094080 (2045.00 MiB 2144.34 MB)
Raid Devices : 4
Total Devices : 3
Persistence : Superblock is persistent
Intent Bitmap : Internal
Update Time : Sat Feb 11 11:13:53 2023
State : clean, degraded
Active Devices : 3
Working Devices : 3
Failed Devices : 0
Spare Devices : 0
Consistency Policy : bitmap
Name : MyCloudPR4100:0 (local to host MyCloudPR4100)
UUID : c93335dc:dd795ea9:4612ae75:b4b3e02d
Events : 5
Number Major Minor RaidDevice State
0 8 1 0 active sync /dev/sda1
1 8 17 1 active sync /dev/sdb1
2 8 49 2 active sync /dev/sdd1
- 0 0 3 removed
root@MyCloudPR4100 ~ # cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4]
md0 : active raid1 sdd1[2] sdb1[1] sda1[0]
2094080 blocks super 1.2 [4/3] [UUU_]
bitmap: 0/1 pages [0KB], 65536KB chunk
完全なカーネル情報: https://pastebin.com/Du2HJ7kZ
mdadm --examine /dev/sd*
このペーストビンの出力は次のとおりです。https://pastebin.com/u3BA6FuR