私はLinuxの世界に初めてアクセスし、このシステムに信頼できる人だと思うのに十分な経験がありません。 :P
全体的にWindowsで実行するよりも安定していると思うので、Linux RAID 5を使用することにしました。
最近、RAIDのインストールに失敗し、再構築しようとしたときに問題が発生したようです。
アレイを組み立てようとすると、デバイスまたはmdadm
リソースが使用中であることを報告し続けますが、わかっている限り、まだマウントされていないか使用されていません。 Googleはdmraidが原因である可能性があると報告していますが、それを削除しようとするとインストールされていないようです。
システムは12台のドライブRAID-5ですが、2台のドライブに正しいスーパーブロックデータがインストールされていないようです。
以下に最も一般的なコマンドの出力を含めました。
cat /proc/mdstat
erwin@erwin-ubuntu:~$ cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md0 : inactive sdd1[10](S) sde1[2](S) sdf1[11](S) sdg1[6](S) sdm1[4](S) sdl1[9](S) sdk1[5](S) sdj1[7](S) sdi1[13](S) sdc1[8](S) sdb1[0](S) sda1[3](S)
11721120064 blocks
unused devices: <none>
詳細
erwin@erwin-ubuntu:~$ sudo mdadm --detail /dev/md0
mdadm: md device /dev/md0 does not appear to be active.
erwin@erwin-ubuntu:~$
mdadmの確認
奇妙な部分に注意してください。理由はわかりませんが、システムドライブは一般的でしたが、sda
今は突然そうですsdh
。いいえ、物理配線を移動していませんか?
erwin@erwin-ubuntu:~$ sudo mdadm --examine /dev/sd*1
/dev/sda1:
Magic : a92b4efc
Version : 0.90.00
UUID : 7964c122:1ec1e9ff:efb010e8:fc8e0ce0 (local to host erwin-ubuntu)
Creation Time : Sun Oct 10 11:54:54 2010
Raid Level : raid5
Used Dev Size : 976759936 (931.51 GiB 1000.20 GB)
Array Size : 10744359296 (10246.62 GiB 11002.22 GB)
Raid Devices : 12
Total Devices : 12
Preferred Minor : 0
Update Time : Mon Dec 5 19:24:00 2011
State : clean
Active Devices : 10
Working Devices : 11
Failed Devices : 2
Spare Devices : 1
Checksum : 35a1bcd - correct
Events : 74295
Layout : left-symmetric
Chunk Size : 64K
Number Major Minor RaidDevice State
this 3 8 97 3 active sync /dev/sdg1
0 0 8 113 0 active sync /dev/sdh1
1 1 0 0 1 faulty removed
2 2 0 0 2 faulty removed
3 3 8 97 3 active sync /dev/sdg1
4 4 8 81 4 active sync /dev/sdf1
5 5 8 49 5 active sync /dev/sdd1
6 6 8 193 6 active sync /dev/sdm1
7 7 8 33 7 active sync /dev/sdc1
8 8 8 129 8 active sync /dev/sdi1
9 9 8 65 9 active sync /dev/sde1
10 10 8 145 10 active sync /dev/sdj1
11 11 8 177 11 active sync /dev/sdl1
12 12 8 161 12 faulty /dev/sdk1
/dev/sdb1:
Magic : a92b4efc
Version : 0.90.00
UUID : 7964c122:1ec1e9ff:efb010e8:fc8e0ce0 (local to host erwin-ubuntu)
Creation Time : Sun Oct 10 11:54:54 2010
Raid Level : raid5
Used Dev Size : 976759936 (931.51 GiB 1000.20 GB)
Array Size : 10744359296 (10246.62 GiB 11002.22 GB)
Raid Devices : 12
Total Devices : 12
Preferred Minor : 0
Update Time : Mon Dec 5 19:24:00 2011
State : clean
Active Devices : 10
Working Devices : 11
Failed Devices : 2
Spare Devices : 1
Checksum : 35a1bd7 - correct
Events : 74295
Layout : left-symmetric
Chunk Size : 64K
Number Major Minor RaidDevice State
this 0 8 113 0 active sync /dev/sdh1
0 0 8 113 0 active sync /dev/sdh1
1 1 0 0 1 faulty removed
2 2 0 0 2 faulty removed
3 3 8 97 3 active sync /dev/sdg1
4 4 8 81 4 active sync /dev/sdf1
5 5 8 49 5 active sync /dev/sdd1
6 6 8 193 6 active sync /dev/sdm1
7 7 8 33 7 active sync /dev/sdc1
8 8 8 129 8 active sync /dev/sdi1
9 9 8 65 9 active sync /dev/sde1
10 10 8 145 10 active sync /dev/sdj1
11 11 8 177 11 active sync /dev/sdl1
12 12 8 161 12 faulty /dev/sdk1
/dev/sdc1:
Magic : a92b4efc
Version : 0.90.00
UUID : 7964c122:1ec1e9ff:efb010e8:fc8e0ce0 (local to host erwin-ubuntu)
Creation Time : Sun Oct 10 11:54:54 2010
Raid Level : raid5
Used Dev Size : 976759936 (931.51 GiB 1000.20 GB)
Array Size : 10744359296 (10246.62 GiB 11002.22 GB)
Raid Devices : 12
Total Devices : 12
Preferred Minor : 0
Update Time : Mon Dec 5 19:24:00 2011
State : clean
Active Devices : 10
Working Devices : 11
Failed Devices : 2
Spare Devices : 1
Checksum : 35a1bf7 - correct
Events : 74295
Layout : left-symmetric
Chunk Size : 64K
Number Major Minor RaidDevice State
this 8 8 129 8 active sync /dev/sdi1
0 0 8 113 0 active sync /dev/sdh1
1 1 0 0 1 faulty removed
2 2 0 0 2 faulty removed
3 3 8 97 3 active sync /dev/sdg1
4 4 8 81 4 active sync /dev/sdf1
5 5 8 49 5 active sync /dev/sdd1
6 6 8 193 6 active sync /dev/sdm1
7 7 8 33 7 active sync /dev/sdc1
8 8 8 129 8 active sync /dev/sdi1
9 9 8 65 9 active sync /dev/sde1
10 10 8 145 10 active sync /dev/sdj1
11 11 8 177 11 active sync /dev/sdl1
12 12 8 161 12 faulty /dev/sdk1
/dev/sdd1:
Magic : a92b4efc
Version : 0.90.00
UUID : 7964c122:1ec1e9ff:efb010e8:fc8e0ce0 (local to host erwin-ubuntu)
Creation Time : Sun Oct 10 11:54:54 2010
Raid Level : raid5
Used Dev Size : 976759936 (931.51 GiB 1000.20 GB)
Array Size : 10744359296 (10246.62 GiB 11002.22 GB)
Raid Devices : 12
Total Devices : 12
Preferred Minor : 0
Update Time : Mon Dec 5 19:24:00 2011
State : clean
Active Devices : 10
Working Devices : 11
Failed Devices : 2
Spare Devices : 1
Checksum : 35a1c0b - correct
Events : 74295
Layout : left-symmetric
Chunk Size : 64K
Number Major Minor RaidDevice State
this 10 8 145 10 active sync /dev/sdj1
0 0 8 113 0 active sync /dev/sdh1
1 1 0 0 1 faulty removed
2 2 0 0 2 faulty removed
3 3 8 97 3 active sync /dev/sdg1
4 4 8 81 4 active sync /dev/sdf1
5 5 8 49 5 active sync /dev/sdd1
6 6 8 193 6 active sync /dev/sdm1
7 7 8 33 7 active sync /dev/sdc1
8 8 8 129 8 active sync /dev/sdi1
9 9 8 65 9 active sync /dev/sde1
10 10 8 145 10 active sync /dev/sdj1
11 11 8 177 11 active sync /dev/sdl1
12 12 8 161 12 faulty /dev/sdk1
/dev/sde1:
Magic : a92b4efc
Version : 0.90.00
UUID : 7964c122:1ec1e9ff:efb010e8:fc8e0ce0 (local to host erwin-ubuntu)
Creation Time : Sun Oct 10 11:54:54 2010
Raid Level : raid5
Used Dev Size : 976759936 (931.51 GiB 1000.20 GB)
Array Size : 10744359296 (10246.62 GiB 11002.22 GB)
Raid Devices : 12
Total Devices : 12
Preferred Minor : 0
Update Time : Mon Dec 5 08:05:07 2011
State : clean
Active Devices : 11
Working Devices : 12
Failed Devices : 1
Spare Devices : 1
Checksum : 3597cbb - correct
Events : 74284
Layout : left-symmetric
Chunk Size : 64K
Number Major Minor RaidDevice State
this 2 8 161 2 active sync /dev/sdk1
0 0 8 113 0 active sync /dev/sdh1
1 1 0 0 1 faulty removed
2 2 8 161 2 active sync /dev/sdk1
3 3 8 97 3 active sync /dev/sdg1
4 4 8 81 4 active sync /dev/sdf1
5 5 8 49 5 active sync /dev/sdd1
6 6 8 193 6 active sync /dev/sdm1
7 7 8 33 7 active sync /dev/sdc1
8 8 8 129 8 active sync /dev/sdi1
9 9 8 65 9 active sync /dev/sde1
10 10 8 145 10 active sync /dev/sdj1
11 11 8 177 11 active sync /dev/sdl1
12 12 8 17 12 spare /dev/sdb1
/dev/sdf1:
Magic : a92b4efc
Version : 0.90.00
UUID : 7964c122:1ec1e9ff:efb010e8:fc8e0ce0 (local to host erwin-ubuntu)
Creation Time : Sun Oct 10 11:54:54 2010
Raid Level : raid5
Used Dev Size : 976759936 (931.51 GiB 1000.20 GB)
Array Size : 10744359296 (10246.62 GiB 11002.22 GB)
Raid Devices : 12
Total Devices : 12
Preferred Minor : 0
Update Time : Mon Dec 5 19:24:00 2011
State : clean
Active Devices : 10
Working Devices : 11
Failed Devices : 2
Spare Devices : 1
Checksum : 35a1c2d - correct
Events : 74295
Layout : left-symmetric
Chunk Size : 64K
Number Major Minor RaidDevice State
this 11 8 177 11 active sync /dev/sdl1
0 0 8 113 0 active sync /dev/sdh1
1 1 0 0 1 faulty removed
2 2 0 0 2 faulty removed
3 3 8 97 3 active sync /dev/sdg1
4 4 8 81 4 active sync /dev/sdf1
5 5 8 49 5 active sync /dev/sdd1
6 6 8 193 6 active sync /dev/sdm1
7 7 8 33 7 active sync /dev/sdc1
8 8 8 129 8 active sync /dev/sdi1
9 9 8 65 9 active sync /dev/sde1
10 10 8 145 10 active sync /dev/sdj1
11 11 8 177 11 active sync /dev/sdl1
12 12 8 161 12 faulty /dev/sdk1
/dev/sdg1:
Magic : a92b4efc
Version : 0.90.00
UUID : 7964c122:1ec1e9ff:efb010e8:fc8e0ce0 (local to host erwin-ubuntu)
Creation Time : Sun Oct 10 11:54:54 2010
Raid Level : raid5
Used Dev Size : 976759936 (931.51 GiB 1000.20 GB)
Array Size : 10744359296 (10246.62 GiB 11002.22 GB)
Raid Devices : 12
Total Devices : 12
Preferred Minor : 0
Update Time : Mon Dec 5 19:24:00 2011
State : clean
Active Devices : 10
Working Devices : 11
Failed Devices : 2
Spare Devices : 1
Checksum : 35a1c33 - correct
Events : 74295
Layout : left-symmetric
Chunk Size : 64K
Number Major Minor RaidDevice State
this 6 8 193 6 active sync /dev/sdm1
0 0 8 113 0 active sync /dev/sdh1
1 1 0 0 1 faulty removed
2 2 0 0 2 faulty removed
3 3 8 97 3 active sync /dev/sdg1
4 4 8 81 4 active sync /dev/sdf1
5 5 8 49 5 active sync /dev/sdd1
6 6 8 193 6 active sync /dev/sdm1
7 7 8 33 7 active sync /dev/sdc1
8 8 8 129 8 active sync /dev/sdi1
9 9 8 65 9 active sync /dev/sde1
10 10 8 145 10 active sync /dev/sdj1
11 11 8 177 11 active sync /dev/sdl1
12 12 8 161 12 faulty /dev/sdk1
mdadm: No md superblock detected on /dev/sdh1.
/dev/sdi1:
Magic : a92b4efc
Version : 0.90.00
UUID : 7964c122:1ec1e9ff:efb010e8:fc8e0ce0 (local to host erwin-ubuntu)
Creation Time : Sun Oct 10 11:54:54 2010
Raid Level : raid5
Used Dev Size : 976759936 (931.51 GiB 1000.20 GB)
Array Size : 10744359296 (10246.62 GiB 11002.22 GB)
Raid Devices : 12
Total Devices : 12
Preferred Minor : 0
Update Time : Mon Dec 5 19:24:00 2011
State : clean
Active Devices : 10
Working Devices : 11
Failed Devices : 2
Spare Devices : 1
Checksum : 35a1b8b - correct
Events : 74295
Layout : left-symmetric
Chunk Size : 64K
Number Major Minor RaidDevice State
this 13 8 17 13 spare /dev/sdb1
0 0 8 113 0 active sync /dev/sdh1
1 1 0 0 1 faulty removed
2 2 0 0 2 faulty removed
3 3 8 97 3 active sync /dev/sdg1
4 4 8 81 4 active sync /dev/sdf1
5 5 8 49 5 active sync /dev/sdd1
6 6 8 193 6 active sync /dev/sdm1
7 7 8 33 7 active sync /dev/sdc1
8 8 8 129 8 active sync /dev/sdi1
9 9 8 65 9 active sync /dev/sde1
10 10 8 145 10 active sync /dev/sdj1
11 11 8 177 11 active sync /dev/sdl1
12 12 8 161 12 faulty /dev/sdk1
/dev/sdj1:
Magic : a92b4efc
Version : 0.90.00
UUID : 7964c122:1ec1e9ff:efb010e8:fc8e0ce0 (local to host erwin-ubuntu)
Creation Time : Sun Oct 10 11:54:54 2010
Raid Level : raid5
Used Dev Size : 976759936 (931.51 GiB 1000.20 GB)
Array Size : 10744359296 (10246.62 GiB 11002.22 GB)
Raid Devices : 12
Total Devices : 12
Preferred Minor : 0
Update Time : Mon Dec 5 19:24:00 2011
State : clean
Active Devices : 10
Working Devices : 11
Failed Devices : 2
Spare Devices : 1
Checksum : 35a1b95 - correct
Events : 74295
Layout : left-symmetric
Chunk Size : 64K
Number Major Minor RaidDevice State
this 7 8 33 7 active sync /dev/sdc1
0 0 8 113 0 active sync /dev/sdh1
1 1 0 0 1 faulty removed
2 2 0 0 2 faulty removed
3 3 8 97 3 active sync /dev/sdg1
4 4 8 81 4 active sync /dev/sdf1
5 5 8 49 5 active sync /dev/sdd1
6 6 8 193 6 active sync /dev/sdm1
7 7 8 33 7 active sync /dev/sdc1
8 8 8 129 8 active sync /dev/sdi1
9 9 8 65 9 active sync /dev/sde1
10 10 8 145 10 active sync /dev/sdj1
11 11 8 177 11 active sync /dev/sdl1
12 12 8 161 12 faulty /dev/sdk1
/dev/sdk1:
Magic : a92b4efc
Version : 0.90.00
UUID : 7964c122:1ec1e9ff:efb010e8:fc8e0ce0 (local to host erwin-ubuntu)
Creation Time : Sun Oct 10 11:54:54 2010
Raid Level : raid5
Used Dev Size : 976759936 (931.51 GiB 1000.20 GB)
Array Size : 10744359296 (10246.62 GiB 11002.22 GB)
Raid Devices : 12
Total Devices : 12
Preferred Minor : 0
Update Time : Mon Dec 5 19:24:00 2011
State : clean
Active Devices : 10
Working Devices : 11
Failed Devices : 2
Spare Devices : 1
Checksum : 35a1ba1 - correct
Events : 74295
Layout : left-symmetric
Chunk Size : 64K
Number Major Minor RaidDevice State
this 5 8 49 5 active sync /dev/sdd1
0 0 8 113 0 active sync /dev/sdh1
1 1 0 0 1 faulty removed
2 2 0 0 2 faulty removed
3 3 8 97 3 active sync /dev/sdg1
4 4 8 81 4 active sync /dev/sdf1
5 5 8 49 5 active sync /dev/sdd1
6 6 8 193 6 active sync /dev/sdm1
7 7 8 33 7 active sync /dev/sdc1
8 8 8 129 8 active sync /dev/sdi1
9 9 8 65 9 active sync /dev/sde1
10 10 8 145 10 active sync /dev/sdj1
11 11 8 177 11 active sync /dev/sdl1
12 12 8 161 12 faulty /dev/sdk1
/dev/sdl1:
Magic : a92b4efc
Version : 0.90.00
UUID : 7964c122:1ec1e9ff:efb010e8:fc8e0ce0 (local to host erwin-ubuntu)
Creation Time : Sun Oct 10 11:54:54 2010
Raid Level : raid5
Used Dev Size : 976759936 (931.51 GiB 1000.20 GB)
Array Size : 10744359296 (10246.62 GiB 11002.22 GB)
Raid Devices : 12
Total Devices : 12
Preferred Minor : 0
Update Time : Mon Dec 5 19:24:00 2011
State : clean
Active Devices : 10
Working Devices : 11
Failed Devices : 2
Spare Devices : 1
Checksum : 35a1bb9 - correct
Events : 74295
Layout : left-symmetric
Chunk Size : 64K
Number Major Minor RaidDevice State
this 9 8 65 9 active sync /dev/sde1
0 0 8 113 0 active sync /dev/sdh1
1 1 0 0 1 faulty removed
2 2 0 0 2 faulty removed
3 3 8 97 3 active sync /dev/sdg1
4 4 8 81 4 active sync /dev/sdf1
5 5 8 49 5 active sync /dev/sdd1
6 6 8 193 6 active sync /dev/sdm1
7 7 8 33 7 active sync /dev/sdc1
8 8 8 129 8 active sync /dev/sdi1
9 9 8 65 9 active sync /dev/sde1
10 10 8 145 10 active sync /dev/sdj1
11 11 8 177 11 active sync /dev/sdl1
12 12 8 161 12 faulty /dev/sdk1
/dev/sdm1:
Magic : a92b4efc
Version : 0.90.00
UUID : 7964c122:1ec1e9ff:efb010e8:fc8e0ce0 (local to host erwin-ubuntu)
Creation Time : Sun Oct 10 11:54:54 2010
Raid Level : raid5
Used Dev Size : 976759936 (931.51 GiB 1000.20 GB)
Array Size : 10744359296 (10246.62 GiB 11002.22 GB)
Raid Devices : 12
Total Devices : 12
Preferred Minor : 0
Update Time : Mon Dec 5 19:24:00 2011
State : clean
Active Devices : 10
Working Devices : 11
Failed Devices : 2
Spare Devices : 1
Checksum : 35a1bbf - correct
Events : 74295
Layout : left-symmetric
Chunk Size : 64K
Number Major Minor RaidDevice State
this 4 8 81 4 active sync /dev/sdf1
0 0 8 113 0 active sync /dev/sdh1
1 1 0 0 1 faulty removed
2 2 0 0 2 faulty removed
3 3 8 97 3 active sync /dev/sdg1
4 4 8 81 4 active sync /dev/sdf1
5 5 8 49 5 active sync /dev/sdd1
6 6 8 193 6 active sync /dev/sdm1
7 7 8 33 7 active sync /dev/sdc1
8 8 8 129 8 active sync /dev/sdi1
9 9 8 65 9 active sync /dev/sde1
10 10 8 145 10 active sync /dev/sdj1
11 11 8 177 11 active sync /dev/sdl1
12 12 8 161 12 faulty /dev/sdk1
mdadm --assemble --scan --verbose - キャプチャは文字を保存するために切り捨てられます。編集で述べたように、まず配列を停止してリソース使用の問題を解決します。はい、簡単です。
erwin@erwin-ubuntu:~$ sudo mdadm --assemble --scan --verbose
mdadm: looking for devices for /dev/md0
mdadm: cannot open device /dev/sdm1: Device or resource busy
mdadm: /dev/sdm1 has wrong uuid.
私の考えでは、失敗した両方のドライブでスーパーブロックを0に設定する必要があるかもしれません(あるドライブはスペアドライブとしてマークされ、他のドライブはディスク番号が一致しないためです)。その後、再組み立てする必要がありますが、どのように処理するのかわかりません。資源が忙しい状況。
私は不要で潜在的にデータを破壊する可能性のある措置を講じたくありません。したがって、どんなアドバイスでもいただきありがとうございます。
1
derobertはアレイを停止して再組み立てすることを提案しました。 :Dはい、使用しているリソースは解決されましたが、両方のドライブがまだ協力していないようです。手動組み立て/再作成は適切でしょうか?
次のステップのアイデアがありますか?
mdadm assembleの最新の出力は次のとおりです。
erwin@erwin-ubuntu:~$ sudo mdadm --assemble --scan --verbose
mdadm: looking for devices for /dev/md0
mdadm: no RAID superblock on /dev/sdm
mdadm: /dev/sdm has wrong uuid.
mdadm: no RAID superblock on /dev/sdl
mdadm: /dev/sdl has wrong uuid.
mdadm: no RAID superblock on /dev/sdk
mdadm: /dev/sdk has wrong uuid.
mdadm: no RAID superblock on /dev/sdj
mdadm: /dev/sdj has wrong uuid.
mdadm: no RAID superblock on /dev/sdi
mdadm: /dev/sdi has wrong uuid.
mdadm: cannot open device /dev/sdh6: Device or resource busy
mdadm: /dev/sdh6 has wrong uuid.
mdadm: no RAID superblock on /dev/sdh5
mdadm: /dev/sdh5 has wrong uuid.
mdadm: no RAID superblock on /dev/sdh4
mdadm: /dev/sdh4 has wrong uuid.
mdadm: no RAID superblock on /dev/sdh3
mdadm: /dev/sdh3 has wrong uuid.
mdadm: no RAID superblock on /dev/sdh2
mdadm: /dev/sdh2 has wrong uuid.
mdadm: no RAID superblock on /dev/sdh1
mdadm: /dev/sdh1 has wrong uuid.
mdadm: cannot open device /dev/sdh: Device or resource busy
mdadm: /dev/sdh has wrong uuid.
mdadm: no RAID superblock on /dev/sdg
mdadm: /dev/sdg has wrong uuid.
mdadm: no RAID superblock on /dev/sdf
mdadm: /dev/sdf has wrong uuid.
mdadm: no RAID superblock on /dev/sde
mdadm: /dev/sde has wrong uuid.
mdadm: no RAID superblock on /dev/sdd
mdadm: /dev/sdd has wrong uuid.
mdadm: no RAID superblock on /dev/sdc
mdadm: /dev/sdc has wrong uuid.
mdadm: no RAID superblock on /dev/sdb
mdadm: /dev/sdb has wrong uuid.
mdadm: no RAID superblock on /dev/sda
mdadm: /dev/sda has wrong uuid.
mdadm: /dev/sdm1 is identified as a member of /dev/md0, slot 4.
mdadm: /dev/sdl1 is identified as a member of /dev/md0, slot 9.
mdadm: /dev/sdk1 is identified as a member of /dev/md0, slot 5.
mdadm: /dev/sdj1 is identified as a member of /dev/md0, slot 7.
mdadm: /dev/sdi1 is identified as a member of /dev/md0, slot 13.
mdadm: /dev/sdg1 is identified as a member of /dev/md0, slot 6.
mdadm: /dev/sdf1 is identified as a member of /dev/md0, slot 11.
mdadm: /dev/sde1 is identified as a member of /dev/md0, slot 2.
mdadm: /dev/sdd1 is identified as a member of /dev/md0, slot 10.
mdadm: /dev/sdc1 is identified as a member of /dev/md0, slot 8.
mdadm: /dev/sdb1 is identified as a member of /dev/md0, slot 0.
mdadm: /dev/sda1 is identified as a member of /dev/md0, slot 3.
mdadm: no uptodate device for slot 1 of /dev/md0
mdadm: added /dev/sde1 to /dev/md0 as 2
mdadm: added /dev/sda1 to /dev/md0 as 3
mdadm: added /dev/sdm1 to /dev/md0 as 4
mdadm: added /dev/sdk1 to /dev/md0 as 5
mdadm: added /dev/sdg1 to /dev/md0 as 6
mdadm: added /dev/sdj1 to /dev/md0 as 7
mdadm: added /dev/sdc1 to /dev/md0 as 8
mdadm: added /dev/sdl1 to /dev/md0 as 9
mdadm: added /dev/sdd1 to /dev/md0 as 10
mdadm: added /dev/sdf1 to /dev/md0 as 11
mdadm: added /dev/sdi1 to /dev/md0 as 13
mdadm: added /dev/sdb1 to /dev/md0 as 0
mdadm: /dev/md0 assembled from 10 drives and 1 spare - not enough to start the array.
答え1
まず、コンピュータの設定方法によっては、ドライブの書き換えが時々発生します。再起動後もドライブ文字はしばらく安定していないと予想されます。したがって、あなたの推進力があなたに伝わるのは大きな問題ではありません。
dmraidとdevice-mapperがデバイスを使用していないとします。
まあ、mdadm --stop /dev/md0
おそらく忙しいメッセージを処理しています。それが文句を言う理由のようです。その後、組み立てラインを再試行できます。うまくいかない場合は--stopを再度アセンブルします--run
(--assemble --scanを実行しないと、パフォーマンスが低下したアレイは起動しません)。その後、障害が発生したディスクを取り外して再度追加して再構築を試みることができます。
/ dev / sdeは廃止されました(イベントカウンタの確認)。他のものは一見すると大丈夫に見えるので、実際には困難がない可能性が高いと思います。
まだスーパーブロックを0に設定してはいけません。データ損失のリスクが高すぎます。 --runが機能しない場合は、問題を解決するために自分が何をしているのかを知っている人をローカルで(またはSSH経由で接続できる)人を見つける必要があると思います。
アップデート1に返信
mdadmの「配列を開始するのに十分ではない」というメッセージは決して良いニュースではありません。これは、mdadmが12個のドライブRAID5アレイで10個のドライブを見つけたことを意味し、RAID5は生存のみ可能であることを知っていることを願っています。一つ二度は失敗しないでください。
さて、何が起こったのかを総合してみましょう。まず、リブート後にドライブ文字が変更され、把握しようとしている間に迷惑しましたが、mdraidはそれを気にしませんでした。 mdadm 出力を読み取る場合、次は発生した再マッピングです (raid ディスク番号でソート)。
00 sdh1 -> sdb1
02 sdk1 -> sde1 [OUTDATED]
03 sdg1 -> sda1
04 sdf1 -> sdm1
05 sdd1 -> sdk1
06 sdm1 -> sdg1
07 sdc1 -> sdj1
08 sdi1 -> sdc1
09 sde1 -> sdl1
10 sdj1 -> sdd1
11 sdl1 -> sdf1
13 sdb1 -> sdi1 [SPARE]
#02の「イベント」カウンタは他のカウンタよりも低くなります。これは、ある時点で配列を離れたことを意味します。
たとえば、「12ドライブRAID5、1ホットスペア」は正しいですか?
しかし、これが起こる原因となる失敗の順序が何であるかよくわかりません。ある時点で、デバイス#1が失敗し、デバイス#12を再構築し始めたようです。
しかし、次に何が起こったのか正確にはわかりません。ログがあるか、管理者に連絡する必要があります。これは説明できないことです:
とにかく12番が13番になりました。いつのまにか2位は12位になりました。
したがって、#12で再構築してください。しなければならない完了すると#12が#1になります。たぶんそうではないかもしれません。おそらく何らかの理由で再建が不可能な場合があります。したがって、#2が失敗したか、#2が失敗して再構築が完了していない可能性があります。誰か#2を削除してもう一度追加してみましたか?これで12位になることもできます。その後、スペアを削除して再度追加して#13にすることができます。
いいですね。しかし、もちろん、この時点でディスクエラーが2回発生しました。わかりましたね。
これが起こると、2つのディスクエラーが発生しました。これは、データが失われたことを意味します。次の作業は、データの重要性によって異なります(バックアップの品質も考慮)。
データが非常に重要でバックアップが正しく行われていない場合は、データ復旧の専門家に連絡してください。それ以外の場合:
データの価値が十分に高い場合は、関連するすべてのディスクをイメージングするために使用する必要がありますdd
(より大きなディスクを使用し、各ディスクにファイルを入れることでコストを節約できます。たとえば、2TBまたは3TBの外部ディスク)。次に画像をコピーします。その後、そのコピーを復元します(これを行うにはループデバイスを使用できます)。
より多くのスペアパーツを入手してください。死んだディスクがある可能性があります。少なくともいくつかの問題があるディスクがあります。smartctl
これにより、より多くの情報を得ることができます。
--force
あなたの行の横に--assemble
。それにもかかわらず、これによりmdadmは古いディスクを使用します。つまり、一部の業界には古いデータがあり、一部の業界ではそうではありません。新しいディスクの1つをスペアディスクとして追加し、再構築が完了するのを待ちます。悪いブロックにぶつからないようにしてください(これは再構築が失敗する可能性があります。唯一の答えはディスクにそれをマッピングさせることです)。以下はfsck -f
ディスクです。エラーがある可能性があります。修理後にディスクをマウントし、データの外観を確認してください。
提案
今後は12ディスクRAID5を構築しないでください。 2台のハードドライブが故障する可能性が高すぎます。代わりにRAID6またはRAID10を使用してください。また、アレイの不良ブロック()を定期的にクリーンアップしてくださいecho check > /sys/block/md0/md0/sync_action
。
答え2
mdadmコマンドを使用して、次のカーネルパラメータで起動できます。init = / bin / bash
答え3
これがこの問題を解決するための最良の方法であるかどうかはわかりませんが、私のRAID10のドライブの1つが未知の理由で同期されていないときに役立ちました。
まず、見つけることができるすべてのRAIDコンテナを停止しましたsudo mdadm --stop /dev/md*
(複数のRAIDを実行している場合は注意してください。一部は依存する可能性があります)。その後、scanコマンドを使用してすべてのRAIDを再作成しました。
sudo mdadm --assemble --scan --verbose
しかし、これにより、同期されていないドライブ用に別々のコンテナが作成され、停止しました(sudo mdadm --stop /dev/mdX
どのコンテナを調べるかがわかります。私の場合は、同期されていないドライブのデバイス名も表示されます)。 。最後に、私の場合は、このドライブを親コンテナに再度追加します。X
sudo mdadm --detail /dev/md*
/dev/sdg
md127
sudo --manage /dev/md127 -a /dev/sdg
これで同期が開始され、確認してわかります。
sudo watch cat /proc/mdstat
…
[===>............................] recovery = 8.3%
…