mdadm:/dev/md0は3つのドライブで構成されています。アレイを起動するのに十分ではありません。

mdadm:/dev/md0は3つのドライブで構成されています。アレイを起動するのに十分ではありません。

しばらく前に私のraid5のドライブの1つが故障しました。当時は停電によって問題が発生したと思いましたが、最初はマザーボードにあるハードドライブコントローラのためだと思いました(これは私が自分で作ったシステムです)。

それ以来、私は交換システムを構築し、ドライブを移動して起動しようとしました。今私が受け取ったのは、まだシステムの起動に適していないドライブです。

組み立てようとすると次のようになります。

[root@localhost ~]# mdadm --assemble --force /dev/md0 /dev/sdf1 /dev/sde1 /dev/sdd1 /dev/sda1 -v
mdadm: looking for devices for /dev/md0
mdadm: /dev/sdf1 is identified as a member of /dev/md0, slot 0.
mdadm: /dev/sde1 is identified as a member of /dev/md0, slot 1.
mdadm: /dev/sdd1 is identified as a member of /dev/md0, slot 2.
mdadm: /dev/sda1 is identified as a member of /dev/md0, slot 3.
mdadm: added /dev/sde1 to /dev/md0 as 1
mdadm: added /dev/sdd1 to /dev/md0 as 2
mdadm: added /dev/sda1 to /dev/md0 as 3 (possibly out of date)
mdadm: no uptodate device for slot 8 of /dev/md0
mdadm: added /dev/sdf1 to /dev/md0 as 0
mdadm: /dev/md0 assembled from 3 drives - not enough to start the array.

ドライブを確認すると、次の結果が表示されます。

[root@localhost ~]# mdadm --examine /dev/sd[a-z]1
/dev/sda1:
          Magic : a92b4efc
        Version : 1.1
    Feature Map : 0x1
     Array UUID : 491fdb85:372da78e:8022a675:04a2932c
           Name : kenya:0
  Creation Time : Wed Aug 21 14:18:41 2013
     Raid Level : raid5
   Raid Devices : 5

 Avail Dev Size : 3906764800 (1862.89 GiB 2000.26 GB)
     Array Size : 7813527552 (7451.56 GiB 8001.05 GB)
  Used Dev Size : 3906763776 (1862.89 GiB 2000.26 GB)
    Data Offset : 262144 sectors
   Super Offset : 0 sectors
   Unused Space : before=262072 sectors, after=1024 sectors
          State : clean
    Device UUID : 879d0ddf:9f9c91c5:ffb0185f:c69dd71f

Internal Bitmap : 8 sectors from superblock
    Update Time : Thu Feb  5 06:05:09 2015
       Checksum : 758a6362 - correct
         Events : 624481

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 3
   Array State : AAAA. ('A' == active, '.' == missing, 'R' == replacing)

mdadm: No md superblock detected on /dev/sdb1.

/dev/sdd1:
          Magic : a92b4efc
        Version : 1.1
    Feature Map : 0x1
     Array UUID : 491fdb85:372da78e:8022a675:04a2932c
           Name : kenya:0
  Creation Time : Wed Aug 21 14:18:41 2013
     Raid Level : raid5
   Raid Devices : 5

 Avail Dev Size : 3906764800 (1862.89 GiB 2000.26 GB)
     Array Size : 7813527552 (7451.56 GiB 8001.05 GB)
  Used Dev Size : 3906763776 (1862.89 GiB 2000.26 GB)
    Data Offset : 262144 sectors
   Super Offset : 0 sectors
   Unused Space : before=262072 sectors, after=1024 sectors
          State : clean
    Device UUID : 3a403437:9a1690ea:f6ce8525:730d1d9c

Internal Bitmap : 8 sectors from superblock
    Update Time : Thu Feb  5 06:07:11 2015
       Checksum : 355d0e32 - correct
         Events : 624485

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 2
   Array State : AAA.. ('A' == active, '.' == missing, 'R' == replacing)

/dev/sde1:
          Magic : a92b4efc
        Version : 1.1
    Feature Map : 0x1
     Array UUID : 491fdb85:372da78e:8022a675:04a2932c
           Name : kenya:0
  Creation Time : Wed Aug 21 14:18:41 2013
     Raid Level : raid5
   Raid Devices : 5

 Avail Dev Size : 3906764800 (1862.89 GiB 2000.26 GB)
     Array Size : 7813527552 (7451.56 GiB 8001.05 GB)
  Used Dev Size : 3906763776 (1862.89 GiB 2000.26 GB)
    Data Offset : 262144 sectors
   Super Offset : 0 sectors
   Unused Space : before=262072 sectors, after=1024 sectors
          State : clean
    Device UUID : 7d7ec5fe:b4b55c4e:4e903357:1aa3bae3

Internal Bitmap : 8 sectors from superblock
    Update Time : Thu Feb  5 06:07:11 2015
       Checksum : da06428d - correct
         Events : 624485

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 1
   Array State : AAA.. ('A' == active, '.' == missing, 'R' == replacing)

/dev/sdf1:
          Magic : a92b4efc
        Version : 1.1
    Feature Map : 0x1
     Array UUID : 491fdb85:372da78e:8022a675:04a2932c
           Name : kenya:0
  Creation Time : Wed Aug 21 14:18:41 2013
     Raid Level : raid5
   Raid Devices : 5

 Avail Dev Size : 3906764800 (1862.89 GiB 2000.26 GB)
     Array Size : 7813527552 (7451.56 GiB 8001.05 GB)
  Used Dev Size : 3906763776 (1862.89 GiB 2000.26 GB)
    Data Offset : 262144 sectors
   Super Offset : 0 sectors
   Unused Space : before=262072 sectors, after=1024 sectors
          State : clean
    Device UUID : c091025f:8296517b:0237935f:5cc03cfc

Internal Bitmap : 8 sectors from superblock
    Update Time : Thu Feb  5 06:07:11 2015
       Checksum : 8819fa93 - correct
         Events : 624485

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 0
   Array State : AAA.. ('A' == active, '.' == missing, 'R' == replacing)
/dev/sdg1:
   MBR Magic : aa55
Partition[0] :       808960 sectors at            0 (type 17)

これには次のものがあります。

[root@localhost ~]# cat /proc/mdstat
Personalities : [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] [linear]
unused devices: <none>

回復プロセスで起動しながらこの情報を収集しました。システムはCentos 6.2です。 IRCの助けを借りて、sdaドライブが他のドライブと同期していないことを知っています。故障したドライブが現在sdgとしてリストされていると思いますが、わかりません。また、ドライブの順序がfeda(sdf、sde、sdd、sda)であることもわかっています。

残りのドライブを構築できるときは、接続するために死んだドライブを交換する準備ができている交換用ドライブがすでにあります。元々はアレイから削除されたものとしてリストしようとしましたが、ステータスを確認できませんでした。

私はlinux-raidメーリングリストに参加して使ってみましたが、そのメーリングリストがまだ有効になっているかどうか疑問に思います。 (「配達済み[Eメール保護]永久的な失敗。 ")centos ircチャンネルのヘルプは、そのソースから追​​加の支援を受けることを提案しました。今ここで試しています。

私もこの記事を読んでいましたが、スレッドの終わりにある提案を試みる前に、他のフォーラムでより具体的なコメントを求めたかったのです。http://ubuntuforums.org/showthread.php?t=2276699

mdadmやlinux-raidで動作する電子メールスレッドがある場合は、そこに喜んで投稿します。この状況に関する追加データを提供できる場合は、お知らせください。

答え1

まず、ドライブをバックアップすることをお勧めしますdd。これは非常に賢明な最初のステップです。

イベントカウンタと最後の更新タイムスタンプを見ると、sdaがアレイから削除されたが、削除された時点と最後にアクセスされた時点の間で大幅に変更されていないことがわかります。 sdaでデバイスの状態を表示することもできます(0-3はアクティブで、4は欠落しています(mdadmは0から計算を開始します)。他のドライブでは、0-2がアクティブで、3と4がありません)。そのため、RAID5に2番目のディスク障害が発生し、アレイの動作が停止します。

mdadmしたがって、基本的にsdaが使用されなくなったことを無視して、とにかくアレイを組み立てるように依頼する必要があります。これは--force- だからしなければならないもう職場にいます。追加--run(または使用--scan)するだけで済みます。私の考えでは、それがここで起こっているようです。

別の可能性は、ブートスクリプトがアレイを半分だけ組み立ててデバイスを動作させることです。このようなことが起こらなかったか、望ましくないアレイがないかどうかを確認するには、(catまたはless)を確認します。/proc/mdstatmdadm --stop

--verbosemdadmが配列を組み立てない理由をよりよく理解するために追加することもできます。

アレイが組み立てられたら、mdadm -aここに新しいディスクを追加でき、再構築がすぐに始まります。不安定に見えるので、sdaの交換も考慮する必要があります(以前は終了しました)。

それにもかかわらず、スーパーブロックをゼロ化することは、アレイを回復するための最後の手段に近い大胆な方法です。ここでは必要ありません。

関連情報