停電後のRaid5ダウングレードの問題

停電後のRaid5ダウングレードの問題

8つのディスクからなるraid5があります。停電以降、mdadmがレイド性能が低下したと言いました。出力は次のとおりです。

/dev/md0:
        Version : 0.90
  Creation Time : Sat Jul 10 09:08:28 2010
     Raid Level : raid5
     Array Size : 13674601472 (13041.12 GiB 14002.79 GB)
  Used Dev Size : 1953514496 (1863.02 GiB 2000.40 GB)
   Raid Devices : 8
  Total Devices : 7
Preferred Minor : 0
    Persistence : Superblock is persistent

    Update Time : Thu Aug  2 18:42:05 2012
          State : clean, degraded
 Active Devices : 7
Working Devices : 7
 Failed Devices : 0
  Spare Devices : 0

         Layout : left-symmetric
     Chunk Size : 64K

           UUID : 09dd4536:a6153f6b:f1f4aaa9:53aab85a
         Events : 0.9189750

    Number   Major   Minor   RaidDevice State
       0       8        0        0      active sync   /dev/sda
       1       8       16        1      active sync   /dev/sdb
       2       8       96        2      active sync   /dev/sdg
       3       8      112        3      active sync   /dev/sdh
       4       8       32        4      active sync   /dev/sdc
       5       8       48        5      active sync   /dev/sdd
       6       8       64        6      active sync   /dev/sde
       7       0        0        7      removed

したがって、/dev/sdf がありません。それで、ドライブに関する情報を少し手に入れようとしています。 smartctlは問題を報告せずにfdisk -l期待どおりにリストします。ついに私はそれを試して、mdadm -E /dev/sdf次のような結果を得ました。

/dev/sdf:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : 09dd4536:a6153f6b:f1f4aaa9:53aab85a
  Creation Time : Sat Jul 10 09:08:28 2010
     Raid Level : raid5
  Used Dev Size : 1953514496 (1863.02 GiB 2000.40 GB)
     Array Size : 13674601472 (13041.12 GiB 14002.79 GB)
   Raid Devices : 8
  Total Devices : 8
Preferred Minor : 0

    Update Time : Wed Mar 28 17:19:58 2012
          State : clean
 Active Devices : 8
Working Devices : 8
 Failed Devices : 0
  Spare Devices : 0
       Checksum : afeeecc7 - correct
         Events : 9081618

         Layout : left-symmetric
     Chunk Size : 64K

      Number   Major   Minor   RaidDevice State
this     7       8      112        7      active sync   /dev/sdh

   0     0       8        0        0      active sync   /dev/sda
   1     1       8       16        1      active sync   /dev/sdb
   2     2       8       32        2      active sync   /dev/sdc
   3     3       8       48        3      active sync   /dev/sdd
   4     4       8       64        4      active sync   /dev/sde
   5     5       8       80        5      active sync   /dev/sdf
   6     6       8       96        6      active sync   /dev/sdg
   7     7       8      112        7      active sync   /dev/sdh

ここで問題は何ですか?交換する必要がありますかsdf?それとも修理できますか?

修正する

私も見て、dmesg次のような結果を得ました。

[    9.289086] md: kicking non-fresh sdf from array!
[    9.289090] md: unbind<sdf>
[    9.296541] md: export_rdev(sdf)

答え1

わかりました。この質問を早く投稿しました。ご存じのとおり、電源が切れた場合に発生します。

ドライブ(mdadm /dev/md0 --add /dev/sdf)を再度追加し、mdadmがアレイの再構築を開始しました。

関連情報