CentOS 7インストール(10x1TB)に新しいドライブセットを設定していますが、ビルドプロセス中に何か迷惑な現象が見られます。
アレイを構築しようとするとすぐに認識されますが、エラー状態(パフォーマンスの低下、ディスクが1つ欠落している)を示します。
完全なビルドコマンドは次のとおりです。
mdadm --create /dev/md1 --level=5 --raid-devices=9 /dev/sde1 /dev/sdg1 /dev/sdc1 /dev/sdd1 /dev/sdf1 /dev/sdl1 /dev/sdj1 /dev/sdi1 /dev/sdm1 --spare-devices=1 /dev/sdk1
しかし、その後、スペアドライブなしで同じことを試みました。
mdadm --create /dev/md1 --level=5 --raid-devices=9 /dev/sde1 /dev/sdg1 /dev/sdc1 /dev/sdd1 /dev/sdf1 /dev/sdl1 /dev/sdj1 /dev/sdi1 /dev/sdm1
以下は3つのドライブアレイのバリエーションです。
mdadm --create /dev/md1 --level=5 --raid-devices=3 /dev/sdj1 /dev/sdi1 /dev/sdm1
mdadm --create /dev/md1 --level=5 --raid-devices=3 /dev/sde1 /dev/sdg1 /dev/sdc1
すべての場合において、新しいアレイは予想される使用可能なサイズ(変形の場合は8TBおよび2TB)に初期化されます。再構築中もアレイを使用でき、ファイルを読み書きできます。
奇妙なことに、スペアドライブとして構築すると、スペアドライブは多くの読み取り/書き込みアクティビティを示しています。これは、このドライブが何とか構築に関与していることを意味します。
基本的にこれは正常ですか?正常でなければ、私が何を間違っているのでしょうか?
編集する:
これは次の出力です。mdadm --detail /dev/md1
/dev/md1:
Version : 1.2
Creation Time : Sun Jan 4 00:00:22 2015
Raid Level : raid5
Array Size : 7813042176 (7451.10 GiB 8000.56 GB)
Used Dev Size : 976630272 (931.39 GiB 1000.07 GB)
Raid Devices : 9
Total Devices : 10
Persistence : Superblock is persistent
Update Time : Sun Jan 4 00:05:33 2015
State : clean, degraded, recovering
Active Devices : 8
Working Devices : 10
Failed Devices : 0
Spare Devices : 2
Layout : left-symmetric
Chunk Size : 512K
Rebuild Status : 0% complete
Name : localhost.localdomain:1 (local to host localhost.localdomain)
UUID : f2d4f470:9d5022bf:a397b5a0:45b94d28
Events : 72
Number Major Minor RaidDevice State
0 8 65 0 active sync /dev/sde1
1 8 97 1 active sync /dev/sdg1
2 8 33 2 active sync /dev/sdc1
3 8 49 3 active sync /dev/sdd1
4 8 81 4 active sync /dev/sdf1
5 8 177 5 active sync /dev/sdl1
6 8 145 6 active sync /dev/sdj1
7 8 129 7 active sync /dev/sdi1
10 8 193 8 spare rebuilding /dev/sdm1
9 8 161 - spare /dev/sdk1
答え1
はい、これは正常です。配列を初めて作成するときは、パリティブロックを計算して作成する必要があります。これがまさに皆さんが見ているものです。ドライブがゼロで満たされていることがわかっている場合は、スイッチを使用して初期再同期をスキップ--assume-clean
できます。mdadm
ドライブが実際にゼロで満たされていない場合、正しいパリティを計算しなかったため、アレイの将来のパリティチェックで多くのエラーが報告されます。
また、参考までに、2番目のドライブが再構築される前にエラーが発生する可能性が高くなるため、raid5を使用してこれらの大規模アレイを作成することはお勧めできません。代わりにraid6を使用することもできます。