次のコマンドを使用して、6台のハードドライブからmdadmベースのRAID 5を作成しました。
# mdadm --create /dev/md0 --level=5 --raid-devices=5 \
/dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1 /dev/sdf1 \
--spare-devices=1 /dev/sdg1
このアレイにホットスペア(/dev/sdg1)があることを望みます。しかし、検査の結果、mdadm --detail
2つのスペアパーツがあることがわかりました。
# mdadm --detail --scan
ARRAY /dev/md0 metadata=1.2 spares=2 name=...
また、表示されているアレイのdf
サイズは2 TBで、これは私が使用した500 GBドライブの4つにすぎません。
それでは、意味論は正確に何ですか--spare-devices
?マニュアルページには、「初期アレイのスペア(追加)デバイス数を指定します」と記載されていますが、ここではそうではありません。
答え1
出力は正しいです。 5つのディスクでRAID 5を作成します(4つだけがスペースを「使用」します)。そして追加のスペアドライブを追加します。
これにより、1つのディスク障害+追加のスペアドライブを可能にするRAID 5を効果的に使用できます.
必要なものが実際に6つのディスクRAID 5で、5つのディスク用のスペースがある場合は、コマンドを次のように変更する必要があります。
mdadm --create /dev/md0 --level=5 --raid-devices=6 \
/dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1 /dev/sdf1 /dev/sdg1
ただし、この場合RAID 5の仕様によれば、ディスク障害は1つしか許可されません。
編集:公式raidページにリンクが追加されました。 6つのディスクを持つRAID 5が表示され、ステータスはSpare = 1です。 初期アレイの作成
修正する:私のシステムにraid 5を作成することにしましたが、アレイがきれいな状態になると待機値が消えます。
Raid Devices : 4
Total Devices : 4
State : clean, degraded, recovering
Active Devices : 3
Working Devices : 4
Failed Devices : 0
Spare Devices : 1
きれいな状態:
Raid Devices : 4
Total Devices : 4
State : clean
Active Devices : 4
Working Devices : 4
Failed Devices : 0
Spare Devices : 0
したがって、OPの説明によると、初期raid 5の作成中にraidのビルド/同期が完了するまでスペアドライブがあります。
答え2
わかりやすくするために、ここではderobertとAlexandre Alvesが提供した情報と追加のテストをまとめます。
mdadm
パラメータ--spare-devices
はマニュアルページに記載されているとおりに機能します。つまり、アレイの「ホットスペア」ドライブの数を定義します。一般的なRAID用語では、「ホットスペア」は、RAID 5またはRAID 6アレイにある追加のドライブとは無関係であり、アレイのドライブに障害が発生した直後に引き継ぐように設計された追加のドライブです。
スペアドライブの数は、アレイの作成時に提供されます。後でを使用して確認できます#mdadm --detail --scan
。
ただし、mdadmベースのRAID 5初期化の短期間の最適化の説明は次のとおりです。https://raid.wiki.kernel.org/index.php/Initial_Array_Creationこれにより、このコマンドの出力に追加のスペアドライブが表示されます。
raid5 には最適化があります。 、パリティ計算スペアディスクに何が必要かを確認して決定し、ここに書き込みます。
アレイの初期化が完了すると、報告されたスペアの数は作成時に選択した数に戻ります。