私のDebianコンピュータには、3つのHDDをアクティブなハードドライブとして使用する、素敵でうまく機能するソフトウェアベースのRAID1があります。
ディスクの1つをスペアとしてマークし、最終的に2つのアクティブディスク+ 1つのスペアディスクになるようにしたいと思います。
図:
mdadm --manage --raid-devices=2 --spare-devices=1 /dev/md0
このようなことは失敗します。これは、オプションの1つが現在のオプションモードでサポートされていないか失敗したことを示します。
Billy@localhost~#: mdadm -G --raid-devices=2 /dev/md0
mdadm: failed to set raid disks
unfreeze
または
Billy@localhost~#: mdadm --manage --raid-devices=2 --spare-devices=1 /dev/md0
mdadm: :option --raid-devices not valid in manage mode
または同様です。わかりません。助けてください?
答え1
cat /proc/mdstat
以下を使用して、配列の現在の状態を確認できます。この例では、データのソースはここにあります。
したがって、md127
raid1には3つのディスクがあるとします。ここではディスクのパーティションだけですが、それは問題ではありません。
md127 : active raid1 vdb3[2] vdb2[1] vdb1[0]
102272 blocks super 1.2 [3/3] [UUU]
削除する前に、ディスクの1つをオフラインにする必要があります。
$ sudo mdadm --manage /dev/md127 --fail /dev/vdb2
mdadm: set /dev/vdb2 faulty in /dev/md127
現在の状況は、状況が非常に悪いことを示しています。
md127 : active raid1 vdb3[2] vdb2[1](F) vdb1[0]
102272 blocks super 1.2 [3/2] [U_U]
これでディスクを削除できます。
$ sudo mdadm --manage /dev/md127 --remove /dev/vdb2
mdadm: hot removed /dev/vdb2 from /dev/md127
md127 : active raid1 vdb3[2] vdb1[0]
102272 blocks super 1.2 [3/2] [U_U]
さて、サイズを変更してください。
$ sudo mdadm --grow /dev/md127 --raid-devices=2
raid_disks for /dev/md127 set to 2
unfreeze
この時点で、アレイを2つのディスクに正常に削減しました。
md127 : active raid1 vdb3[2] vdb1[0]
102272 blocks super 1.2 [2/2] [UU]
これで、新しいディスクをホットスペアとして再追加できます。
$ sudo mdadm -a /dev/md127 /dev/vdb2
mdadm: added /dev/vdb2
md127 : active raid1 vdb2[3](S) vdb3[2] vdb1[0]
102272 blocks super 1.2 [2/2] [UU]
(S)
ホットスペアであることを示します。
既存のディスクに障害が発生し、スペアディスクで再構築が発生していることを確認して、これが期待どおりに機能していることを確認できます。
$ sudo mdadm --manage /dev/md127 --fail /dev/vdb1
mdadm: set /dev/vdb1 faulty in /dev/md127
md127 : active raid1 vdb2[3] vdb3[2] vdb1[0](F)
102272 blocks super 1.2 [2/1] [_U]
[=======>.............] recovery = 37.5% (38400/102272) finish=0.0min speed=38400K/sec
vdb2
(S)
ホットスペアではないため、表示されなくなります。
不良ディスクを再度追加した後それこれで常時待機としてマークされます
md127 : active raid1 vdb1[4](S) vdb2[3] vdb3[2]
102272 blocks super 1.2 [2/2] [UU]