セントース7があります。
mdadmを使用して作成された7つのドライブRAID6アレイがあります。 (WD 4TB Redドライブに書いた記事です。)
私はRAIDアレイをLVM PVに設定しました。みんな何年もよく働いてきました。
LVMのドライブスペースがほとんど不足しています。以下のようにスペースを追加したいです。
1)2つのWD RED 6TBドライブを購入し、mdadmからRAID1セットを作成します。 2) PV を作成して LVM に RAID セットを提供します。 3) 追加の 6TB ディスク容量を使用して LV を拡張します。
しかし、LV 6TBをより大きくしたくはありません。私が達成したい最終的な結果は、RAID6アレイから4TBドライブの1つを削除することで、合計ディスク容量を効果的に2TB増やすことです。
私が取るべき高レベルのステップは次のとおりです。
1) 2つの6TBドライブで構成されるRAID1アレイの作成(例: /dev/md1) 2) 6TBをLVMパーティションに分割 3) 6TB空間を持つPVを作成を確保するために、適切な数のエクステントを6TB PVに移動しました。
もう少しぼやけ始めました。そうだと思います。
6) RAID6 VGを縮小して4TBの空きディスク容量を確保します。 7) RAID6 アレイのディスク数を減らします。 8) ケースを終了し、死んだドライブを取り外しますか?
6)、7)、8)を具体化する必要があります。私が正しい方向に行っていることを教えてください。
RAID6アレイの状態は良好です。廃棄されたドライブをバックアップ機能を実行する補助装置に移動する予定です。
答え1
あなたの説明はやや正確です。
しかし、これはかなり複雑なプロセスです。pvmove
現在のPVの最後の4TBから範囲を拡張してから、RAID6アレイ全体のサイズを再調整する必要があります(5.1.5より前のカーネル5.1.xにはRAID6破損のバグがありました)。 、そして指を交差させて、何も起こらないことを願っています。
私が達成したい最終的な結果は、RAID6アレイから4TBドライブの1つを削除することで、合計ディスク容量を効果的に2TB増やすことです。
4TBドライブをすべて捨てる予定がない場合は、別の方法で行います。つまり、6TBドライブを分割して4TB RAID6アレイに参加させることです。
4TBドライブを取り外そうとしているので、mdadm --replace
6TBドライブ(4TBパーティションがある)と交換してください。その後、4TBドライブを自由に別のボックスに移動でき、RAID6アレイのサイズは同じままです。
mdadm --grow --raid-devices=8 --add
その後、別の6TBドライブ(上記の4TBパーティション)があります。この段階では、RAID6 PVが4TB増加しました。
この時点では、6TBドライブのうち4TBのみが使用されます。残りの2TBパーティションを使用してRAID1アレイを構築し、2TBの空き容量を追加できます。
これにより、合計ディスク容量が6TBまで効果的に増加し、デュアル4TBが双方向冗長性として扱われます。
私のすべてのRAIDアレイはこのように構築されました。すべてのドライブを同じサイズのセグメントに分割することで、冗長性を犠牲にすることなくドライブサイズを混在させ、ストレージ効率を最大化できます。また、すべてのリスクを取る代わりに、データ優先可塑性タスクの小さな部分で危険な冗長性を実行することができます。ある場所でドライブに障害が発生すると、影響を受けたセグメントだけがパフォーマンスが低下し、--replace
問題のあるドライブが見つかるまで、他のセグメントは完全に重複したままになります。