この襲撃情報出力をどのように読みますか?

この襲撃情報出力をどのように読みますか?

現在、リモートUbuntu 18.04サーバーで作業しており、新しいRAIDアレイ(raid1)を設定してから、アクティブファイルシステムに空きパーティションとしてマウントする必要があります。私にとって最初のステップは、今何が起こっているのかを理解することです。アクティブシステムには、RAID 1アレイに接続された2つのハードドライブがあることがわかります。私はこのlsblkコマンドを使用していくつかの情報を収集します。出力は次のとおりです。

NAME        MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
nvme0n1     259:0    0 894,3G  0 disk  
├─nvme0n1p1 259:1    0     4G  0 part  
│ └─md0       9:0    0     4G  0 raid1 [SWAP]
├─nvme0n1p2 259:2    0   512M  0 part  
│ └─md1       9:1    0 511,4M  0 raid1 /boot
└─nvme0n1p3 259:3    0 889,8G  0 part  
  └─md2       9:2    0 889,6G  0 raid1 /

それでは、これは私の物理デバイスが何であるかを意味しますかnvme0n1? 3部分(スワップ領域、ブート領域、/)に分けられます。同じ物理デバイス(nvme0n1)の場合、パーティション(nvme0n1p1,nvme0n1p2,nvme0n1p3)がまだ分割されているのはなぜですかmd0,md1,md2nvme0n1p1これらとそしての違いは何ですかmd0

さらに、cat /proc/mdstat次のような結果が出た場合:

md2 : active raid1 nvme0n1p3[1]
      932840768 blocks super 1.2 [2/1] [_U]
      bitmap: 7/7 pages [28KB], 65536KB chunk

md1 : active raid1 nvme0n1p2[1]
      523712 blocks super 1.2 [2/1] [_U]
      
md0 : active raid1 nvme0n1p1[1]
      4190208 blocks super 1.2 [2/1] [_U]

これは3つのアクティブな攻撃ブロックを示しています。 1つのRAIDアレイのみが実行されています。出力を解釈できません。助けが必要です。

ありがとう

答え1

これがフルlsblk出力の場合、残念ながら1つの物理ストレージデバイスのみが表示されますnvme0n1

パーティションはnvme0n13つのパーティションに分かれており、各パーティションはソフトウェアRAID1ミラーとして個別に設定されています。これによりmd0md13つのソフトウェアRAIDデバイスが提供されますmd2。これらはそれぞれディスク全体ではなくソフトウェアRAIDパーティションに対応しています。

このように各パーティションにRAIDを設定すると、BIOSがLinuxソフトウェアRAIDをまったくサポートしていなくても、BIOSはディスクをパーティションディスクとして認識できます。これにより、起動と特定の回復シナリオをより簡単に処理でき、必要に応じて非RAID構成で簡単に回復できます。

通常のミラーリング状態では、+のミラーセット、+のセットなどをmd0参照します。デバイスを使用してファイルシステムをマウントし、スワップを有効にできます。これらのデバイスを使用するために開くと、ソフトウェアRAIDサブシステムは排他的アクセスのためにプライマリ物理パーティションをロックするため、パーティションへのすべてのアクセスはRAIDレイヤを通過する必要があります。nvme0n1p1nvme1n1p1md1nvme0n1p2nvme1n1p2md0md1md2

ただし、すべてのソフトウェアRAIDセットにRAID1ペアの後半はありません。これは、システムが2つの同じNVMeデバイスでソフトウェアRAID設定を使用しているが、そのうちの1つがnvme1n1失敗したことを意味します。あるいは、2台目のNVMeデバイスを取得した後に物理RAID1に簡単に切り替えることができるように、システムは単一のNVMeディスクにRAID1セットの半分に設定されていますが、何らかの理由で決して発生しなかった可能性があります。

最初にすべきことは、失敗したNVMeを交換(または欠落しているNVMeを追加)してから、既存のRAIDペアを復元することです。

  • 既存ディスクのパーティションテーブルを新しいディスクにコピー
  • mdNそのデバイスのスペアパーティションで新しいディスクのパーティションを初期化します。
  • 各ペアでRAID1リカバリを開始
  • MBRとGRUBの一部はミラーパーティションの外側にあるため、ブートローダの2番目のコピーを2番目のディスクにインストールします。
  • 物理デバイスの1つの障害が再発見されないようにRAIDデバイス監視を設定します。

完了したら、新しいRAIDアレイを設定する元の作業を検討できます。既存の物理ストレージがnvme0n1完全に使用されているように見えるため、これにはより多くの物理ストレージが必要です(現在の半分のミラーが完全に復元された場合は、そのミラーの同伴も同様です)。

答え2

はい、出力には1つの物理デバイス(nvme0n1)のみが表示されます。

はい、出力には3つのパーティションがあるとマークされています。

興味深い部分はの情報です/proc/mdstatサム設定されたRAIDデバイスがすべて表示されます[_U]。これは健康なシステムで言うべきです[UU]。 3つのRAIDデバイスはraid1(ミラー)で構成されているため、2台目のドライブの障害によってまだデータが失われていません。もちろん、2番目のドライブは削除されたため、検出されない可能性があります。

ブートログを調べると、2番目のドライブがあるかどうかがわかります。

nvme0n1p1 はパーティションです。最初はレイドヘッダーがあります。パーティションの残りのセクタは、md0 デバイスのデータとして使用されます。 2番目のドライブ(おそらく既存のspinning rustハードドライブ)が接続されている場合、少なくとも3つのパーティションがあると予想します。そのうちの1つ(通常は最初のパーティションがあるため、/ dev / hda1)にはraidヘッダーもあります。その後、残りのセクタは、/dev/md0デバイスデータの2番目のコピーを保持するために使用されます。

関連情報