失敗したThecus N7700 Pro NASで7台のハードドライブを正常にイメージングし、バックアップイメージからRAID6アレイを正常に再構築した後にRAID6アレイをインストールしようとすると、古いPVヘッダ警告エラーが発生し、インストール中にエラーが発生するしました。ボリュームグループメタデータの更新。
参考までに、以下はアレイを再構築した後の手順です。この問題を解決する方法に関するガイダンス/アドバイスをいただきありがとうございます。
ループデバイスに7つのハードドライブイメージを追加するコマンドは次のとおりです。
$ sudo losetup -fPr --show /media/<target drive mount point>/recovery/hdd<id>.img
Returned output:
/dev/loop0
$ sudo losetup -fPr --show /media/<target drive mount point>/recovery/hdd<id>.img
Returned output:
/dev/loop1
$ sudo losetup -fPr --show /media/<target drive mount point>/recovery/hdd<id>.img
Returned output:
/dev/loop2
$ sudo losetup -fPr --show /media/<target drive mount point>/recovery/hdd<id>.img
Returned output:
/dev/loop3
$ sudo losetup -fPr --show /media/<target drive mount point>/recovery/hdd<id>.img
Returned output:
/dev/loop4
$ sudo losetup -fPr --show /media/<target drive mount point>/recovery/hdd<id>.img
Returned output:
/dev/loop5
$ sudo losetup -fPr --show /media/<target drive mount point>/recovery/hdd<id>.img
Returned output:
/dev/loop6
RAID6アレイの再構築
次のコマンドを使用して、各RAID6アレイドライブイメージを使用可能な次のロータリーに追加します。
$ sudo mdadm --assemble --scan
Returned output:
mdadm: /dev/md/0 has been started with 7 drives.
mdadm: /dev/md1 has been started with 7 drives.
ブロックデバイスの確認
次のコマンドを使用して、すべてのブロックデバイスを確認します。
$ sudo lsblk
Returned output:
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINTS
loop0 7:0 0 1.8T 1 loop
├─loop0p1 259:0 0 1.9G 1 part
│ └─md0 9:0 0 1.9G 1 raid1
└─loop0p2 259:1 0 1.8T 1 part
└─md1 9:1 0 9.1T 1 raid6
├─vg0-syslv 254:0 0 1G 0 lvm
└─vg0-lv0 254:1 0 8.6T 0 lvm
loop1 7:1 0 1.8T 1 loop
├─loop1p1 259:2 0 1.9G 1 part
│ └─md0 9:0 0 1.9G 1 raid1
└─loop1p2 259:3 0 1.8T 1 part
└─md1 9:1 0 9.1T 1 raid6
├─vg0-syslv 254:0 0 1G 0 lvm
└─vg0-lv0 254:1 0 8.6T 0 lvm
loop2 7:2 0 1.8T 1 loop
├─loop2p1 259:4 0 1.9G 1 part
│ └─md0 9:0 0 1.9G 1 raid1
└─loop2p2 259:5 0 1.8T 1 part
└─md1 9:1 0 9.1T 1 raid6
├─vg0-syslv 254:0 0 1G 0 lvm
└─vg0-lv0 254:1 0 8.6T 0 lvm
loop3 7:3 0 1.8T 1 loop
├─loop3p1 259:6 0 1.9G 1 part
│ └─md0 9:0 0 1.9G 1 raid1
└─loop3p2 259:7 0 1.8T 1 part
└─md1 9:1 0 9.1T 1 raid6
├─vg0-syslv 254:0 0 1G 0 lvm
└─vg0-lv0 254:1 0 8.6T 0 lvm
loop4 7:4 0 1.8T 1 loop
├─loop4p1 259:8 0 1.9G 1 part
│ └─md0 9:0 0 1.9G 1 raid1
└─loop4p2 259:9 0 1.8T 1 part
└─md1 9:1 0 9.1T 1 raid6
├─vg0-syslv 254:0 0 1G 0 lvm
└─vg0-lv0 254:1 0 8.6T 0 lvm
loop5 7:5 0 1.8T 1 loop
├─loop5p1 259:10 0 1.9G 1 part
│ └─md0 9:0 0 1.9G 1 raid1
└─loop5p2 259:11 0 1.8T 1 part
└─md1 9:1 0 9.1T 1 raid6
├─vg0-syslv 254:0 0 1G 0 lvm
└─vg0-lv0 254:1 0 8.6T 0 lvm
loop6 7:6 0 1.8T 1 loop
├─loop6p1 259:12 0 1.9G 1 part
│ └─md0 9:0 0 1.9G 1 raid1
└─loop6p2 259:13 0 1.8T 1 part
└─md1 9:1 0 9.1T 1 raid6
├─vg0-syslv 254:0 0 1G 0 lvm
└─vg0-lv0 254:1 0 8.6T 0 lvm
sda 8:0 0 953.9G 0 disk
├─sda1 8:1 0 512M 0 part /boot/efi
├─sda2 8:2 0 23.3G 0 part /
├─sda3 8:3 0 9.3G 0 part /var
├─sda4 8:4 0 977M 0 part [SWAP]
├─sda5 8:5 0 1.9G 0 part /tmp
└─sda6 8:6 0 918G 0 part /home
sdb 8:16 0 10.9T 0 disk
└─sdb1 8:17 0 10.9T 0 part /media/<user>/7DFF-F49D
sdc 8:32 0 16.4T 0 disk
└─sdc1 8:33 0 16.4T 0 part /media/<user>/data
sr0 11:0 1 1024M 0 rom
再構築されたRAID6アレイの詳細を確認する
次のコマンドを使用して、再構成されたRAID6アレイの詳細を確認します。
$ sudo mdadm --detail /dev/md1
Returned output:
/dev/md1:
Version : 0.90
Creation Time : Tue Apr 27 16:44:08 2010
Raid Level : raid6
Array Size : 9757760000 (9.09 TiB 9.99 TB)
Used Dev Size : 1951552000 (1861.15 GiB 1998.39 GB)
Raid Devices : 7
Total Devices : 7
Preferred Minor : 1
Persistence : Superblock is persistent
Update Time : Sun Mar 26 02:00:20 2023
State : clean
Active Devices : 7
Working Devices : 7
Failed Devices : 0
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 64K
Consistency Policy : resync
UUID : ea8bd249:df05f100:4d76e077:2dd3364e
Events : 0.23046
Number Major Minor RaidDevice State
0 259 1 0 active sync /dev/loop0p2
1 259 3 1 active sync /dev/loop1p2
2 259 5 2 active sync /dev/loop2p2
3 259 7 3 active sync /dev/loop3p2
4 259 9 4 active sync /dev/loop4p2
5 259 11 5 active sync /dev/loop5p2
6 259 13 6 active sync /dev/loop6p2
Mdadm構成ファイルの作成と確認
注:このタスクを実行するにはroot権限が必要です。次のコマンドを使用して mdadm.conf ファイルを作成します。
$ sudo mdadm --detail --scan > /etc/mdadm.conf
次のコマンドを使用して、生成されたmdadm.confファイルを確認します。
$ sudo cat /etc/mdadm.conf
Returned output:
ARRAY /dev/md/0 metadata=1.0 name=RCLSVR01:0 UUID=a87e6315:d3fe49fe:3a2d39f8:7977760a
ARRAY /dev/md1 metadata=0.90 UUID=ea8bd249:df05f100:4d76e077:2dd3364e
RAID6アレイのマウントと再構築の試み
次のコマンドを使用して、データ復旧マウントポイントを作成します。
$ sudo mkdir /mnt/RCLSVR
次のコマンドを使用してRAID6アレイをマウントしてみてください。
$ sudo mount -r /dev/md1 /mnt/RCLSVR
Returned output:
mount: /mnt/RCLSVR: unknown filesystem type 'LVM2_member'.
dmesg(1) may have more information after failed mount system call.
次のコマンドを使用して論理ボリュームグループを確認します。
$ sudo lvdisplay
Returned output:
WARNING: PV /dev/md1 in VG vg0 is using an old PV header, modify the VG to update.
--- Logical volume ---
LV Path /dev/vg0/syslv
LV Name syslv
VG Name vg0
LV UUID e5ZreA-S8TO-2x0x-4pfw-Zh6h-Cs5X-EH8FVc
LV Write Access read/write
LV Creation host, time ,
LV Status available
[#] open 0
LV Size 1.00 GiB
Current LE 512
Segments 1
Allocation inherit
Read ahead sectors 16384
Block device 254:0
--- Logical volume ---
LV Path /dev/vg0/lv0
LV Name lv0
VG Name vg0
LV UUID bkVNXL-2FI6-61z7-4UzW-Erwu-0sHA-oiHxbq
LV Write Access read/write
LV Creation host, time ,
LV Status available
[#] open 0
LV Size 8.63 TiB
Current LE 4525773
Segments 1
Allocation inherit
Read ahead sectors 16384
Block device 254:1
次のコマンドを使用してRAID6アレイをマウントしてみてください。
$ sudo mount -r /dev/vg0/lv0 /mnt/RCLSVR
Returned output:
mount: /mnt/RCLSVR: can't read superblock on /dev/mapper/vg0-lv0.
dmesg(1) may have more information after failed mount system call.
RAID6アレイのスーパーブロック情報を見つけるには、次のコマンドを試してください。
$ sudo dumpe2fs /dev/vg0/lv0 | grep superblock
Returned output:
dumpe2fs 1.47.0 (5-Feb-2023)
dumpe2fs: Bad magic number in super-block while trying to open /dev/vg0/lv0
Couldn't find valid filesystem superblock.
$ sudo dumpe2fs /dev/vg0/syslv | grep superblock
Returned output:
dumpe2fs 1.47.0 (5-Feb-2023)
Primary superblock at 0, Group descriptors at 1-1
Backup superblock at 32768, Group descriptors at 32769-32769
Backup superblock at 98304, Group descriptors at 98305-98305
Backup superblock at 163840, Group descriptors at 163841-163841
Backup superblock at 229376, Group descriptors at 229377-229377
次のコマンドを使用してRAID6アレイをマウントしてみてください。
$ sudo mount -r /dev/vg0/syslv /mnt/RCLSVR
Returned output:
mount: /mnt/RCLSVR: can't read superblock on /dev/mapper/vg0-syslv.
dmesg(1) may have more information after failed mount system call.
次のコマンドを使用して、RAID6アレイボリュームグループの活動状態を確認します。
$ sudo lvscan
Returned output:
WARNING: PV /dev/md1 in VG vg0 is using an old PV header, modify the VG to update.
ACTIVE '/dev/vg0/syslv' [1.00 GiB] inherit
ACTIVE '/dev/vg0/lv0' [8.63 TiB] inherit
次のコマンドを使用してRAID6アレイをマウントしてみてください。
$ sudo mount -o ro /dev/vg0/syslv /mnt/RCLSVR
Returned output:
mount: /mnt/RCLSVR: can't read superblock on /dev/mapper/vg0-syslv.
dmesg(1) may have more information after failed mount system call.
次のコマンドを使用して、RAID6アレイのボリュームグループメタデータを更新してみてください。
$ sudo vgck --updatemetadata vg0
Returned output:
WARNING: PV /dev/md1 in VG vg0 is using an old PV header, modify the VG to update.
WARNING: updating PV header on /dev/md1 for VG vg0.
Error writing device /dev/md1 at 4096 length 512.
WARNING: bcache_invalidate: block (7, 0) still dirty.
Failed to write mda header to /dev/md1.
Failed to write VG.
答え1
@frostschutz - 回復するためにファイルシステムに書き込むことができる必要があることは、トラブルシューティングに役立ちます。コメントにユーザー名のつづりが間違っていることをお詫び申し上げます。元のループデバイスが作成される前の位置に戻り、ループデバイスを正常に再生成し、RAID6アレイを再組み立ておよびマウントするには、次の手順を実行します。
LVグループの無効化
$ sudo vgchange -an /dev/vg0
Mdadmの構成とデータの削除
$ sudo apt-get -y 自動削除 --purge mdadm
分離循環設備
$ sudo losstup -a
$ sudo losstup -D
$ sudo losstup -l
$ sudo dmsetup 削除 /dev/loop0 dev/loop1 dev/loop2 dev/loop3 dev/loop4 dev/loop5 dev/loop6
コンピュータを再起動します。
もう一度ログインして、屋根ふきデバイスがなくなっていることを確認してください。
$ sudo losstup -a
ディスクイメージファイル権限の変更
$ sudo chmod +w /media//recovery/*.img
書き込み可能モードで画像を追加する
$ sudo losstup -fP --show /media/[ターゲットドライブマウントポイント]/recovery/hdd[id].img
戻り出力:
/dev/loop0
$ sudo losstup -fP --show /media/[ターゲットドライブマウントポイント] /recovery/hdd[id].img
返された出力:
/dev/loop1
$ sudo losstup -fP --show /media/[ターゲットドライブのマウントポイント]/recovery/hdd[id].img
返された出力:
/dev/ loop2
$ sudo losstup -fP --show /media/[ターゲットドライブマウントポイント]/recovery/hdd[id].img
戻り出力:
/dev/loop3
$ sudo losstup -fP --show /media/[ ターゲットドライブマウント
から返された出力:
/dev/loop4
$ sudo losstup -fP --show /media/[ターゲットドライブマウントポイント]/recovery/hdd[id].img
返された出力:
/dev/loop5
$ sudo losstup -fP --show /media/[ターゲットドライブのマウントポイント]/recovery/hdd[id].img
返される出力:
/dev/loop6
mdadmの再インストール
$ sudo apt-get インストール mdadm
RAID6アレイの再構築
次のコマンドを使用して、各RAID6アレイドライブイメージを使用可能な次のループデバイスに追加します。
$ sudo mdadm --assemble
--scanから返される出力:
mdadm:/dev/md/0 7台のドライブが起動しました。
mdadm:/dev/md1 は 7 台のドライブで始まります。
論理ボリュームの状態の確認
$ sudo lvscan
から返された出力:
警告:VG vg0のPV / dev / md1は以前のPVヘッダを使用しています。アップデートするには、VGを修正してください。
ACTIVE '/dev/vg0/syslv' [1.00 GiB] 継承済みACTIVE
'/dev/vg0/lv0' [8.63 TiB] 継承済み
論理ボリュームの詳細の表示
$ sudo lvdisplay
から返された出力:
警告:VG vg0のPV / dev / md1は以前のPVヘッダを使用しています。アップデートするには、VGを修正してください。
--- 論理ボリューム ---
LV パス /dev/vg0/syslv
LV 名 syslv
VG 名 vg0
LV UUID e5ZreA-S8TO-2x0x-4pfw-Zh6h-Cs5X-EH8FVc
LV Write Access Read/Write
LV ホスト、時間、
LV 生成使用可能状態
[#] オープン 0
LV サイズ 1.00 GiB
現在 LE 512
セグメント 1
割り当て継承された
先読みセクタ 16384
ブロックデバイス 254:0
--- 論理ボリューム ---
LV パス /dev/vg0/lv0
LV 名 lv0
VG 名vg0
LV UUID bkVNXL-2FI6-61z7-4UzW-Erwu-0sHA-oiHxbq LV 書き込み
アクセス読み取り/書き込み
LV生成ホスト、時間、
LVステータス使用可能
[#]開く0
LVサイズ8.63 TiB
現在のLE 4525773
セグメント1
割り当て
読み取りセクタ領域16384
ブロックデバイス254:1
ボリュームグループメタデータの更新
$ sudo vgck --updatemetadata vg0
から返された出力:
警告:VG vg0のPV / dev / md1は以前のPVヘッダを使用しています。アップデートするには、VGを修正してください。
警告:/ dev / md1でVG vg0のPVヘッダーを更新してください。
復元されたRAID6アレイのマウント
$ sudo マウント -o ro /dev/vg0/lv0 /mnt/RCLSVR
その後、データにアクセスして復元できます。
これが他の誰かに役立つことを願っており、@frostschutzの助けにもう一度感謝します。