MD raid5アレイが突然動作を停止したようです。症状は少し似ています。この問題アレイを起動するのに十分なデバイスがないというエラーが発生するため、私の場合、3つのドライブすべてのイベント数は同じです。これはRAID 5アレイで、2つのアクティブドライブと1つのパリティが必要ですが、各ドライブのmdadm --examineは、スペアドライブとしてリストされている2つのドライブとアクティブドライブとしてリストされている1つの役割のみを示しています。
頑張ったmdadm --stop /dev/md1続いてmdadm - アセンブリ /dev/md1(--force および --run フラグの試行を含む)
SMARTデータはドライブ固有の問題を示していません(現在保留中および再割り当てされたセクターの数が0です)。raid.wiki.kernel.orgガイドマッピングの上書きデバイスの設定に関する手順は、以下のFrostschutzにリンクされています。
次に、次のコマンドを実行すると、読み取り専用のマウントを試みることができるRAIDアレイが作成され、その結果、読み取り可能なファイルシステムになるかどうかを確認できます(つまり、sdf1の私の推測がパリティチェックであるかどうか)。確認)。そうですか?それともsde1を使用して再試行する必要がありますか?しかし、以下に示すエラーが発生します(また、関連するループデバイスに沿って試みました)失われた設定 - リスト、結果は同じです)。
mdadm --create /dev/md2 --assume-clean --level=5 --chunk=64K --metadata=1.2 --data-offset=261888s --raid-devices=3 欠落 /dev/mapper/sdh1 /開発/マッパー/sdf1
mdadm: super1.x cannot open /dev/mapper/sdh1: Device or resource busy
mdadm: /dev/mapper/sdh1 is not suitable for this array.
mdadm: super1.x cannot open /dev/mapper/sdf1: Device or resource busy
mdadm: /dev/mapper/sdf1 is not suitable for this array.
mdadm: create aborted
しかも同時にmdadm - 詳細/dev/md1以前は次のような出力を提供していましたが(追加)、今は次のものを提供します。
/dev/md1:
Version : 1.2
Raid Level : raid0
Total Devices : 3
Persistence : Superblock is persistent
State : inactive
Working Devices : 3
Name : bob:1 (local to host bob)
UUID : 07ff9ba9:e8100e68:94c12c1a:3d7ad811
Events : 373364
Number Major Minor RaidDevice
- 253 11 - /dev/dm-11
- 253 10 - /dev/dm-10
- 253 9 - /dev/dm-9
しかも私も気づいた。DM設置状態3つのオーバーレイすべてについて同じ情報が提供され、個々のドライブ(8TB)ではなく元のRAIDアレイ(16TB)のサイズを示す可能性がある疑わしい番号があります。これが本当かどうかはわかりません。 ?
sde1: 0 15627528888 snapshot 16/16777216000 16
sdh1: 0 15627528888 snapshot 16/16777216000 16
sdf1: 0 15627528888 snapshot 16/16777216000 16
この時点でデバイスを作成してマウントし、ファイルシステムをチェックして正しいパリティデバイスを推測したかどうかを確認する方法がわかりません。オーバーレイを使用して物理ドライブに何も書き込まないようにします。
修正する:以下のFrost Schutzの提案によると、アレイはプライマリドライブでタスクを実行する前に--stopを実行する必要があります。以前はこの可能性を過小評価していました。猫/proc/mdstatアレイは非アクティブとしてマークされます。これはバンドルドライブの原因にならないという意味だと思いましたが、そうではありません。 (以前は--stopも実行していましたが、後で何かが行われて戻りを引き起こしたようです。中断しない状態で)。正しいドライブ順序を取得した後(最初の試みではありませんでしたが、上書きを使用してうれしいです)、アレイは報告されたエラーなしでfsckチェックに合格しました。今何もなかったかのように動作しています。。
他の診断コマンドを実行した結果:
猫/proc/mdstat:
Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10]
md1 : inactive sdh1[1](S) sde1[3](S) sdf1[0](S)
23440900500 blocks super 1.2
mdadm - 詳細/dev/md1:
/dev/md1:
Version : 1.2
Raid Level : raid0
Total Devices : 3
Persistence : Superblock is persistent
State : inactive
Working Devices : 3
Name : bob:1 (local to host bob)
UUID : 07ff9ba9:e8100e68:94c12c1a:3d7ad811
Events : 373364
Number Major Minor RaidDevice
- 8 113 - /dev/sdh1
- 8 81 - /dev/sdf1
- 8 65 - /dev/sde1
試してみるとdmesgに表示される行mdadm - アセンブリ /dev/md1:
md/raid:md1: device sdh1 operational as raid disk 1
md/raid:md1: not enough operational devices (2/3 failed)
md/raid:md1: failed to run raid set.
md: pers->run() failed ..
そしてmdadm - 確認S
/dev/sde1:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x1
Array UUID : 07ff9ba9:e8100e68:94c12c1a:3d7ad811
Name : bob:1 (local to host bob)
Creation Time : Mon Mar 4 22:10:29 2019
Raid Level : raid5
Raid Devices : 3
Avail Dev Size : 15627267000 (7451.66 GiB 8001.16 GB)
Array Size : 15627266688 (14903.32 GiB 16002.32 GB)
Used Dev Size : 15627266688 (7451.66 GiB 8001.16 GB)
Data Offset : 261888 sectors
Super Offset : 8 sectors
Unused Space : before=261808 sectors, after=312 sectors
State : clean
Device UUID : e856f539:6a1b5822:b3b8bfb7:4d0f4741
Internal Bitmap : 8 sectors from superblock
Update Time : Sun May 30 00:22:45 2021
Bad Block Log : 512 entries available at offset 40 sectors
Checksum : 9b5703bc - correct
Events : 373364
Layout : left-symmetric
Chunk Size : 64K
Device Role : spare
Array State : .AA ('A' == active, '.' == missing, 'R' == replacing)
/dev/sdf1:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x1
Array UUID : 07ff9ba9:e8100e68:94c12c1a:3d7ad811
Name : bob:1 (local to host bob)
Creation Time : Mon Mar 4 22:10:29 2019
Raid Level : raid5
Raid Devices : 3
Avail Dev Size : 15627267000 (7451.66 GiB 8001.16 GB)
Array Size : 15627266688 (14903.32 GiB 16002.32 GB)
Used Dev Size : 15627266688 (7451.66 GiB 8001.16 GB)
Data Offset : 261888 sectors
Super Offset : 8 sectors
Unused Space : before=261800 sectors, after=312 sectors
State : clean
Device UUID : 7919e56f:2e08430e:95a4c4a6:1e64606a
Internal Bitmap : 8 sectors from superblock
Update Time : Sun May 30 00:22:45 2021
Bad Block Log : 512 entries available at offset 72 sectors
Checksum : d54ff3e1 - correct
Events : 373364
Layout : left-symmetric
Chunk Size : 64K
Device Role : spare
Array State : .AA ('A' == active, '.' == missing, 'R' == replacing)
/dev/sdh1:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x1
Array UUID : 07ff9ba9:e8100e68:94c12c1a:3d7ad811
Name : bob:1 (local to host bob)
Creation Time : Mon Mar 4 22:10:29 2019
Raid Level : raid5
Raid Devices : 3
Avail Dev Size : 15627267000 (7451.66 GiB 8001.16 GB)
Array Size : 15627266688 (14903.32 GiB 16002.32 GB)
Used Dev Size : 15627266688 (7451.66 GiB 8001.16 GB)
Data Offset : 261888 sectors
Super Offset : 8 sectors
Unused Space : before=261800 sectors, after=312 sectors
State : clean
Device UUID : 0c9a8237:7e79a439:d4e35b31:659f3c86
Internal Bitmap : 8 sectors from superblock
Update Time : Sun May 30 00:22:45 2021
Bad Block Log : 512 entries available at offset 72 sectors
Checksum : 6ec2604b - correct
Events : 373364
Layout : left-symmetric
Chunk Size : 64K
Device Role : Active device 1
Array State : .AA ('A' == active, '.' == missing, 'R' == replacing)
答え1
不思議ですね。する必要があるかもしれませんmdadm --オーバーレイを使用して作成これを行うには(正しいデータオフセット、ブロックサイズ、およびドライブの順序を使用する)、おそらく最初のドライブが最初に故障しているように見えるため、欠落している可能性があります。
ドライブがそのデバイスの役割を覚えていなくなると、既存の方法を使用した回復はデフォルトでは不可能です。どちらも「スペア」と言われているため、ドライブがロール0かロール2か、まったくわかりません(一部のraid5設定は実際には何らかの理由でスペアドライブを使用します)。したがって、有用なデータがあるのか、そうであればどのような順番になっているのかは不明です。自分で決める必要があります。
これを実行するときは、SMARTデータも確認し、ddrescue
まずこれらのドライブを使用して、RAID障害を引き起こす可能性がある再割り当てまたは保留中のセクタがあることを確認してください。