mdadm raid 6にディスクを追加した後のファイルシステムの破損

mdadm raid 6にディスクを追加した後のファイルシステムの破損

4つのディスクのうち3つだけが実行されるmdadm raid 6ファイルシステムがあります。私は4x2TBディスクを持っていて、4番目のディスクを追加するたびに(一週間試してみました)、次のことを行います。lsファイルシステムエラーが発生します。

$ ll /mnt/downloads/downloads
...
d????????? ? ?    ?       ?                   ? drivers/
...

ただし、新しく追加されたディスクを削除するたびに、ファイルシステムが正しく表示されます。

$ sudo mdadm /dev/md0 --fail /dev/sde1
mdadm: set /dev/sde1 faulty in /dev/md0
$ ll /mnt/downloads/downloads
(correct contents)

スーパーブロックをゼロ化してレイド関連ブロックを削除しようとしましたが、sudo wipefs -a /dev/sde1すべて同じ失敗が発生しました。

次の手順で3つのディスクしかないmdadmアレイを確認しても、エラーは表示されませんecho check > /sys/block/md0/md/sync_action

不良ブロックが表示されているかどうかを確認するために、ディスク上のすべてのセクタを読んでみましたが、何も起こりませんでした。

今はディスク上で実行していますが、sudo badblocks -wsv /dev/sde1エラーがあるかどうか疑問です。

これはとても混乱しています。私のディスクは何らかの方法で破損しており、どのような理由でディスクチェックが機能しないのですか?

それとも、ディスクを正しく追加していないことに関連していますか?私は走る:

sudo mdadm /dev/md0 -a /dev/sde1

私は常にファイルシステムがマウントされた状態でこのコマンドを実行し、ディスクの追加中にマウントを解除すると思います。これが問題を引き起こすとは思わない。そうですか?

答え1

ドライブ自体が悪くない場合は、カーネルのバグである可能性が高くなります。

たとえば、最近のRAID 6の再同期に関連するデータ破損のバグが発生し、実行中のカーネルのバージョンによっては、次のような影響を受ける可能性があります。

バグ: 4f4fd7c5798bbdd5a03a60f6269cf1177fbd11ef 送信によって RAID6 回復が破損しました。

それ以外の場合は、RAID6(、)の残りのパリティで可能なRAIDの不一致も確認してくださいmdadm --action=check /dev/mdXwatch head /sys/block/md*/md/mismatch_cnt

また、再同期中に表示される可能性のあるエラーメッセージがあるかどうか、他のすべての角度、memtest、smartctlなど、およびdmesgを確認してください。

答え2

btrfsの使用中にこの問題が検出されました。VMwareアップデート、結果は次のとおりです。

ハードドライブ0とハードドライブ4(Arch Linux vmwareゲストに追加した物理ハードドライブ)は同じです。

割れるのも当然です。

私のカーネルバージョンは影響を受けるバージョンの1つなので、Frostschutzの答えはまだ関連しているかもしれません。

関連情報