
私は満たされたRAID 5アレイを扱っていると確信しています。ドライブの 2 つは、次の詳細とともに/proc/mdstat
障害としてマークされます。mdadm
0 0 8 33 0 active sync /dev/sdc1
1 1 0 0 1 faulty removed
2 2 0 0 2 faulty removed
3 3 8 1 3 active sync /dev/sda1
md127 : inactive sdd1[0](S) sdb1[3](S) sde1[2](S) sdc1[1](S)
3907039744 blocks
だからsdbとsddが失敗しました。その後、ドライブに対してスマート診断を実行し、エラーが発生したことを確認しました。現在進行中の部署、2つの障害のあるディスクで約1000です。
その後、badblocksを実行すると、実際に不良ブロックが多いことが確認されました。これを手動でゼロに設定すると、完全に悪夢になります。 RAID5では組み立てることができますが、起動できなくなり、LVMでは完全に痛いです。私の考えではこのようなものに従うことはうまくいきません。
人々がMHDDが動作することを確認すると、喜んでMHDDを使用することになりますが(提案?)試したときに速度が遅くなり、中断し、代わりにドライブのバックアップを開始しました。
http://hddguru.com/software/2005.10.02-MHDD/mhdd_manual.en.html#scanning
現在、マスターコピーを作成するためにddrescueを実行し、データを別のディスクに移動しています。いっぱいになったドライブを空にして、dd
そのドライブにコピーすることもできます。何も知らない状態ddrescue
で問題を解決するどころか、ただ偏りだけしているような感じがしました。
http://www.gnu.org/software/ddrescue/manual/ddrescue_manual.html
答え1
更新するには、これが古い質問であることを知っていますが、解決しました。私は前にddrescue
これをやったことがありますhttp://www.gnu.org/software/ddrescue/manual/ddrescue_manual.html
デフォルトでは、MDAMD RAID 5アレイには4台の1TBドライブがあり、そのうち2台は不良です。同じサイズまたはわずかに大きい1TBドライブが2台ありますが、基本的にはddrescue
「良い」ディスクをターゲットにした不良ドライブでこれを行っています。その後、chkdsk
回復した「良好な」ディスクを実行しました。別のドライブでこれを実行し、2つの新しいドライブをアレイに追加し、LVMを実行して動作するかどうかをテストしました。みんな大丈夫です。
破損したドライブをフォーマットしてからdd
。その後、「良い」ドライブを元のドライブに挿入し、アレイに追加してテストし、「良い」ドライブをストレージに戻しました。古い、他のドライブとは異なります。ドライブは同じです。 AV運転をするので、私は彼らと一緒にいかなる危険も負担したくありません。badblocks
chkdsk
smartmontools
dd