私のアレイに少しのデータ破損がありました。誤って交換した不良ハードウェアで問題が発生したことを追跡しましたが、数回の書き込みですぐに失敗し始めました。
幸い、データは失われませんでした。既知の不良ハードウェアを交換して完全なクリーンアップを実行した後、Btrfsは関連する3つのファイルすべてが重複したRAID-1データ(kern.logに従って)を検出し、後で手動で破損していないことを確認しました。すべてのドライブのSMARTステータスには関連する問題は表示されません。前述したように、破損の原因は何かを知っており、ディスクに問題はなく、原因が消えています。
ただし、これを行うと、sudo btrfs device stats /mnt/arr2
修正されたかどうかにかかわらず、「永久的に」累積されたバグの数が表示されるように設計されています。今、この場合は関係がないので、後で実際のハードドライブの問題をより簡単に検出できるように削除したいと思いました。以下は、このコマンドで発生したゼロ以外のエラーの数のリストです。
[/dev/sdi].corruption_errs 281
[/dev/sdg].write_io_errs 16
[/dev/sdg].corruption_errs 265
[/dev/sdj].write_io_errs 54
[/dev/sdj].corruption_errs 768
ZFSでは実行されますzpool clear poolname
が、これらの数はとにかく寿命が短いです。 Btrfsに似たものはありますか?
マニュアルページ、ドキュメントページ、Googleはすべてこれを無視します。私は問題を解決するためのヒントを見ましたが、非常にbtrfs recover zero-log /mnt/arr2
あいまいで(公式文書によると)、特定のコマンドの意図が大きすぎて遠くにしたいようです。取り外し可能なアレイ方法を復元するための最後の手段として。
Btrfsにそのようなコマンドがありますか??ありがとうございます。
答え1
@KamilMaciorowskiが指摘したように、解決策は次のとおりです。
btrfs device stats --reset /mnt/your-array
旗が--reset
核心だ。