故障したドライブからデータを救出する

故障したドライブからデータを救出する

NWにデータでいっぱいの6TB WD My Cloudがあり、12TB WD My Bookを購入してRpi4に接続し、データを12TBドライブに移動し始め、6TBはバックアップにのみ使用する予定です.

rsyncを介してデータをコピーしている間、rsyncが単一のファイルで停止したことがわかりました。ログを確認した後、既存の6TBドライブでいくつかの問題が見つかりました。問題が発生する前に、このドライブ(1.1TB)からかなり大きなデータブロックをコピーできたため、ドライブ全体がすぐに死ぬのではなく、不良セクタについて話しているようです。データの一貫性チェックは行われませんでしたが、業務上重要ではありません。重要なデータをバックアップしておきましたが、可能であれば復元したいです。 6TBドライブは現在、次のステップを理解するまでプラグが外されています。

前進するいくつかの方法があります。

  1. できるだけ多くの容量を12TBドライブにコピーし、rsyncがコピーできないファイルをスキップしてください。
  2. ddrescueで6TBドライブのバックアップイメージを最大12TBまで作成してみました(おそらく最長のプロセスです)。
  3. どのファイルが破損しているかを確認し、長いddrescueプロセスがそれほど価値があるかどうかを判断します(ここでいくつかの情報を見つけましたが、非常に退屈なプロセスのようです)。https://wiki.archlinux.org/index.php/Identify_damaging_files#Ext2,_ext3,_and_ext4)

今私の質問は次のとおりです。

  1. rsyncは実際にエラーを発生させずに個々のファイルに停止しているだけで、rsyncにそのファイルをスキップする方法があるかどうかはわかりません。
  2. ddrescueを介​​してイメージを作成する場合は、6TBイメージを12TBドライブに挿入してから、同じドライブにできるだけ復元する必要があります。これがどれくらい実現可能かわかりません。 ddrescue イメージを生成するために必要であると仮定します。永遠にただし、マウントされたイメージのファイルを同じドライブに通常の速度でコピーできる必要があります。
  3. すべてのファイルを読み込み、完全に読み取れないファイルを一覧表示するツールはありますか?私にとっては、これが最も時間を節約する方法のように聞こえます。

参考のために私の6TBハードドライブのいくつかのログ:

WDMyCloud6TB:/shares/Public# smartctl -l selftest /dev/sda4 
smartctl 5.41 2011-06-09 r3365 [armv7l-linux-3.2.26] (local build)
Copyright (C) 2002-11 by Bruce Allen, http://smartmontools.sourceforge.net

=== START OF READ SMART DATA SECTION ===
SMART Self-test log structure revision number 1
Num  Test_Description    Status                  Remaining  LifeTime(hours)  LBA_of_first_error
# 1  Short offline       Completed: read failure       90%     28014         2321175776
# 2  Extended offline    Completed: read failure       90%     28013         2321175776
# 3  Short offline       Completed: read failure       90%     28011         2321175776
# 4  Short offline       Completed: read failure       90%     28011         2321175776
# 5  Short offline       Completed without error       00%         0         -
SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAGS    VALUE WORST THRESH FAIL RAW_VALUE
  1 Raw_Read_Error_Rate     POSR-K   188   188   051    -    444
  3 Spin_Up_Time            POS--K   189   188   021    -    9516
  4 Start_Stop_Count        -O--CK   073   073   000    -    27858
  5 Reallocated_Sector_Ct   PO--CK   200   200   140    -    0
  7 Seek_Error_Rate         -OSR-K   100   253   000    -    0
  9 Power_On_Hours          -O--CK   062   062   000    -    28014
 10 Spin_Retry_Count        -O--CK   100   100   000    -    0
 11 Calibration_Retry_Count -O--CK   100   253   000    -    0
 12 Power_Cycle_Count       -O--CK   100   100   000    -    31
192 Power-Off_Retract_Count -O--CK   200   200   000    -    17
193 Load_Cycle_Count        -O--CK   191   191   000    -    27882
194 Temperature_Celsius     -O---K   098   094   000    -    54
196 Reallocated_Event_Count -O--CK   200   200   000    -    0
197 Current_Pending_Sector  -O--CK   200   200   000    -    1
198 Offline_Uncorrectable   ----CK   100   253   000    -    0
199 UDMA_CRC_Error_Count    -O--CK   200   200   000    -    0
200 Multi_Zone_Error_Rate   ---R--   100   253   000    -    0
WDMyCloud6TB:~# sudo fsck -v /dev/sda4
fsck from util-linux 2.20.1
e2fsck 1.42.5 (29-Jul-2012)
/dev/sda4: clean, 128425/182996992 files, 1254382471/1463951872 blocks

WDMyCloud6TB:~# e2fsck -nv -b 32768 /dev/sda4
e2fsck 1.42.5 (29-Jul-2012)
/dev/sda4 was not cleanly unmounted, check forced.
Pass 1: Checking inodes, blocks, and sizes
Pass 2: Checking directory structure
Pass 3: Checking directory connectivity
Pass 4: Checking reference counts
Pass 5: Checking group summary information
Killed

関連情報