ZFSのクリーンアップが完了しないのはなぜですか?

ZFSのクリーンアップが完了しないのはなぜですか?

まず、私が実行していることから始めましょう。 Ubuntu 16.10を実行しているホームメディアサーバー。 6TBミラーリングドライブのプールが半分に満ちています。私はこのシステムを約1ヶ月前に構築しましたが、うまく機能しています。 SSDを起動ドライブとして使用し、前述のストレージプールを使用します。私はこのプールで私がしなければならないすべてのことをすることができたし、すべてが素敵に見えます。

約1ヶ月前にシステムを構築したとき、両方のドライブは新製品であり、そのうちの1つの追加の振動が少し気になりました。悪くないのに売り手が無料で交換してくれるからといってスクラブをして抜いて送ろうとするのに待っている間性能が低下した状態で実行されます。バックアップされていないデータがないため、あまり心配することはありませんが、プールをシャットダウンしてバックアップから復元するよりも簡単になります。

今私が本当にやりたいことは、スクラブを実行し、ミラーからドライブを安全に取り外すことです。私は走る

zpool scrub tank

その後すぐに実行

zpool status

スクラブプロセスが進行するのを見ることができます。数秒ごとに更新を実行すると、状態が正しく更新されていることがわかります。約 30 秒間実行した後、ステータスには実行されていないと表示されません。そして、0時間0分で完了した最後の整理以外は他の状態を見たことがありません。私にとって、これはクリーンアップがまだ完了していないことを意味します。クリーンアップが2.5テラバイトの情報を処理するのに少なくとも数時間かかることはありません。

私は何を見逃していますか?


要求された情報を追加します。

  pool: Tank
 state: ONLINE
  scan: scrub repaired 0 in 0h0m with 0 errors on Sun Feb  5 00:31:42 2017
config:

        NAME        STATE     READ WRITE CKSUM
        Tank        ONLINE       0     0     0
          mirror-0  ONLINE       0     0     0
            sdb2    ONLINE       0     0     0
            sdc2    ONLINE       0     0     0

errors: No known data errors

今、問題がまだ存在するかどうかを確認するために再スクラブを試みます。始めてから20秒ほどになったのに..

  pool: Tank
 state: ONLINE
  scan: scrub in progress since Fri Feb 10 14:25:12 2017
    62.5M scanned out of 2.97T at 1.08M/s, (scan is slow, no estimated time)
    0 repaired, 0.00% done
config:

    NAME        STATE     READ WRITE CKSUM
    Tank        ONLINE       0     0     0
      mirror-0  ONLINE       0     0     0
        sdb2    ONLINE       0     0     0
        sdc2    ONLINE       0     0     0

errors: No known data errors

1分ほど過ぎて再び現れました...

  pool: Tank
 state: ONLINE
  scan: scrub repaired 0 in 0h1m with 0 errors on Fri Feb 10 14:27:01 2017
config:

    NAME        STATE     READ WRITE CKSUM
    Tank        ONLINE       0     0     0
      mirror-0  ONLINE       0     0     0
        sdb2    ONLINE       0     0     0
        sdc2    ONLINE       0     0     0

errors: No known data errors

2017年2月16日情報追加修正

「騒々しい」ドライブを取り戻す時間がなくなったので、取り出しました。私は(システムの起動時に)プラグを抜く以外は何もしませんでした。現在予想通りパフォーマンスが低下した状態ですが、すべてが正常に実行され続けます。私はそれを始めて以来、私の経験をここに記録し続けるべきだと思いました。この問題を経験する人は誰もいないようです。同じ状況にある他の人をオンラインで見つけることができないようです。幸運な日。交換用ドライブを購入して再びシルバー処理するとどうなるかを見てみましょう。誰が知っていますか? :/ 以下はドライブを切断した後の出力です。

  pool: Tank
 state: DEGRADED
status: One or more devices could not be used because the label is missing or
        invalid.  Sufficient replicas exist for the pool to continue
        functioning in a degraded state.
action: Replace the device using 'zpool replace'.
   see: http://zfsonlinux.org/msg/ZFS-8000-4J
  scan: scrub repaired 0 in 0h1m with 0 errors on Sun Feb 12 00:24:38 2017
config:

        NAME        STATE     READ WRITE CKSUM
        Tank        DEGRADED     0     0     0
          mirror-0  DEGRADED     0     0     0
            sdb2    ONLINE       0     0     0
            sdc2    UNAVAIL      0     0     0

errors: No known data errors

2017年3月29日情報追加修正

root@NAS:~# zpool status
  pool: Tank
 state: ONLINE
status: One or more devices has experienced an unrecoverable error.  An
        attempt was made to correct the error.  Applications are unaffected.
action: Determine if the device needs to be replaced, and clear the errors
        using 'zpool clear' or replace the device with 'zpool replace'.
   see: http://zfsonlinux.org/msg/ZFS-8000-9P
  scan: resilvered 525M in 0h3m with 0 errors on Wed Mar 29 14:28:46 2017
config:

        NAME        STATE     READ WRITE CKSUM
        Tank        ONLINE       0     0     0
          mirror-0  ONLINE       0     0     0
            sdb2    ONLINE       0     0     0
            sdc     ONLINE       0     0   732

errors: No known data errors

問題について別の手がかりがあるでしょうか? sdcパーティションを見てください...

root@NAS:/dev# parted --list
Model: ATA Samsung SSD 850 (scsi)
Disk /dev/sda: 250GB
Sector size (logical/physical): 512B/512B
Partition Table: gpt
Disk Flags:

Number  Start   End    Size    File system     Name                  Flags
 1      1049kB  538MB  537MB   fat32           EFI System Partition  boot, esp
 2      538MB   233GB  232GB   ext4
 3      233GB   250GB  17.1GB  linux-swap(v1)


Warning: Not all of the space available to /dev/sdb appears to be used, you can
fix the GPT to use all of the space (an extra 7 blocks) or continue with the
current setting?
Fix/Ignore? i
Model: ATA HGST HUH728060AL (scsi)
Disk /dev/sdb: 6001GB
Sector size (logical/physical): 512B/4096B
Partition Table: gpt
Disk Flags:

Number  Start   End     Size    File system  Name  Flags
 1      2097kB  2150MB  2147MB
 2      2150MB  6001GB  5999GB  zfs


Model: ATA HGST HUH728060AL (scsi)
Disk /dev/sdc: 6001GB
Sector size (logical/physical): 512B/4096B
Partition Table: gpt
Disk Flags:

Number  Start   End     Size    File system  Name                  Flags
 1      1049kB  6001GB  6001GB  zfs          zfs-802af6a53a6d8383
 9      6001GB  6001GB  8389kB

2017年4月13日情報追加修正

はい、私は数ヶ月間この問題を解決しようとしてきました。 :/

最初にエクスポート/インポートドライブ文字を変更した後、sdbはsdc、sdcはsddになることに注意してください。

問題を見つけたと思います。、回避策についてのアドバイスを聞きたいです。 「sudo fdisk -l」を実行したところ、ついに問題が見つかりました。関連クリップはこんな感じです...

Disk /dev/sdc: 5.5 TiB, 6001175126016 bytes, 11721045168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: 7127FE7D-E061-11E6-BD1F-3497F600DDAF

 Device     Start        End       Sectors    Size    Type
/dev/sdc1   4096       4198399     4194304     2G     FreeBSD swap
/dev/sdc2  4198400   11721043967 11716845568  5.5T    FreeBSD ZFS

...

Disk /dev/sdd: 5.5 TiB, 6001175126016 bytes, 11721045168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: E799A1D5-F9B7-C843-AB62-AADC9B0A2180

Device        Start           End         Sectors    Size    Type
/dev/sdd1      2048       11721027583   11721025536  5.5T    Solaris /usr & Apple ZFS
/dev/sdd9  11721027584    11721043967      16384      8M     Solaris reserved 1

注:画像は元々FreeNAS(FreeBSD)から作成されました。 sdcにはドライブの先頭に2Gスワップがあります。 sddはUbuntuで作成され、何らかの理由でドライブの最後に8Mスワップスペースが割り当てられました。

今問題が破損したドライブであることを恐れてsddをオフラインにして、そこからバッドブロックを実行しました。これにより、すべての情報が削除されます。良いニュースは、ドライブが良好で不良ブロックがないことです。これにより、パーティションも空の状態にリセットされます。

私には2つの選択肢があります。 1.)sddのパーティションを作業ドライブ(sdc)と手動で一致させてください。 zfsはzpoolの交換を実行して自動的にこれを行うと思いますが、たぶんこれはただ時間の無駄です。 2.)両方のドライブを消去し、最初から始めて新しいイメージを作成し、デフォルトのUbuntuプールにするためにデータをバックアップしました。

あまりにも過度の考えかもしれませんが、より大きなダメージと回復の危険があると思います。ミラー化されていないディスクにのみバックアップされた良好なデータを削除し、新しく作成されたプールに再同期する必要があります。参考までに、rsyncを使用してバックアップを作成しましたが、同じコンピュータにあります。すべてのデータを収容するために、冗長性なしに3つのドライブを取り外す必要がありました。このようにデータを整理できないまま移すと、私が知らない被害を受ける可能性があるという心配もあります。

誰でもどんな提案がありますか?ありがとうございます!

関連情報