raid1には4つのドライブがあります。最近、故障したドライブをより大きな新しいドライブに交換しました。新しい12TBドライブは利用率が低いようです。バランス調整を実行し、他の3つのドライブからのデータを新しいドライブに移行したかったのです。しかし、データが誤って移動されたようです。この奇妙な行動を説明できる人はいますか?
# btrfs fi usage /av
Overall:
Device size: 29.11TiB
Device allocated: 11.32TiB
Device unallocated: 17.79TiB
Device missing: 0.00B
Used: 10.90TiB
Free (estimated): 9.10TiB (min: 9.10TiB)
Data ratio: 2.00
Metadata ratio: 2.00
Global reserve: 512.00MiB (used: 0.00B)
Data,RAID1: Size:5.65TiB, Used:5.44TiB (96.32%)
/dev/sdh 5.13TiB
/dev/sdf 3.33TiB
/dev/sdg 2.54TiB
/dev/sde 310.00GiB
Metadata,RAID1: Size:9.00GiB, Used:7.28GiB (80.91%)
/dev/sdh 6.00GiB
/dev/sdf 3.00GiB
/dev/sdg 6.00GiB
/dev/sde 3.00GiB
System,RAID1: Size:32.00MiB, Used:976.00KiB (2.98%)
/dev/sdg 32.00MiB
/dev/sde 32.00MiB
Unallocated:
/dev/sdh 2.14TiB
/dev/sdf 2.13TiB
/dev/sdg 2.91TiB
/dev/sde 10.61TiB
フィルタリングされていないバランス期間中、私は次のように進捗状況を監視し始めました。
# btrfs fi show /av
Label: 'av' uuid: a0e1cb85-1b4f-4657-971d-ba1d8c1bb772
Total devices 4 FS bytes used 5.45TiB
devid 4 size 7.28TiB used 5.13TiB path /dev/sdh
devid 5 size 5.46TiB used 3.33TiB path /dev/sdf
devid 6 size 5.46TiB used 2.57TiB path /dev/sdg
devid 7 size 10.91TiB used 330.06GiB path /dev/sde
# btrfs fi show
Label: 'av' uuid: a0e1cb85-1b4f-4657-971d-ba1d8c1bb772
Total devices 4 FS bytes used 5.45TiB
devid 4 size 7.28TiB used 5.13TiB path /dev/sdh
devid 5 size 5.46TiB used 3.33TiB path /dev/sdf
devid 6 size 5.46TiB used 2.56TiB path /dev/sdg
devid 7 size 10.91TiB used 320.03GiB path /dev/sde
# btrfs fi show
Label: 'av' uuid: a0e1cb85-1b4f-4657-971d-ba1d8c1bb772
Total devices 4 FS bytes used 5.45TiB
devid 4 size 7.28TiB used 5.13TiB path /dev/sdh
devid 5 size 5.46TiB used 3.33TiB path /dev/sdf
devid 6 size 5.46TiB used 2.55TiB path /dev/sdg
devid 7 size 10.91TiB used 313.03GiB path /dev/sde
12TB ドライブ 7 に新しいデータは追加されず、削除されました。それは問題ですか?そして、データをすべてのドライブにさらに均等に分散させるにはどうすればよいですか?
追加情報
btrfs --version
btrfs-progs v5.4.1
ボリュームの作成やデバイスの追加に使用した btrfs のバージョンは覚えていません。