Linux raidの設定に問題があります。ここで誰かがデータを失うことなくraidを再度有効にするのを助けることができると思います。
私はRAIDアレイを備えたDebian 11システムを持っています(6倍1TBハードドライブ、RAIDレベル5)は今日までアクティブでした。2個追加1TB HDDドライブとRAIDレベルを6に変更します。
注: 完了するには: 自分の攻撃台の設定1ヶ月前以前は
mdadm --create --verbose /dev/md0 -c 256K --level=5 --raid-devices=6 /dev/sdd /dev/sdc /dev/sdb /dev/sda /dev/sdg /dev/sdf
mkfs.xfs -d su=254k,sw=6 -l version=2,su=256k -s size=4k /dev/md0
mdadm --detail --scan | tee -a /etc/mdadm/mdadm.conf
update-initramfs -u
echo '/dev/md0 /mnt/data ext4 defaults,nofail,discard 0 0' | sudo tee -a /etc/fstab
今日やった:
mdadm --add /dev/md0 /dev/sdg /dev/sdh
sudo mdadm --grow /dev/md0 --level=6
これにより、私が観察できる成長プロセスが始まりました。
watch -n 1 cat /proc/mdstat
md0は一日中使用できます。。高速ファイルアクセスにより成長と挿入プロセスを一時停止しました。今日の流通量は50%程度
echo "frozen" > /sys/block/md0/md/sync_action
ファイルアクセスが完了したら、プロセスを再起動しました。
echo reshape > /sys/block/md0/md/sync_action
しかし、mdstatでは、外観の変更が50%ではなく最初から行われていることがわかります。5分後、/dev/dm0マウントが消えたことを確認しました。カーネルがdm0を正しく再構築したことを確認するためにコンピュータを再起動しました。おそらくdm0がまだ再形成中なので、問題かもしれません。
(何らかの理由で起動後にドライブsdxのアルファベット順が変更されましたが、デバイスは変更されませんでした。)
dm0は再起動後に再組み立てられず、手動で再組み立てすることはできません。組み立てようとすると常にエラーが発生します。
mdadm --assemble --run --force --update=resync /dev/md0 mdadm:
failed to RUN_ARRAY /dev/md0: Input/output error
成長がしばらく中断された関係で、今はよくわかりません。
私の攻撃者の設定が実際にraid5またはraid6の場合はどうなりますか?
最初の6つのデバイスをレードに接続する必要がある場合、または8つのデバイスすべてを接続する必要がある場合
すべてのログに記載されている問題を解決するには:
mdadm --assemble /dev/md0 /dev/sda /dev/sdb /dev/sdc /dev/sdf /dev/sdi /dev/sdj /dev/sdg/dev/sdh mdadm
--run --force /dev/ MD0
結果:
mdadm: /dev/md0 assembled from 7 drives - need 8 to start (use --run to insist).
mdadm: failed to start
array /dev/md0: Input/output error
私のdmesgログは次のとおりです。
srv11:~# dmesg |tail
[ 3393.321837] sdf:
[ 3415.020629] md/raid:md0: not clean -- starting background reconstruction
[ 3415.020771] md/raid:md0: device sdj operational as raid disk 4
[ 3415.020773] md/raid:md0: device sdi operational as raid disk 5
[ 3415.020774] md/raid:md0: device sdf operational as raid disk 0
[ 3415.020775] md/raid:md0: device sdc operational as raid disk 2
[ 3415.020776] md/raid:md0: device sdb operational as raid disk 1
[ 3415.023097] md: cannot handle concurrent replacement and reshape.
[ 3415.023551] md/raid:md0: failed to run raid set.
[ 3415.023553] md: pers->run() failed ...
「md:同時置換と外観の変更を処理できません」というエラーを処理する方法がわからないため、Web上でこれに関する情報が見つかりませんでした。
mdadm --examineで、2つのドライブ(おそらく新しいドライブ)に「イベント:0」があり、残りの6つのドライブにすべて「イベント:4700」があることがわかりました。
誰が私に一つ与えることができますか?リアクティブ化方法の提案この配列または少なくとも私のデータを保存してくださいから?
強制的に組み立てようとしましたが、成功しませんでした。実際に攻撃隊員が何人か、どんな状態なのかに関する情報が欠けているようです。最初はmdadm -D /dev/md0に6人のレイドメンバーしか表示されていませんでした。
srv11:~# mdadm -v --run --force /dev/md0
mdadm: failed to start array /dev/md0: Input/output error
srv11:~# mdadm -D /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Mon Mar 6 18:17:30 2023
Raid Level : raid6
Used Dev Size : 976630272 (931.39 GiB 1000.07 GB)
Raid Devices : 7
Total Devices : 7
Persistence : Superblock is persistent
Update Time : Thu Apr 27 17:36:15 2023
State : active, FAILED, Not Started
Active Devices : 5
Working Devices : 7
Failed Devices : 0
Spare Devices : 2
Layout : left-symmetric-6
Chunk Size : 256K
Consistency Policy : unknown
New Layout : left-symmetric
Name : solidsrv11:0 (local to host solidsrv11)
UUID : 1a87479e:7513dd65:37c61ca1:43184f65
Events : 4700
Number Major Minor RaidDevice State
- 0 0 0 removed
- 0 0 1 removed
- 0 0 2 removed
- 0 0 3 removed
- 0 0 4 removed
- 0 0 5 removed
- 0 0 6 removed
- 8 32 2 sync /dev/sdc
- 8 0 - spare /dev/sda
- 8 144 4 sync /dev/sdj
- 8 80 0 sync /dev/sdf
- 8 16 1 sync /dev/sdb
- 8 128 5 sync /dev/sdi
- 8 96 4 spare rebuilding /dev/sdg
syslogでは、このエラーが起動時に発生したことがわかり、mdがアセンブルされている間にアレイが再び動作する方法を知ることはできません。RaidDevice 3が見つかりません..
システムログフラグメントの開始:
Apr 27 17:37:05 kernel: sde: sde1 sde2 sde3 sde4
Apr 27 17:37:05 kernel: sdj:
Apr 27 17:37:05 kernel: sdg: sdg1 sdg2 sdg3
Apr 27 17:37:05 kernel: sdc:
Apr 27 17:37:05 kernel: sda:
Apr 27 17:37:05 kernel: sdi:
Apr 27 17:37:05 kernel: sdh: sdh1 sdh2 sdh3
Apr 27 17:37:05 kernel: sdf:
Apr 27 17:37:05 kernel: sd 0:0:0:0: [sda] Attached SCSI disk
Apr 27 17:37:05 kernel: sd 3:0:0:0: [sdg] Attached SCSI disk
Apr 27 17:37:05 kernel: sd 6:0:0:0: [sdj] Attached SCSI disk
Apr 27 17:37:05 kernel: sd 0:0:1:0: [sdc] Attached SCSI disk
Apr 27 17:37:05 kernel: sd 0:0:2:0: [sdb] Attached SCSI disk
Apr 27 17:37:05 kernel: sd 2:0:0:0: [sde] Attached SCSI disk
Apr 27 17:37:05 kernel: sd 5:0:0:0: [sdi] Attached SCSI disk
Apr 27 17:37:05 kernel: sd 0:0:3:0: [sdf] Attached SCSI disk
Apr 27 17:37:05 kernel: sd 4:0:0:0: [sdh] Attached SCSI disk
Apr 27 17:37:05 kernel: sd 1:0:0:0: [sdd] Attached SCSI disk
Apr 27 17:37:05 kernel: raid6: sse2x4 gen() 12392 MB/s
Apr 27 17:37:05 kernel: raid6: sse2x4 xor() 7042 MB/s
Apr 27 17:37:05 kernel: raid6: sse2x2 gen() 11331 MB/s
Apr 27 17:37:05 kernel: raid6: sse2x2 xor() 7148 MB/s
Apr 27 17:37:05 kernel: raid6: sse2x1 gen() 10382 MB/s
Apr 27 17:37:05 kernel: raid6: sse2x1 xor() 6645 MB/s
Apr 27 17:37:05 kernel: raid6: using algorithm sse2x4 gen() 12392 MB/s
Apr 27 17:37:05 kernel: raid6: .... xor() 7042 MB/s, rmw enabled
Apr 27 17:37:05 kernel: raid6: using ssse3x2 recovery algorithm
Apr 27 17:37:05 kernel: xor: automatically using best checksumming function avx
Apr 27 17:37:05 kernel: async_tx: api initialized (async)
Apr 27 17:37:05 kernel: md/raid:md0: device sdf operational as raid disk 0
Apr 27 17:37:05 kernel: md/raid:md0: device sdb operational as raid disk 1
Apr 27 17:37:05 kernel: md/raid:md0: device sda operational as raid disk 3
Apr 27 17:37:05 kernel: md/raid:md0: device sdi operational as raid disk 5
Apr 27 17:37:05 kernel: md/raid:md0: device sdc operational as raid disk 2
Apr 27 17:37:05 kernel: md/raid:md0: device sdj operational as raid disk 4
Apr 27 17:37:05 kernel: md: cannot handle concurrent replacement and reshape.
Apr 27 17:37:05 kernel: md/raid:md0: failed to run raid set.
Apr 27 17:37:05 kernel: md: pers->run() failed ...