RAID-5で組み立てられた2つのディスク(sdaとsdc、他のものの運命はわかりません)があります。数回の突然終了後、攻撃隊員の一人が透明になって再組み立てができなくなりました。私はRAID-5を含むLinuxファイルシステムに精通していません。私が知っている限り、RAID-5はファイルを失うことはありませんが、私のsdcディスクが破損しているかどうか、それ以外の場合は情報を失うことなく再組み立てできるかどうかはわかりません。どのようにアクセスしますか?私の書類。助けてくれてありがとう!
$ lsblk -o NAME,SIZE,FSTYPE,TYPE,MOUNTPOINT
NAME SIZE FSTYPE TYPE MOUNTPOINT
loop0 27,1M squashfs loop /snap/snapd/7264
loop1 55M squashfs loop /snap/core18/1705
loop2 240,8M squashfs loop /snap/gnome-3-34-1804/24
loop3 62,1M squashfs loop /snap/gtk-common-themes/1506
loop4 49,8M squashfs loop /snap/snap-store/433
sda 3,7T promise_fasttrack_raid_member disk
└─sda1 3,7T linux_raid_member part
sdb 465,8G disk
├─sdb1 186,4G ext4 part /
├─sdb2 1K part
├─sdb3 268,2G ext4 part /home
└─sdb5 11,2G swap part [SWAP]
そして
$sudo parted -l
Model: ATA WDC WD40EZRX-00S (scsi)
Disk /dev/sda: 4001GB
Sector size (logical/physical): 512B/4096B
Partition Table: gpt
Disk Flags:
Number Start End Size File system Name Flags
1 1049kB 4001GB 4001GB ext4 raid
Model: ATA Samsung SSD 840 (scsi)
Disk /dev/sdb: 500GB
Sector size (logical/physical): 512B/512B
Partition Table: msdos
Disk Flags:
Number Start End Size Type File system Flags
1 1049kB 200GB 200GB primary ext4 boot
2 200GB 212GB 12,0GB extended
5 200GB 212GB 12,0GB logical linux-swap(v1)
3 212GB 500GB 288GB primary ext4
Ubuntuの「ディスク」アプリケーションでのみ表示され、sdcディスクの場合は「メディアなし」と表示されます。
sdaパーティションが正しいようです。
再組み立てできません。
sudo mdadm --assemble --scan
Ubuntu 20のアップグレード中に次のエラーが発生します。
grub-probe: warning: disk does not exist, so falling back to partition device /dev/sdc1.
grub-probe: error: cannot read `/dev/sdc1': Input/output error.
修正する:
再起動後にディスクが表示されました(理由と方法がわかりません)。しかし、まだ組み立てと設置は不可能です。
$ lsblk -o NAME,SIZE,FSTYPE,TYPE,MOUNTPOINT
NAME SIZE FSTYPE TYPE MOUNTPOINT
loop0 55M squashfs loop /snap/core18/1705
loop1 61,9M squashfs loop /snap/core20/1270
loop2 62,1M squashfs loop /snap/gtk-common-themes/1506
loop3 108,1M squashfs loop /snap/remmina/5130
loop4 49,8M squashfs loop /snap/snap-store/433
loop5 240,8M squashfs loop /snap/gnome-3-34-1804/24
loop6 27,1M squashfs loop /snap/snapd/7264
loop7 247,9M squashfs loop /snap/gnome-3-38-2004/87
loop8 55,5M squashfs loop /snap/core18/2284
loop9 43,4M squashfs loop /snap/snapd/14549
loop10 4K squashfs loop /snap/bare/5
loop11 65,2M squashfs loop /snap/gtk-common-themes/1519
loop12 54,2M squashfs loop /snap/snap-store/558
loop13 219M squashfs loop /snap/gnome-3-34-1804/77
sda 3,7T promise_fasttrack_raid_member disk
└─sda1 3,7T linux_raid_member part
sdb 465,8G disk
├─sdb1 186,4G ext4 part /
├─sdb2 1K part
├─sdb3 268,2G ext4 part /home
└─sdb5 11,2G swap part [SWAP]
sdc 3,7T promise_fasttrack_raid_member disk
└─sdc1 3,7T linux_raid_member part
mdadmアセンブリを試してからインストールしようとしましたが、失敗しました。
$ sudo mdadm --assemble --scan --force
$ sudo mount /dev/md0 /home/bilgen/
mount: /home/person: can't read superblock on /dev/md0.
$ cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md0 : inactive sdc1[2] sda1[1]
7813771264 blocks super 1.2
unused devices: <none>
$ sudo mdadm --examine --scan
ARRAY /dev/md/0 metadata=1.2 UUID=92fd33d9:351dcee8:c809916a:b46055e5 name=zencefil:0
RAIDディスクsda1とsdc1を確認してください。 sda1の状態はクリーンですが、sdc1の状態はアクティブです。私はこれが問題をデバッグするために重要だと思います。 RAID-5であることを確認しましたが、コンピュータを受信したときにディスクが2つしかなかったため、ディスクの1つが破損している可能性があります。今私はそれを実現しました。
$ sudo mdadm -E /dev/sda1
/dev/sda1:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x0
Array UUID : 92fd33d9:351dcee8:c809916a:b46055e5
Name : zencefil:0
Creation Time : Thu Mar 12 00:17:27 2015
Raid Level : **raid5**
Raid Devices : **3**
Avail Dev Size : 7813771264 (3725.90 GiB 4000.65 GB)
Array Size : 7813770240 (7451.79 GiB 8001.30 GB)
Used Dev Size : 7813770240 (3725.90 GiB 4000.65 GB)
Data Offset : 262144 sectors
Super Offset : 8 sectors
Unused Space : before=262064 sectors, after=1024 sectors
**State : clean**
Device UUID : 6212bf12:f2bacb20:6a10a588:ac50cb2d
Update Time : Mon Jan 24 20:04:23 2022
Checksum : cfb60638 - correct
Events : 6360009
Layout : left-symmetric
Chunk Size : 512K
Device Role : Active device 1
Array State : .AA ('A' == active, '.' == missing, 'R' == replacing)
$ sudo mdadm -E /dev/sdc1
/dev/sdc1:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x0
Array UUID : 92fd33d9:351dcee8:c809916a:b46055e5
Name : zencefil:0
Creation Time : Thu Mar 12 00:17:27 2015
Raid Level : **raid5**
Raid Devices : **3**
Avail Dev Size : 7813771264 (3725.90 GiB 4000.65 GB)
Array Size : 7813770240 (7451.79 GiB 8001.30 GB)
Used Dev Size : 7813770240 (3725.90 GiB 4000.65 GB)
Data Offset : 262144 sectors
Super Offset : 8 sectors
Unused Space : before=262064 sectors, after=1024 sectors
**State : active**
Device UUID : daef079b:176d487a:cb152bdb:3d2548f9
Update Time : Mon Jan 24 20:04:23 2022
Checksum : cf7e70ca - correct
Events : 6360009
Layout : left-symmetric
Chunk Size : 512K
Device Role : Active device 2
Array State : .AA ('A' == active, '.' == missing, 'R' == replacing)
メッセージは状況を知らせるのに役立ちます。
dmesg | grep md0
[ 8.147671] md/raid:md0: not clean -- starting background reconstruction
[ 8.147750] md/raid:md0: device sdc1 operational as raid disk 2
[ 8.147755] md/raid:md0: device sda1 operational as raid disk 1
[ 8.149553] md/raid:md0: cannot start dirty degraded array.
[ 8.149943] md/raid:md0: failed to run raid set.
[ 2878.821074] EXT4-fs (md0): unable to read superblock
状況がますます興味深くなっています。
mdadm -D /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Thu Mar 12 00:17:27 2015
Raid Level : raid5
Used Dev Size : 18446744073709551615
Raid Devices : 3
Total Devices : 2
Persistence : Superblock is persistent
Update Time : Mon Jan 24 20:04:23 2022
State : active, FAILED, Not Started
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 512K
Consistency Policy : unknown
Name : zencefil:0
UUID : 92fd33d9:351dcee8:c809916a:b46055e5
Events : 6360009
Number Major Minor RaidDevice State
- 0 0 0 removed
- 0 0 1 removed
- 0 0 2 removed
- 8 1 1 sync /dev/sda1
- 8 33 2 sync /dev/sdc1