/dev/sdc
2つの8TBディスク(および)で構成されるmdadm RAID1アレイを備えたシステムがあります/dev/sdd
。これはうまくいき、上に多くのデータを追加しました。
別のコンピュータで複数回テストを実行して、2つのディスクを持つRAID 1を(最終的に)5つのディスクを持つRAID 5に拡張しましたが、期待どおりに機能しました。
医者も
2つのディスクを持つRAID1アレイを3つのディスクを持つRAID5アレイに拡張するときに何が欠けますか?再起動後、アレイが非アクティブになり、デバイスが欠落しています!
私がしたこと:
- RAIDレベルを5に変更します。
mdadm --grow /dev/md0 -l 5
- スペアハードドライブの追加:
mdadm /dev/md0 --add /dev/sdb
- 新しいディスクを使用するには、RAIDを追加してください。
mdadm --grow /dev/md0 -n 3
- これ以降、同期が開始されます。
同期中の出力は次のとおりです。
user@server:~$ sudo mdadm -D /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Tue Jul 19 17:56:28 2022
Raid Level : raid5
Array Size : 7813894464 (7.28 TiB 8.00 TB)
Used Dev Size : 7813894464 (7.28 TiB 8.00 TB)
Raid Devices : 3
Total Devices : 3
Persistence : Superblock is persistent
Intent Bitmap : Internal
Update Time : Thu Aug 25 18:25:21 2022
State : clean, reshaping
Active Devices : 3
Working Devices : 3
Failed Devices : 0
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 64K
Consistency Policy : bitmap
Reshape Status : 24% complete
Delta Devices : 1, (2->3)
Name : ubuntu-server:0
UUID : 9d1e2e6e:14dc5960:011daf54:xxxxxxxx
Events : 77556
Number Major Minor RaidDevice State
0 8 32 0 active sync /dev/sdc
1 8 48 1 active sync /dev/sdd
2 8 16 2 active sync /dev/sdb
そしてディスク:
user@server:~$ lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINTS
loop0 7:0 0 62M 1 loop /snap/core20/1593
loop1 7:1 0 62M 1 loop /snap/core20/1611
loop2 7:2 0 79.9M 1 loop /snap/lxd/22923
loop3 7:3 0 103M 1 loop /snap/lxd/23541
loop4 7:4 0 44.7M 1 loop /snap/snapd/15534
loop5 7:5 0 47M 1 loop /snap/snapd/16292
sda 8:0 0 931.5G 0 disk
├─sda1 8:1 0 1M 0 part
├─sda2 8:2 0 2G 0 part /boot
└─sda3 8:3 0 929.5G 0 part
└─dm_crypt-1 253:0 0 929.5G 0 crypt
└─ubuntu--vg-lv--0 253:1 0 929.5G 0 lvm /
sdb 8:16 0 7.3T 0 disk
└─md0 9:0 0 7.3T 0 raid5
sdc 8:32 0 7.3T 0 disk
└─md0 9:0 0 7.3T 0 raid5
sdd 8:48 0 7.3T 0 disk
└─md0 9:0 0 7.3T 0 raid5
同期が完了した後、アレイサイズはまだ8 TBでしたが、アレイをマウントしてデータにアクセスできました(手動で増やす必要があると仮定します)。
24時間を今すぐ早送りします(再起動後):
root@server:~# mdadm -D /dev/md0
/dev/md0:
Version : 1.2
Raid Level : raid5
Total Devices : 2
Persistence : Superblock is persistent
State : inactive
Working Devices : 2
Name : ubuntu-server:0
UUID : 9d1e2e6e:14dc5960:011daf54:xxxxxxxx
Events : 85828
Number Major Minor RaidDevice
- 8 32 - /dev/sdc
- 8 48 - /dev/sdd
root@server:~# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINTS
loop0 7:0 0 62M 1 loop /snap/core20/1593
loop1 7:1 0 62M 1 loop /snap/core20/1611
loop2 7:2 0 79.9M 1 loop /snap/lxd/22923
loop3 7:3 0 103M 1 loop /snap/lxd/23541
loop4 7:4 0 44.7M 1 loop /snap/snapd/15534
loop5 7:5 0 47M 1 loop /snap/snapd/16292
sda 8:0 0 931.5G 0 disk
├─sda1 8:1 0 1M 0 part
├─sda2 8:2 0 2G 0 part /boot
└─sda3 8:3 0 929.5G 0 part
└─dm_crypt-1 253:0 0 929.5G 0 crypt
└─ubuntu--vg-lv--0 253:1 0 929.5G 0 lvm /
sdb 8:16 0 7.3T 0 disk
sdc 8:32 0 7.3T 0 disk
└─md0 9:0 0 0B 0 md
sdd 8:48 0 7.3T 0 disk
└─md0 9:0 0 0B 0 md
/dev/sdb
だから新しく追加したHDD()がなんだか抜けたようです!mdadm --detail --scan --verbose
私の投稿にの出力を追加して/etc/mdadm/mdadm.conf
実行してみましたがupdate-initramfs -u
役に立ちませんでした。
詳しくはこちらをご覧ください。
root@server:~# mdadm --examine /dev/sd[bcd]
/dev/sdb:
MBR Magic : aa55
Partition[0] : 4294967295 sectors at 1 (type ee)
/dev/sdc:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x1
Array UUID : 9d1e2e6e:14dc5960:011daf54:403c80a6
Name : ubuntu-server:0
Creation Time : Tue Jul 19 17:56:28 2022
Raid Level : raid5
Raid Devices : 3
Avail Dev Size : 15627789488 sectors (7.28 TiB 8.00 TB)
Array Size : 15627788928 KiB (14.55 TiB 16.00 TB)
Used Dev Size : 15627788928 sectors (7.28 TiB 8.00 TB)
Data Offset : 263680 sectors
Super Offset : 8 sectors
Unused Space : before=263600 sectors, after=560 sectors
State : clean
Device UUID : cce44b44:6be581c6:ed09e3e8:5a2f5735
Internal Bitmap : 8 sectors from superblock
Update Time : Fri Aug 26 19:56:25 2022
Bad Block Log : 512 entries available at offset 40 sectors
Checksum : 370fd1fa - correct
Events : 85828
Layout : left-symmetric
Chunk Size : 64K
Device Role : Active device 0
Array State : AAA ('A' == active, '.' == missing, 'R' == replacing)
/dev/sdd:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x1
Array UUID : 9d1e2e6e:14dc5960:011daf54:403c80a6
Name : ubuntu-server:0
Creation Time : Tue Jul 19 17:56:28 2022
Raid Level : raid5
Raid Devices : 3
Avail Dev Size : 15627789488 sectors (7.28 TiB 8.00 TB)
Array Size : 15627788928 KiB (14.55 TiB 16.00 TB)
Used Dev Size : 15627788928 sectors (7.28 TiB 8.00 TB)
Data Offset : 263680 sectors
Super Offset : 8 sectors
Unused Space : before=263600 sectors, after=560 sectors
State : clean
Device UUID : 5744d817:29d6e7e7:30e536d7:16d43c13
Internal Bitmap : 8 sectors from superblock
Update Time : Fri Aug 26 19:56:25 2022
Bad Block Log : 512 entries available at offset 40 sectors
Checksum : f83ba242 - correct
Events : 85828
Layout : left-symmetric
Chunk Size : 64K
Device Role : Active device 1
Array State : AAA ('A' == active, '.' == missing, 'R' == replacing)
root@server:~# cat /etc/mdadm/mdadm.conf
# mdadm.conf
#
# Please refer to mdadm.conf(5) for information about this file.
#
DEVICE partitions
# auto-create devices with Debian standard permissions
CREATE owner=root group=disk mode=0660 auto=yes
# automatically tag new arrays as belonging to the local system
HOMEHOST <system>
# instruct the monitoring daemon where to send mail alerts
MAILADDR root
# definitions of existing MD arrays
ARRAY /dev/md0 level=raid5 num-devices=3 metadata=1.2 name=ubuntu-server:0 UUID=9d1e2e6e:14dc5960:011daf54:xxxxxx
devices=/dev/sdb,/dev/sdc,/dev/sdd
root@server:~# lsb_release -a
No LSB modules are available.
Distributor ID: Ubuntu
Description: Ubuntu 22.04.1 LTS
Release: 22.04
Codename: jammy
答え1
同じ問題がある人の場合:
\dev\sdb
パーティションテーブルが破損したり消えるなどの原因が見つかりませんでしたが、私の問題は実際にパーティションが欠落しているようです。
データをバックアップせずに何かをすることがあまり気に入らず、コメントで提案したとおりにしました。
- ダウングレードアレイ
- スペア(「障害」)ディスクを使用した
/dev/sdb
データの保存/バックアップ() - 残りの2つのドライブを分割し
/dev/sdc
、/dev/sdd
アレイを破壊してください! - 2つのドライブでアレイを再作成する
- データをもう一度コピーしてください。
- 3番目(パーティション)ディスクの追加
正しい方向を教えてくれてありがとうございます!