私の初期RAID設定は、mdadmを使用する2x2TB RAID 1でした。
3台目の2TBドライブを購入し、mdadmを使用してRAID容量全体を4TBにアップグレードしようとしています。
次の2つのコマンドを実行しましたが、容量に変更はありません。
sudo mdadm --grow /dev/md0 --level=5
sudo mdadm --grow /dev/md0 --add /dev/sdd --raid-devices=3
mdadmを使用した詳細:
$ sudo mdadm --detail /dev/md0
[sudo] password for userd:
/dev/md0:
Version : 1.2
Creation Time : Wed Jul 5 19:59:17 2017
Raid Level : raid5
Array Size : 1953383488 (1862.89 GiB 2000.26 GB)
Used Dev Size : 1953383488 (1862.89 GiB 2000.26 GB)
Raid Devices : 3
Total Devices : 3
Persistence : Superblock is persistent
Intent Bitmap : Internal
Update Time : Wed May 22 17:58:37 2019
State : clean, reshaping
Active Devices : 3
Working Devices : 3
Failed Devices : 0
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 64K
Consistency Policy : bitmap
Reshape Status : 5% complete
Delta Devices : 1, (2->3)
Name : userd:0 (local to host userd)
UUID : 986fca95:68ef5344:5136f8af:b8d34a03
Events : 13557
Number Major Minor RaidDevice State
0 8 0 0 active sync /dev/sda
1 8 16 1 active sync /dev/sdb
2 8 48 2 active sync /dev/sdd
更新:これで再構成が完了したので、4 TBのうち2 TBしか使用できません。
/dev/md0:
Version : 1.2
Creation Time : Wed Jul 5 19:59:17 2017
Raid Level : raid5
Array Size : 3906766976 (3725.78 GiB 4000.53 GB)
Used Dev Size : 1953383488 (1862.89 GiB 2000.26 GB)
Raid Devices : 3
Total Devices : 3
Persistence : Superblock is persistent
Intent Bitmap : Internal
Update Time : Thu May 23 23:40:16 2019
State : clean
Active Devices : 3
Working Devices : 3
Failed Devices : 0
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 64K
Consistency Policy : bitmap
Name : userd:0 (local to host userd)
UUID : 986fca95:68ef5344:5136f8af:b8d34a03
Events : 17502
Number Major Minor RaidDevice State
0 8 0 0 active sync /dev/sda
1 8 16 1 active sync /dev/sdb
2 8 48 2 active sync /dev/sdd
mdadmに2TB以外の4TBをすべて使用させるにはどうすればよいですか?
答え1
リモデリングの状態を確認してください。
Update Time : Wed May 22 17:58:37 2019
State : clean, reshaping
...
Reshape Status : 5% complete
Delta Devices : 1, (2->3)
完了するまで追加の保存容量を取得することはできません。提供されたレポートによると、現在5%しか完了していません。
この変形プロセスでプロセスを中断したり、外観を変更したりしないでください。
答え2
Gpartedによると、答えは追加のスペースを利用するためにファイルシステムチェックを実行することです。
この問題を解決するには、次の手順を実行する必要があります。
- ファイルシステムをマウント解除します。
- 開いている
- RAIDデバイスを選択してください(私の場合は/ dev / md0)。
- 検査の実行(パーティション - >検査)
利用可能なすべてのスペースを使用するようにmd0パーティションのサイズが正常に調整されました。
gpartedの正確な動作出力は次のとおりです。
GParted 0.33.0 --enable-libparted-dmraid --enable-online-resize
Libparted 3.2
Check and repair file system (ext4) on /dev/md0 00:03:51 ( SUCCESS )
calibrate /dev/md0 00:00:00 ( SUCCESS )
path: /dev/md0 (device)
start: 0
end: 7813533951
size: 7813533952 (3.64 TiB)
check file system on /dev/md0 for errors and (if possible) fix them 00:02:43 ( SUCCESS )
e2fsck -f -y -v -C 0 '/dev/md0' 00:02:43 ( SUCCESS )
Pass 1: Checking inodes, blocks, and sizes
Inode 30829505 extent tree (at level 1) could be shorter. Optimize? yes
Inode 84025620 extent tree (at level 1) could be narrower. Optimize? yes
Inode 84806354 extent tree (at level 2) could be narrower. Optimize? yes
Pass 1E: Optimizing extent trees
Pass 2: Checking directory structure
Pass 3: Checking directory connectivity
/lost+found not found. Create? yes
Pass 4: Checking reference counts
Pass 5: Checking group summary information
StorageArray0: ***** FILE SYSTEM WAS MODIFIED *****
5007693 inodes used (4.10%, out of 122093568)
23336 non-contiguous files (0.5%)
2766 non-contiguous directories (0.1%)
# of inodes with ind/dind/tind blocks: 0/0/0
Extent depth histogram: 4942467/2090/2
458492986 blocks used (93.89%, out of 488345872)
0 bad blocks
52 large files
4328842 regular files
612231 directories
0 character device files
0 block device files
3 fifos
1396 links
66562 symbolic links (63077 fast symbolic links)
45 sockets
------------
5009079 files
e2fsck 1.45.1 (12-May-2019)
grow file system to fill the partition 00:01:08 ( SUCCESS )
resize2fs -p '/dev/md0' 00:01:08 ( SUCCESS )
Resizing the filesystem on /dev/md0 to 976691744 (4k) blocks.
The filesystem on /dev/md0 is now 976691744 (4k) blocks long.
resize2fs 1.45.1 (12-May-2019)
========================================