RAID 5に変更してRAID 1の容量を増やすことはできますか?

RAID 5に変更してRAID 1の容量を増やすことはできますか?

私の初期RAID設定は、mdadmを使用する2x2TB RAID 1でした。

3台目の2TBドライブを購入し、mdadmを使用してRAID容量全体を4TBにアップグレードしようとしています。

次の2つのコマンドを実行しましたが、容量に変更はありません。

sudo mdadm --grow /dev/md0 --level=5
sudo mdadm --grow /dev/md0 --add /dev/sdd --raid-devices=3

mdadmを使用した詳細:

$ sudo mdadm --detail /dev/md0
[sudo] password for userd: 
/dev/md0:
           Version : 1.2
     Creation Time : Wed Jul  5 19:59:17 2017
        Raid Level : raid5
        Array Size : 1953383488 (1862.89 GiB 2000.26 GB)
     Used Dev Size : 1953383488 (1862.89 GiB 2000.26 GB)
      Raid Devices : 3
     Total Devices : 3
       Persistence : Superblock is persistent

     Intent Bitmap : Internal

       Update Time : Wed May 22 17:58:37 2019
             State : clean, reshaping 
    Active Devices : 3
   Working Devices : 3
    Failed Devices : 0
     Spare Devices : 0

            Layout : left-symmetric
        Chunk Size : 64K

Consistency Policy : bitmap

    Reshape Status : 5% complete
     Delta Devices : 1, (2->3)

              Name : userd:0  (local to host userd)
              UUID : 986fca95:68ef5344:5136f8af:b8d34a03
            Events : 13557

    Number   Major   Minor   RaidDevice State
       0       8        0        0      active sync   /dev/sda
       1       8       16        1      active sync   /dev/sdb
       2       8       48        2      active sync   /dev/sdd

更新:これで再構成が完了したので、4 TBのうち2 TBしか使用できません。

/dev/md0:
           Version : 1.2
     Creation Time : Wed Jul  5 19:59:17 2017
        Raid Level : raid5
        Array Size : 3906766976 (3725.78 GiB 4000.53 GB)
     Used Dev Size : 1953383488 (1862.89 GiB 2000.26 GB)
      Raid Devices : 3
     Total Devices : 3
       Persistence : Superblock is persistent

     Intent Bitmap : Internal

       Update Time : Thu May 23 23:40:16 2019
             State : clean 
    Active Devices : 3
   Working Devices : 3
    Failed Devices : 0
     Spare Devices : 0

            Layout : left-symmetric
        Chunk Size : 64K

Consistency Policy : bitmap

              Name : userd:0  (local to host userd)
              UUID : 986fca95:68ef5344:5136f8af:b8d34a03
            Events : 17502

    Number   Major   Minor   RaidDevice State
       0       8        0        0      active sync   /dev/sda
       1       8       16        1      active sync   /dev/sdb
       2       8       48        2      active sync   /dev/sdd

mdadmに2TB以外の4TBをすべて使用させるにはどうすればよいですか?

答え1

リモデリングの状態を確認してください。

   Update Time : Wed May 22 17:58:37 2019
         State : clean, reshaping 
...
Reshape Status : 5% complete
 Delta Devices : 1, (2->3)

完了するまで追加の保存容量を取得することはできません。提供されたレポートによると、現在5%しか完了していません。

この変形プロセスでプロセスを中断したり、外観を変更したりしないでください。

答え2

Gpartedによると、答えは追加のスペースを利用するためにファイルシステムチェックを実行することです。

この問題を解決するには、次の手順を実行する必要があります。

  1. ファイルシステムをマウント解除します。
  2. 開いている
  3. RAIDデバイスを選択してください(私の場合は/ dev / md0)。
  4. 検査の実行(パーティション - >検査)

利用可能なすべてのスペースを使用するようにmd0パーティションのサイズが正常に調整されました。

gpartedの正確な動作出力は次のとおりです。

GParted 0.33.0 --enable-libparted-dmraid --enable-online-resize

Libparted 3.2
Check and repair file system (ext4) on /dev/md0  00:03:51    ( SUCCESS )

calibrate /dev/md0  00:00:00    ( SUCCESS )

path: /dev/md0 (device)
start: 0
end: 7813533951
size: 7813533952 (3.64 TiB)
check file system on /dev/md0 for errors and (if possible) fix them  00:02:43    ( SUCCESS )

e2fsck -f -y -v -C 0 '/dev/md0'  00:02:43    ( SUCCESS )

Pass 1: Checking inodes, blocks, and sizes
Inode 30829505 extent tree (at level 1) could be shorter. Optimize? yes

Inode 84025620 extent tree (at level 1) could be narrower. Optimize? yes

Inode 84806354 extent tree (at level 2) could be narrower. Optimize? yes

Pass 1E: Optimizing extent trees
Pass 2: Checking directory structure
Pass 3: Checking directory connectivity
/lost+found not found. Create? yes

Pass 4: Checking reference counts
Pass 5: Checking group summary information

StorageArray0: ***** FILE SYSTEM WAS MODIFIED *****

5007693 inodes used (4.10%, out of 122093568)
23336 non-contiguous files (0.5%)
2766 non-contiguous directories (0.1%)
# of inodes with ind/dind/tind blocks: 0/0/0
Extent depth histogram: 4942467/2090/2
458492986 blocks used (93.89%, out of 488345872)
0 bad blocks
52 large files

4328842 regular files
612231 directories
0 character device files
0 block device files
3 fifos
1396 links
66562 symbolic links (63077 fast symbolic links)
45 sockets
------------
5009079 files
e2fsck 1.45.1 (12-May-2019)
grow file system to fill the partition  00:01:08    ( SUCCESS )

resize2fs -p '/dev/md0'  00:01:08    ( SUCCESS )

Resizing the filesystem on /dev/md0 to 976691744 (4k) blocks.
The filesystem on /dev/md0 is now 976691744 (4k) blocks long.

resize2fs 1.45.1 (12-May-2019)

========================================

関連情報