pvcreate
Red Hat 9.3の新規インストール後にコマンドを使用する際に問題があります。ここでの目標は、/dev/mapper/rhel-root
スペースが不足しないようにサイズを増やすことです。
lsblk
:
[root@localhost ~]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINTS
sr0 11:0 1 1024M 0 rom
vda 252:0 0 35G 0 disk
├─vda1 252:1 0 1G 0 part /boot
└─vda2 252:2 0 19G 0 part
├─rhel-root 253:0 0 17G 0 lvm /
└─rhel-swap 253:1 0 2G 0 lvm [SWAP]
[root@localhost ~]# fdisk -l
Disk /dev/vda: 35 GiB, 37580963840 bytes, 73400320 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: dos
Disk identifier: 0x1649b049
Device Boot Start End Sectors Size Id Type
/dev/vda1 * 2048 2099199 2097152 1G 83 Linux
/dev/vda2 2099200 41943039 39843840 19G 8e Linux LVM
Disk /dev/mapper/rhel-root: 17 GiB, 18249416704 bytes, 35643392 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk /dev/mapper/rhel-swap: 2 GiB, 2147483648 bytes, 4194304 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
サイズを増やす必要があります/dev/mapper/rhel-root
。私はこれをガイドとして使用しました。
https://www.redhat.com/sysadmin/resize-lvm-simple
使用すると、pvcreate
常に次のメッセージが表示されます。
[root@localhost ~]# pvcreate /dev/vdb
No device found for /dev/vdb.
フィルタリングとマルチパスについて議論する多くの投稿が見つかりましたが、現在これらの投稿は構成されていません。
答え1
すでにLVM(論理ボリューム管理)を実行しています。 VMはそのシステムディスクについてのみ知っており、/dev/vda
コマンドがpvcreate /dev/vdb
存在しないデバイスに新しい物理ボリューム(PV)を作成しようとしていることを示しました(「/dev/vdbのデバイスが見つかりません。")。
/dev/vda2
このコマンドを使用する場所は別になく、既存のボリュームグループ(VG)にもLVサイズを増やすための空き容量がありませんroot
。
2番目のディスクがあり、システムがそれを認識しない場合は、最も簡単な回避策は仮想マシンをシャットダウンして再起動することです。次に、ディスク全体にわたるパーティションテーブルを作成し、それを使用しますpvcreate /dev/vdb1
(パーティションテーブルをスキップしてPVをRAWスペースに適用するよりも安全です)。
これが実際に新しくインストールされ、ルートパーティションに17 GB以上が必要な場合は、VMディスクを適切なサイズに変更して再起動してください。
答え2
すべてを動作させるために私がしたことは次のとおりです。仮想マシンに新しいディスクを作成した後、この手順は完全に機能します。
https://www.redhat.com/sysadmin/resize-lvm-simple
コックピットを使用して、仮想マシンに新しいvirtioディスクを追加しました。コックピットで、仮想マシンの[ディスク]タブをクリックし、[追加]をクリックします。再起動すると、/dev/vdb があることがわかります。私が最初から逃していた部分がまさにこの部分でした。
[root@localhost ~]# ls -al /dev/vd* brw-rw---- 1 root disk 252, 0 Feb 9 2024 /dev/vda brw-rw---- 1 root disk 252, 1 Feb 9 2024 /dev/vda1 brw-rw---- 1 root disk 252, 2 Feb 9 2024 /dev/vda2 brw-rw---- 1 root disk 252, 16 Feb 9 2024 /dev/vdb [root@localhost ~]# pvcreate /dev/vdb Physical volume "/dev/vdb" successfully created. [root@localhost ~]# vgs VG #PV #LV #SN Attr VSize VFree rhel 1 2 0 wz--n- <19.00g 0 [root@localhost ~]# vgextend rhel /dev/vdb Volume group "rhel" successfully extended [root@localhost ~]# vgs VG #PV #LV #SN Attr VSize VFree rhel 2 2 0 wz--n- 33.99g <15.00g [root@localhost ~]# vgdisplay --- Volume group --- VG Name rhel System ID Format lvm2 Metadata Areas 2 Metadata Sequence No 4 VG Access read/write VG Status resizable MAX LV 0 Cur LV 2 Open LV 2 Max PV 0 Cur PV 2 Act PV 2 VG Size 33.99 GiB PE Size 4.00 MiB Total PE 8702 Alloc PE / Size 4863 / <19.00 GiB Free PE / Size 3839 / <15.00 GiB VG UUID 9XuyQe-49pL-Dm3c-1bWL-FU8c-omyJ-B9Vupu [root@localhost ~]# lvs LV VG Attr LSize Pool Origin Data% Meta% Move Log Cpy%Sync Convert root rhel -wi-ao---- <17.00g swap rhel -wi-ao---- 2.00g [root@localhost ~]# lvextend -l +100%FREE /dev/mapper/rhel-root Size of logical volume rhel/root changed from <17.00 GiB (4351 extents) to 31.99 GiB (8190 extents). Logical volume rhel/root successfully resized. [root@localhost ~]# xfs_growfs /dev/mapper/rhel-root meta-data=/dev/mapper/rhel-root isize=512 agcount=4, agsize=1113856 blks = sectsz=512 attr=2, projid32bit=1 = crc=1 finobt=1, sparse=1, rmapbt=0 = reflink=1 bigtime=1 inobtcount=1 nrext64=0 data = bsize=4096 blocks=4455424, imaxpct=25 = sunit=0 swidth=0 blks naming =version 2 bsize=4096 ascii-ci=0, ftype=1 log =internal log bsize=4096 blocks=16384, version=2 = sectsz=512 sunit=0 blks, lazy-count=1 realtime =none extsz=4096 blocks=0, rtextents=0 data blocks changed from 4455424 to 8386560 [root@localhost ~]# df -h Filesystem Size Used Avail Use% Mounted on devtmpfs 4.0M 0 4.0M 0% /dev tmpfs 2.8G 0 2.8G 0% /dev/shm tmpfs 1.2G 8.7M 1.1G 1% /run /dev/mapper/rhel-root 32G 13G 20G 38% / /dev/vda1 960M 260M 701M 28% /boot tmpfs 566M 4.0K 566M 1% /run/user/0
/dev/mapper/rhel-root は以前の 78% に比べて 38% だけでいっぱいです。
[root@localhost ~]# lvs
LV VG Attr LSize Pool Origin Data% Meta% Move Log Cpy%Sync Convert
root rhel -wi-ao---- 31.99g
swap rhel -wi-ao---- 2.00g