しばらくここと他のフォーラムで同様の投稿を読んだが、よく分からない。
私たちの環境では、40 GBのルートドライブを搭載したいくつかのCentOS 7 Linux VMを実行しています。数ヶ月前から、これらのスペースは奇妙にいっぱいになり、使用量は10 GBからほぼ40 GBに増加しました。最大のディレクトリ/ファイルを表示する方法、ディレクトリを手動でマイニングする方法について複数のコマンドレットを使用してみましたが、欠落している30 GB以上のディレクトリが見つかりませんでした。
- 私が見つけたのは、
/proc/kcore
ファイルシステムスペースをまったく使用していない128TBのファイルだけでした。 - しかも
lastlog
80GBまで上がる場合もありますが、やはり希薄なファイルでスペースを全く占めません。 - 最近Veeamをアップグレードし、このファイルをバックアップから除外することをお勧めしますが、これまでにスペース損失の問題が発生するという証拠は見つかりませんでした。
すべてのコマンドレットはrootとして実行されます。
- これは標準
df -h
出力です:Filesystem Size Used Avail Use% Mounted on /dev/mapper/centos-root 38G 38G 382M 100% / devtmpfs 911M 0 911M 0% /dev tmpfs 921M 304K 920M 1% /dev/shm tmpfs 921M 97M 824M 11% /run tmpfs 921M 0 921M 0% /sys/fs/cgroup /dev/sda1 497M 163M 334M 33% /boot tmpfs 185M 0 185M 0% /run/user/307804300 tmpfs 185M 0 185M 0% /run/user/0
ls -la
出力/
:dr-xr-xr-x. 17 root root 4096 Apr 16 07:23 . dr-xr-xr-x. 17 root root 4096 Apr 16 07:23 .. lrwxrwxrwx. 1 root root 19 Nov 18 2017 bdcore.so -> bdcore.so.linux-x86 lrwxrwxrwx. 1 root root 7 Feb 29 2016 bin -> usr/bin dr-xr-xr-x. 4 root root 4096 May 4 12:26 boot drwxr-xr-x. 19 root root 3120 Jul 10 12:11 dev drwxr-xr-x. 86 root root 8192 May 18 13:41 etc drwxr-xr-x. 23 root root 4096 Jul 9 12:01 home lrwxrwxrwx. 1 root root 7 Feb 29 2016 lib -> usr/lib lrwxrwxrwx. 1 root root 9 Feb 29 2016 lib64 -> usr/lib64 drwxr-xr-x. 2 root root 6 Aug 12 2015 media dr-xr-xr-x. 17 root root 4096 Apr 16 07:23 mnt drwxr-xr-x. 6 root root 74 Jun 8 09:23 opt dr-xr-xr-x. 116 root root 0 May 18 13:40 proc dr-xr-x---. 6 root root 4096 Jun 23 2017 root drwxr-xr-x. 22 root root 700 Jul 10 12:11 run lrwxrwxrwx. 1 root root 8 Feb 29 2016 sbin -> usr/sbin drwxr-xr-x. 2 root root 6 Aug 12 2015 srv dr-xr-xr-x. 13 root root 0 May 18 13:41 sys drwxrwxrwt. 10 root root 4096 Jul 10 12:33 tmp drwxr-xr-x. 13 root root 4096 Feb 29 2016 usr drwxr-xr-x. 21 root root 4096 May 18 13:41 var
- 出力
du / -xh 2> /dev/null | sort -hr | head -n 20
:3.2G / 1.7G /opt 1.4G /opt/BitDefender 1.2G /usr 1.2G /opt/BitDefender/var 971M /opt/BitDefender/var/lib 656M /opt/BitDefender/var/lib/scan 474M /usr/lib 358M /usr/share 353M /opt/BitDefender/var/lib/scan/antivirus_9647 343M /opt/BitDefender/var/lib/scan/antivirus_9647/Plugins 313M /var 303M /opt/BitDefender/var/lib/scan/base 293M /opt/BitDefender/var/lib/scan/base/Plugins 241M /opt/SolarWinds/Agent/bin 241M /opt/SolarWinds/Agent 241M /opt/SolarWinds 236M /opt/BitDefender/var/log 226M /usr/lib/modules 215M /opt/BitDefender/var/lib/modules
ご覧のとおり、スペースが増えませんでした。
/
別の場所に設置してみましたが、mount -o bind / /mnt
結果は同じです。du -h /mnt
lsof +L1
何も返しません。一部のファイルは最初に保存されましたが、小さかったため、プロセスは終了しました。
ご意見ありがとうございました。
アップデート:LVM出力
--- Logical volume ---
LV Path /dev/centos/swap
LV Name swap
VG Name centos
LV UUID LXe5pc-42IG-PA2F-RcQB-7lmC-XDPy-5TgPSN
LV Write Access read/write
LV Creation host, time localhost, 2016-02-29 15:03:40 +0000
LV Status available
# open 2
LV Size 2.00 GiB
Current LE 512
Segments 1
Allocation inherit
Read ahead sectors auto
- currently set to 8192
Block device 253:1
--- Logical volume ---
LV Path /dev/centos/root
LV Name root
VG Name centos
LV UUID fKThWr-G0xn-gfka-rDcc-u029-sZ1Y-h3g5Bx
LV Write Access read/write
LV Creation host, time localhost, 2016-02-29 15:03:41 +0000
LV Status available
# open 1
LV Size 37.50 GiB
Current LE 9600
Segments 3
Allocation inherit
Read ahead sectors auto
- currently set to 8192
Block device 253:0
sudo pvdisplay
--- Physical volume ---
PV Name /dev/sda2
VG Name centos
PV Size 19.51 GiB / not usable 3.00 MiB
Allocatable yes (but full)
PE Size 4.00 MiB
Total PE 4994
Free PE 0
Allocated PE 4994
PV UUID CaFFWt-7Ayr-8slF-Kv5v-KBSZ-qfj4-AVp29w
--- Physical volume ---
PV Name /dev/sda3
VG Name centos
PV Size 10.00 GiB / not usable 4.00 MiB
Allocatable yes (but full)
PE Size 4.00 MiB
Total PE 2559
Free PE 0
Allocated PE 2559
PV UUID KVwyje-5tui-tAiB-JV1J-8L3G-Us3p-2AoyHf
--- Physical volume ---
PV Name /dev/sda4
VG Name centos
PV Size 10.00 GiB / not usable 4.00 MiB
Allocatable yes (but full)
PE Size 4.00 MiB
Total PE 2559
Free PE 0
Allocated PE 2559
PV UUID WAgPfw-jXxn-gAhS-hhe7-u1Ig-P9D3-ljPCjn
pvs
PV VG Fmt Attr PSize PFree
/dev/sda2 centos lvm2 a-- 19.51g 0
/dev/sda3 centos lvm2 a-- 10.00g 0
/dev/sda4 centos lvm2 a-- 10.00g 0
lsof -n | grep deleted
削除されたファイルを保持しているすべてのPIDが終了したため、結果は返されません。
ps aux
USER PID %CPU %MEM VSZ RSS TTY STAT START TIME COMMAND
root 1 0.0 4.0 116548 76760 ? Ss May18 19:50 /usr/lib/system
root 2 0.0 0.0 0 0 ? S May18 0:01 [kthreadd]
root 3 0.0 0.0 0 0 ? S May18 1:01 [ksoftirqd/0]
root 7 0.0 0.0 0 0 ? S May18 0:00 [migration/0]
root 8 0.0 0.0 0 0 ? S May18 0:00 [rcu_bh]
root 9 0.0 0.0 0 0 ? S May18 0:00 [rcuob/0]
root 10 0.0 0.0 0 0 ? S May18 9:58 [rcu_sched]
root 11 0.0 0.0 0 0 ? S May18 15:31 [rcuos/0]
root 12 0.0 0.0 0 0 ? S May18 0:14 [watchdog/0]
root 13 0.0 0.0 0 0 ? S< May18 0:00 [khelper]
root 14 0.0 0.0 0 0 ? S May18 0:00 [kdevtmpfs]
root 15 0.0 0.0 0 0 ? S< May18 0:00 [netns]
root 16 0.0 0.0 0 0 ? S< May18 0:00 [perf]
root 17 0.0 0.0 0 0 ? S< May18 0:00 [writeback]
root 18 0.0 0.0 0 0 ? S< May18 0:00 [kintegrityd]
root 19 0.0 0.0 0 0 ? S< May18 0:00 [bioset]
root 20 0.0 0.0 0 0 ? S< May18 0:00 [kblockd]
root 21 0.0 0.0 0 0 ? S< May18 0:00 [md]
root 26 0.0 0.0 0 0 ? S May18 0:02 [khungtaskd]
root 27 0.0 0.0 0 0 ? S May18 16:30 [kswapd0]
root 28 0.0 0.0 0 0 ? SN May18 0:00 [ksmd]
root 30 0.0 0.0 0 0 ? S May18 0:00 [fsnotify_mark]
root 31 0.0 0.0 0 0 ? S< May18 0:00 [crypto]
root 39 0.0 0.0 0 0 ? S< May18 0:00 [kthrotld]
root 41 0.0 0.0 0 0 ? S< May18 0:00 [kmpath_rdacd]
root 42 0.0 0.0 0 0 ? S< May18 0:00 [kpsmoused]
root 44 0.0 0.0 0 0 ? S< May18 0:00 [ipv6_addrconf]
root 63 0.0 0.0 0 0 ? S< May18 0:00 [deferwq]
root 93 0.0 0.0 0 0 ? S May18 0:24 [kauditd]
root 259 0.0 0.0 0 0 ? S May18 0:00 [scsi_eh_0]
root 260 0.0 0.0 0 0 ? S< May18 0:00 [ata_sff]
root 261 0.0 0.0 0 0 ? S< May18 0:00 [scsi_tmf_0]
root 262 0.0 0.0 0 0 ? S May18 0:00 [scsi_eh_1]
root 264 0.0 0.0 0 0 ? S< May18 0:00 [events_power_e
root 265 0.0 0.0 0 0 ? S< May18 0:00 [vmw_pvscsi_wq_
root 266 0.0 0.0 0 0 ? S< May18 0:00 [scsi_tmf_1]
root 270 0.0 0.0 0 0 ? S May18 0:00 [scsi_eh_2]
root 271 0.0 0.0 0 0 ? S< May18 0:00 [scsi_tmf_2]
root 276 0.0 0.0 0 0 ? S< May18 0:00 [ttm_swap]
root 398 0.0 0.0 0 0 ? S< May18 0:00 [kdmflush]
root 399 0.0 0.0 0 0 ? S< May18 0:00 [bioset]
root 410 0.0 0.0 0 0 ? S< May18 0:00 [kdmflush]
root 411 0.0 0.0 0 0 ? S< May18 0:00 [bioset]
root 424 0.0 0.0 0 0 ? S< May18 0:00 [xfsalloc]
root 425 0.0 0.0 0 0 ? S< May18 0:00 [xfs_mru_cache]
root 426 0.0 0.0 0 0 ? S< May18 0:00 [xfs-buf/dm-0]
root 427 0.0 0.0 0 0 ? S< May18 0:00 [xfs-data/dm-0]
root 428 0.0 0.0 0 0 ? S< May18 0:00 [xfs-conv/dm-0]
root 429 0.0 0.0 0 0 ? S< May18 0:00 [xfs-cil/dm-0]
root 430 0.0 0.0 0 0 ? S May18 10:51 [xfsaild/dm-0]
root 502 0.0 0.1 36816 3524 ? Ss May18 8:04 /usr/lib/system
root 525 0.0 0.0 276600 556 ? Ss May18 0:00 /usr/sbin/lvmet
root 527 0.0 0.0 46800 20 ? Ss May18 0:00 /usr/lib/system
root 566 0.0 0.0 0 0 ? S< May18 0:00 [xfs-buf/sda1]
root 567 0.0 0.0 0 0 ? S< May18 0:00 [xfs-data/sda1]
root 568 0.0 0.0 0 0 ? S< May18 0:00 [xfs-conv/sda1]
root 569 0.0 0.0 0 0 ? S< May18 0:00 [xfs-cil/sda1]
root 571 0.0 0.0 0 0 ? S May18 0:00 [xfsaild/sda1]
root 621 0.0 0.0 116744 156 ? S<sl May18 1:37 /sbin/auditd -n
dbus 646 0.0 0.0 47392 944 ? Ssl May18 9:10 /bin/dbus-daemo
ntp 648 0.0 0.0 43808 512 ? Ss May18 0:14 /usr/sbin/ntpd
root 651 0.0 0.0 323972 1648 ? Ssl May18 1:26 /usr/bin/python
root 652 0.0 0.1 375400 3092 ? Ssl May18 2:51 /usr/sbin/rsysl
root 657 0.0 0.0 258988 1872 ? Ss May18 40:04 /usr/bin/vmtool
root 697 0.0 0.0 255680 264 ? Ss May18 1:16 /usr/sbin/sssd
root 698 0.0 1.5 502648 29232 ? S May18 2:32 /usr/libexec/ss
root 766 0.0 0.0 261508 1540 ? S May18 8:36 /usr/libexec/ss
root 767 0.0 0.0 246800 1548 ? S May18 0:28 /usr/libexec/ss
root 769 0.0 0.0 36692 1008 ? Ss May18 4:36 /usr/lib/system
root 771 0.0 0.0 126328 412 ? Ss May18 1:15 /usr/sbin/crond
root 773 0.0 0.0 443092 1664 ? Ssl May18 3:02 /usr/sbin/Netwo
root 851 0.0 0.0 53056 0 ? Ss May18 0:00 /usr/sbin/wpa_s
polkitd 854 0.0 0.0 540536 1244 ? Ssl May18 2:11 /usr/lib/polkit
root 1146 0.0 0.0 211620 476 ? Sl May18 13:56 /opt/BitDefende
root 1156 0.0 0.0 686628 44 ? Sl May18 6:08 /opt/BitDefende
root 1173 0.0 0.5 994932 9648 ? Sl May18 46:11 /opt/BitDefende
root 1205 0.3 0.1 576104 2644 ? Sl May18 304:22 /opt/BitDefende
root 1222 0.0 0.0 356520 340 ? Sl May18 17:25 /opt/BitDefende
root 1378 0.3 0.9 271152 17536 ? Sl May18 231:29 /opt/BitDefende
root 1435 0.0 0.0 30676 0 ? Ss May18 0:00 /usr/sbin/oddjo
root 1437 0.0 0.0 553064 912 ? Ssl May18 5:53 /usr/bin/python
root 1442 0.0 0.0 82548 264 ? Ss May18 0:00 /usr/sbin/sshd
root 2075 0.0 0.0 93212 168 ? Ss May18 0:25 /usr/libexec/po
postfix 2102 0.0 0.0 103660 152 ? S May18 0:09 qmgr -l -t unix
root 2340 0.3 44.0 2221756 830468 ? Sl Jun10 139:50 /opt/BitDefende
root 2488 0.0 0.0 0 0 ? S< Jun10 0:00 [bd_edr_wq]
root 2489 0.0 0.0 0 0 ? S Jun10 0:46 [consumer threa
root 2774 0.2 6.0 969012 114252 ? Sl May18 202:31 python /opt/Sap
root 3268 0.0 0.0 0 0 ? S 19:11 0:00 [kworker/u2:1]
root 3304 0.0 0.0 0 0 ? R 19:11 0:00 [kworker/0:33]
root 3305 0.0 0.0 0 0 ? S 19:11 0:00 [kworker/0:34]
postfix 3740 0.0 0.2 103480 3912 ? S 19:17 0:00 pickup -l -t un
root 3749 0.0 0.0 0 0 ? S 19:17 0:00 [kworker/0:0]
root 3868 0.0 0.0 0 0 ? S 19:19 0:00 [kworker/u2:0]
root 4043 0.0 0.2 169804 5256 ? Ss 19:19 0:00 sshd:
4064 0.0 0.1 169936 2400 ? S 19:20 0:00 sshd:
4065 0.0 0.1 128360 2752 pts/0 Ss 19:20 0:00 -bash
4351 0.0 0.0 161324 1832 pts/0 R+ 19:23 0:00 ps aux
swiagent 12080 0.0 0.2 1179968 4252 ? Ssl May21 53:42 /opt/SolarWinds
swiagent 12103 0.2 0.4 687308 8904 ? Sl May21 161:57 /opt/SolarWinds
root 12253 0.0 0.0 110032 4 tty1 Ss+ May21 0:00 /sbin/agetty --
root 14743 0.1 0.1 170772 2012 ? Ssl Jun23 29:31 /usr/local/bin/
root 19408 0.0 0.0 0 0 ? S 16:10 0:00 [kworker/u2:2]
root 19591 0.0 0.0 0 0 ? S< 16:11 0:00 [kworker/0:2H]
root 20130 0.0 0.0 0 0 ? S< 10:50 0:00 [kworker/0:1H]
サンドボックス環境でBDおよびSWエージェントが停止/削除されましたが、スペースを回収できませんでした。
答え1
fsck
ファイルシステムをスキャンしてみてください
答え2
Hyper-V と Veeam で Debian 10 を使用しても同じ問題が発生しました。
私がサーバーを構築したとき、そのサイズはわずか数ギガバイトに過ぎませんでした。今121GBです。
一部の投稿では、/proc/kcoreを除外できるか除外する必要があると述べていますが、このvmを完全に復元する必要がある場合はどうなりますか?それ以外は、自宅でPowershellと一緒にVeeam Community Editionを使用しているため、常にフルバックアップを行うVeeamZIPを使用しています。
VMは時間の経過とともに増加し続け、バックアップを続けますが、何が起動したのかはわかりません。
私はインターネット検索からこの数ステップまですべてを組み合わせて、仮想マシンのディスクサイズを減らす方法を見つけました。
仮想マシンディスク圧縮
Linux CLI では、VHDX を比較する前に、まず空のスペースをすべてゼロにします。
# cd /
# cat /dev/zero > zero.dat ; sync ; sleep 1 ; sync ; rm -f zero.dat
最後のコマンドは少し時間がかかりますので、しばらくお待ちください...
VMをシャットダウンし、VMディスクを圧縮し、Powershellを起動し、各コマンドを個別に実行します。
Mount-VHD -Path "D:\Hyper-V\VM-LINUX\Virtual Hard Disks\VM-LINUX.vhdx" -ReadOnly
Optimize-VHD -Path "D:\Hyper-V\VM-LINUX\Virtual Hard Disks\VM-LINUX.vhdx" -Mode Full
Dismount-VHD -Path "D:\Hyper-V\VM-LINUX\Virtual Hard Disks\VM-LINUX.vhdx"
Linux VM ディスク変換
新しいLinux VMを追加すると、ほとんどの人は新しい仮想ディスクを作成し、ダウンロードしたISOを接続してインストールを開始します。
Hyper-VのLinuxのベストプラクティスに関してPowershellを使用すると、より多くのことができることがわかりました。
動的ディスクを作成するときのデフォルトの増分サイズは、ステップあたり32 MBです。 Linuxの場合は1MBが良いので、Powershellを使用する必要があります。
しかし、すべてのLinux VMを再インストールする気分ではありません...
それでは変換してみましょう!
Convert-VHD -Path "D:\Hyper-V\VM-LINUX\Virtual Hard Disks\VM-LINUX.vhdx" -DestinationPath "D:\Hyper-V\VM-LINUX\Virtual Hard Disks\VM-LINUX-new.vhdx" -BlockSizeBytes 1MB
ディスクが変換されたら、仮想マシンの設定に移動してディスクを選択し、新しいディスクを見つけて適用します。これにより、Hyper-Vはファイルのセキュリティ設定を正しく設定します。
圧縮後、私のLinuxディスク(大きな/proc/kcoreファイルを含む)は、この変換後に121GBから3.5GBに減少しました!
VMWareにも同様の方法があると思います。