
ミラープールがあります。
NAME USED AVAIL REFER MOUNTPOINT
rpool 72.1G 1.22G 39.5K /rpool
rpool/ROOT 67.9G 1.22G 31K legacy
rpool/ROOT/solaris 67.9G 1.22G 19.8G /
rpool/ROOT/solaris/var 48.0G 1.22G 47.8G /var
rpool/dump 1.25M 1.22G 1.02M -
rpool/export 53.9M 1.22G 32K /export
rpool/export/home 53.8M 1.22G 33K /export/home
rpool/export/home/m 53.8M 1.22G 53.7M /export/home/m
rpool/swap 4.13G 1.35G 4.00G -
私の/ varは多くのスペースを使います。いくつかのサンバログもあるかもしれません。
私は読んだSolaris 11 および zfs、使用されているスペースを理解できません。しかし、/ varのスナップショットはありません(自動スナップショットを削除しました)。
root@myhost:~# zfs list -t all
NAME USED AVAIL REFER MOUNTPOINT
rpool 72.1G 1.22G 39.5K /rpool
rpool@zfs-auto-snap_hourly-2015-11-27-19h04 19K - 39.5K -
rpool@zfs-auto-snap_hourly-2015-11-28-10h08 19K - 39.5K -
rpool@zfs-auto-snap_hourly-2015-11-28-11h08 0 - 39.5K -
rpool/ROOT 67.9G 1.22G 31K legacy
rpool/ROOT/solaris 67.9G 1.22G 19.8G /
rpool/ROOT/solaris@install 106M - 2.99G -
rpool/ROOT/solaris/var 48.0G 1.22G 47.8G /var
rpool/ROOT/solaris/var@install 188M - 304M -
rpool/dump 1.25M 1.22G 1.02M -
rpool/export 53.9M 1.22G 32K /export
rpool/export/home 53.8M 1.22G 33K /export/home
rpool/export/home/m 53.8M 1.22G 53.7M /export/home/m
rpool/export/home/m @zfs-auto-snap_hourly-2015-11-28-10h08 94K - 53.7M -
rpool/export/home/m @zfs-auto-snap_hourly-2015-11-28-11h08 34K - 53.7M -
rpool/swap 4.13G 1.35G 4.00G -
/ varの現在のファイルがすでにそのスペースを使用しているようですが、確認してみます。
root@myhost:/var# du -sh
14G .
私のスペースの半分も見つかりません...
修正する:
はい、サンバサービスを再開しました
# svcadm restart cswsamba
今
root@myhost:/var# zfs list -t all
NAME USED AVAIL REFER MOUNTPOINT
rpool 39.3G 34.0G 39.5K /rpool
rpool@zfs-auto-snap_hourly-2015-11-27-19h04 19K - 39.5K -
rpool@zfs-auto-snap_hourly-2015-11-28-10h08 19K - 39.5K -
rpool@zfs-auto-snap_hourly-2015-11-28-12h08 0 - 39.5K -
rpool/ROOT 35.1G 34.0G 31K legacy
rpool/ROOT/solaris 35.1G 34.0G 19.8G /
rpool/ROOT/solaris@install 106M - 2.99G -
rpool/ROOT/solaris/var 15.1G 34.0G 15.0G /var
rpool/ROOT/solaris/var@install 188M - 304M -
rpool/ROOT/solaris/var@zfs-auto-snap_hourly-2015-11-28-12h08 2.47M - 14.8G -
rpool/dump 1.25M 34.0G 1.02M -
rpool/export 54.0M 34.0G 32K /export
rpool/export/home 53.9M 34.0G 33K /export/home
rpool/export/home/m 53.9M 34.0G 53.7M /export/home/m
rpool/export/home/m @zfs-auto-snap_hourly-2015-11-28-10h08 94K - 53.7M -
rpool/export/home/m @zfs-auto-snap_hourly-2015-11-28-11h08 80K - 53.7M -
rpool/export/home/m @zfs-auto-snap_hourly-2015-11-28-12h08 66K - 53.7M -
rpool/swap 4.13G 34.2G 4.00G -
何が起こり、このエラーを回避するには?
答え1
ログファイルが削除されても開いたままにできるアプリケーションがたくさんあります。ソリューションは、信号を送信したり、アプリケーションを再起動/再ロードしたりする方法によってアプリケーションごとに異なります。プロセスがディスク容量を使用している間にディスク容量を解放する1つの方法は、データなしで上書きすることです。たとえば、次のようになります。
> /path/to/old_log
その後、ファイルを削除できますが、アプリケーションを再起動/再ロードするか、特定のアプリケーションに必要なすべての操作を実行して以前のログファイルを閉じるまで、アプリケーションにはまだ開いているファイル記述子があります。
-c
スイッチも参照してくださいlogadm
答え2
ログファイルが圧縮されて、いくつかの空き容量を提供するように/ varの圧縮を設定することもできます。つまり: zfs set compression=on rpool/ROOT/solaris/var
あなたの出力にはインストールスナップショットも表示されます。それでもスペースを占める古いBEがあるかもしれません。 beadm list