他のシステムで動作するドッカーイメージを実行しようとしています。 (必要に応じてdockerhubからインポートすることもできます。dougbtv/asterisk
)しかし、通常のワークステーションでは空き容量について文句を言います。 (次のようになります。)ドッカー画像を解凍しています。 。
実行してみましたが、スペースが不足しているというエラーが発生しました。以下は、実行しようとしたときにスペースについて文句を言う例です。
[root@localhost docker]# docker run -i -t dougbtv/asterisk /bin/bash
Timestamp: 2015-05-13 07:50:58.128736228 -0400 EDT
Code: System error
Message: [/usr/bin/tar -xf /var/lib/docker/tmp/70c178005ccd9cc5373faa8ff0ff9c7c7a4cf0284bd9f65bbbcc2c0d96e8565d410879741/_tmp.tar -C /var/lib/docker/devicemapper/mnt/70c178005ccd9cc5373faa8ff0ff9c7c7a4cf0284bd9f65bbbcc2c0d96e8565d/rootfs/tmp .] failed: /usr/bin/tar: ./asterisk/utils/astdb2sqlite3: Wrote only 512 of 10240 bytes
/usr/bin/tar: ./asterisk/utils/conf2ael.c: Cannot write: No space left on device
/usr/bin/tar: ./asterisk/utils/astcanary: Cannot write: No space left on device
/usr/bin/tar: ./asterisk/utils/.astcanary.o.d: Cannot write: No space left on device
/usr/bin/tar: ./asterisk/utils/check_expr.c: Cannot write: No space left on device
[... another few hundred similar lines]
もちろん、空き容量がどれくらいになるのかを確認し、インターネット検索でアノードがないため、このようなことが発生する場合があることを発見しました。それで、両方を見てみましたが、inodeもたくさんあることがわかりました。
[root@localhost docker]# df -h
Filesystem Size Used Avail Use% Mounted on
devtmpfs 3.9G 0 3.9G 0% /dev
tmpfs 3.9G 20M 3.9G 1% /dev/shm
tmpfs 3.9G 1.2M 3.9G 1% /run
tmpfs 3.9G 0 3.9G 0% /sys/fs/cgroup
/dev/mapper/fedora-root 36G 9.4G 25G 28% /
tmpfs 3.9G 5.2M 3.9G 1% /tmp
/dev/sda3 477M 164M 285M 37% /boot
/dev/mapper/fedora-home 18G 7.7G 8.9G 47% /home
tmpfs 793M 40K 793M 1% /run/user/1000
/dev/sdb1 489G 225G 265G 46% /mnt/extradoze
[root@localhost docker]# df -i
Filesystem Inodes IUsed IFree IUse% Mounted on
devtmpfs 1012063 585 1011478 1% /dev
tmpfs 1015038 97 1014941 1% /dev/shm
tmpfs 1015038 771 1014267 1% /run
tmpfs 1015038 15 1015023 1% /sys/fs/cgroup
/dev/mapper/fedora-root 2392064 165351 2226713 7% /
tmpfs 1015038 141 1014897 1% /tmp
/dev/sda3 128016 429 127587 1% /boot
/dev/mapper/fedora-home 1166880 145777 1021103 13% /home
tmpfs 1015038 39 1014999 1% /run/user/1000
/dev/sdb1 277252836 168000 277084836 1% /mnt/extradoze
ここで何が起こっているのかがわかります。/etc/fstab
[root@localhost docker]# cat /etc/fstab
#
# /etc/fstab
# Created by anaconda on Tue Mar 17 20:11:16 2015
#
# Accessible filesystems, by reference, are maintained under '/dev/disk'
# See man pages fstab(5), findfs(8), mount(8) and/or blkid(8) for more info
#
/dev/mapper/fedora-root / ext4 defaults 1 1
UUID=2e2535da-907a-44ec-93d8-1baa73fb6696 /boot ext4 defaults 1 2
/dev/mapper/fedora-home /home ext4 defaults 1 2
/dev/mapper/fedora-swap swap swap defaults 0 0
そして、同様のスタック交換の質問をした人に命令の結果について尋ねました。lvs
その結果は次のとおりです。
[root@localhost docker]# lvs
LV VG Attr LSize Pool Origin Data% Meta% Move Log Cpy%Sync Convert
home fedora -wi-ao---- 17.79g
root fedora -wi-ao---- 36.45g
swap fedora -wi-ao---- 7.77g
これはFedora 21システムです:
[root@localhost docker]# cat /etc/redhat-release
Fedora release 21 (Twenty One)
[root@localhost docker]# uname -a
Linux localhost.localdomain 3.19.5-200.fc21.x86_64 #1 SMP Mon Apr 20 19:51:56 UTC 2015 x86_64 x86_64 x86_64 GNU/Linux
ストレージドライバ:
[doug@localhost cs]$ sudo docker info|grep Driver:
Storage Driver: devicemapper
Execution Driver: native-0.2
ドッカーバージョン:
[doug@localhost cs]$ sudo docker -v
Docker version 1.6.0, build 3eac457/1.6.0
すべてこのおすすめ記事ドッカーを次に変更してみました。/etc/sysconfig/docker
OPTIONS='--selinux-enabled --storage-opt dm.loopdatasize=500GB --storage-opt dm.loopmetadatasize=10GB'
ドッカーを再起動したが、役に立たなかった。今に戻って変更しました--selinux-enabled
(注:selinuxを無効にしました)。
また、記事では、次のように代替データファイルを表示することについて言及したことを確認しました。
[root@localhost doug]# ls -alhs /var/lib/docker/devicemapper/devicemapper
total 3.4G
4.0K drwx------ 2 root root 4.0K Mar 20 13:37 .
4.0K drwx------ 5 root root 4.0K Mar 20 13:39 ..
3.4G -rw------- 1 root root 100G May 13 14:33 data
9.7M -rw------- 1 root root 2.0G May 13 14:33 metadata
まれなファイルがディスクサイズより大きい問題ですか?
私のlsblk
外観:
[root@localhost doug]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 111.8G 0 disk
├─sda1 8:1 0 100M 0 part
├─sda2 8:2 0 49.2G 0 part
├─sda3 8:3 0 500M 0 part /boot
├─sda4 8:4 0 1K 0 part
└─sda5 8:5 0 62G 0 part
├─fedora-swap 253:0 0 7.8G 0 lvm [SWAP]
├─fedora-root 253:1 0 36.5G 0 lvm /
└─fedora-home 253:2 0 17.8G 0 lvm /home
sdb 8:16 0 1.8T 0 disk
└─sdb1 8:17 0 489G 0 part /mnt/extradoze
loop0 7:0 0 100G 0 loop
└─docker-253:1-1051064-pool 253:3 0 100G 0 dm
loop1 7:1 0 2G 0 loop
└─docker-253:1-1051064-pool 253:3 0 100G 0 dm
答え1
Red Hatベースのオペレーティングシステムを使用している場合、「Devicemapper」のサイズ制限は1イメージあたり10 GBです。最大10 GBのイメージを実行しようとするとこのエラーが発生することがあります。これがあなたの問題かもしれません。これを試してみてください。私にとって効果的でした。
https://docs.docker.com/engine/reference/commandline/daemon/#storage-driver-options
sudo systemctl stop docker.service
または
sudo service docker stop
rm -rvf /var/lib/docker (Take back up of any important data; containers and images will be deleted)
このコマンドを実行してください
docker daemon --storage-opt dm.basesize=20G
ここで、「20G」とは、devicemapperで使用したい新しいサイズを意味し、dockerを再起動します。
sudo systemctl start docker.service
または
sudo service docker start
以下を実行して設定されていることを確認してください。
docker info
これが効果があることを願っています!
答え2
あなたは非常に大きな画像を実行しようとしていますか? RHELはデフォルトでaufsをサポートしていません。そのためdevicemapper
、デフォルトではdevicemapper
コンテナファイルシステムの10 GBにのみアクセスできます。確認するこの記事、助けることができます。
答え3
docker system df
ディスク使用量がどこで発生するかを確認するには、実行してください。私の場合、ビルドキャッシュは割り当てられた128 GBのディスク容量を超えました。さまざまなコマンドとフラグを試してみましたが、.. prune
すべてキャッシュクリアを見逃しました。
ビルドキャッシュを消去するにはdocker builder prune
:これにより、キャッシュディスク領域の使用量がゼロに低下しました。次のビルドは10 GB以上をダウンロードする必要があるため、より長い時間がかかりました。その後、キャッシュを再利用します。
答え4
実行はdocker system prune
しばらく効果があり、「デフォルト設定...」>「ディスク」から「ディスクイメージサイズ」を増やす必要がありましたが、再び増やすまでしか役に立ちませんでした。
ディスクイメージのサイズを増やし続け、より多くのdocker system prune
スペースを占めることを拒否しましたが、docker volume prune
この実行は役に立ちました。