2013-11-20 30 views
32

运行泊坞窗的最后一个版本在Ubuntu 13.04限制内存不起作用

[email protected]:~# docker version 
Client version: 0.6.6 
Go version (client): go1.2rc3 
Git commit (client): 6d42040 
Server version: 0.6.6 
Git commit (server): 6d42040 
Go version (server): go1.2rc3 
Last stable version: 0.6.6 

的顶部,但是当我开始容器

[email protected]:~# docker run -m=1524288 -i -t ubuntu /bin/bash 
[email protected]:/# free -m 
      total  used  free  shared buffers  cached 
Mem:   1992  608  1383   0   30  341 
-/+ buffers/cache:  237  1755 
Swap:   2047   0  2047 

我看不出有任何限制从任何种类,我的内核启用了cgroups内存限制:

kernel /boot/vmlinuz-3.8.0-33-generic ro console=tty0 root=/dev/xvda1 cgroup_enable=memory swapaccount=1 

我在这里缺少什么显而易见的东西?

+0

一跟上这一点,我看到虚拟化服务器上​​的码头化应用与裸机框之间的一些有趣差异。例如,OOM将杀死在容器中运行Java服务的虚拟化ubuntu服务器中的Java。但是,在金属上 - Java是尊重通过docker设置的内存限制。 [我还不太了解两者之间的实现细节以获得好的结论,只是想分享] – nerdwaller

回答

42

free将不会显示它,因为这是通过cgroups强制执行的。相反,主机(容器外),您可以检查使用/sysfs和该cgroup内存

[email protected]:~$ docker run -m=524288 -d -t busybox sleep 3600 
f03a017b174f 
[email protected]:~$ cat /sys/fs/cgroup/memory/lxc/f03a017b174ff1022e0f46bc1b307658c2d96ffef1dd97e7c1929a4ca61ab80f//memory.limit_in_bytes 
524288 

要看到它运行的内存就可以运行的东西,将使用更多的内存比你分配 - 例如:

docker run -m=524288 -d -p 8000:8000 -t ubuntu:12.10 /usr/bin/python3 -m http.server 
8480df1d2d5d 
[email protected]:~$ docker ps | grep 0f742445f839 
[email protected]:~$ docker ps -a | grep 0f742445f839 
0f742445f839  ubuntu:12.10  /usr/bin/python3 -m 16 seconds ago  Exit 137        blue_pig 

dmesg你应该看到杀容器和工艺:

[ 583.447974] Pid: 1954, comm: python3 Tainted: GF   O 3.8.0-33-generiC#48~precise1-Ubuntu 
[ 583.447980] Call Trace: 
[ 583.447998] [<ffffffff816df13a>] dump_header+0x83/0xbb 
[ 583.448108] [<ffffffff816df1c7>] oom_kill_process.part.6+0x55/0x2cf 
[ 583.448124] [<ffffffff81067265>] ? has_ns_capability_noaudit+0x15/0x20 
[ 583.448137] [<ffffffff81191cc1>] ? mem_cgroup_iter+0x1b1/0x200 
[ 583.448150] [<ffffffff8113893d>] oom_kill_process+0x4d/0x50 
[ 583.448171] [<ffffffff816e1cf5>] mem_cgroup_out_of_memory+0x1f6/0x241 
[ 583.448187] [<ffffffff816e1e7f>] mem_cgroup_handle_oom+0x13f/0x24a 
[ 583.448200] [<ffffffff8119000d>] ? mem_cgroup_margin+0xad/0xb0 
[ 583.448212] [<ffffffff811949d0>] ? mem_cgroup_charge_common+0xa0/0xa0 
[ 583.448224] [<ffffffff81193ff3>] mem_cgroup_do_charge+0x143/0x170 
[ 583.448236] [<ffffffff81194125>] __mem_cgroup_try_charge+0x105/0x350 
[ 583.448249] [<ffffffff81194987>] mem_cgroup_charge_common+0x57/0xa0 
[ 583.448261] [<ffffffff8119517a>] mem_cgroup_newpage_charge+0x2a/0x30 
[ 583.448275] [<ffffffff8115b4d3>] do_anonymous_page.isra.35+0xa3/0x2f0 
[ 583.448288] [<ffffffff8115f759>] handle_pte_fault+0x209/0x230 
[ 583.448301] [<ffffffff81160bb0>] handle_mm_fault+0x2a0/0x3e0 
[ 583.448320] [<ffffffff816f844f>] __do_page_fault+0x1af/0x560 
[ 583.448341] [<ffffffffa02b0a80>] ? vfsub_read_u+0x30/0x40 [aufs] 
[ 583.448358] [<ffffffffa02ba3a7>] ? aufs_read+0x107/0x140 [aufs] 
[ 583.448371] [<ffffffff8119bb50>] ? vfs_read+0xb0/0x180 
[ 583.448384] [<ffffffff816f880e>] do_page_fault+0xe/0x10 
[ 583.448396] [<ffffffff816f4bd8>] page_fault+0x28/0x30 
[ 583.448405] Task in /lxc/0f742445f8397ee7928c56bcd5c05ac29dcc6747c6d1c3bdda80d8e688fae949 killed as a result of limit of /lxc/0f742445f8397ee7928c56bcd5c05ac29dcc6747c6d1c3bdda80d8e688fae949 
[ 583.448412] memory: usage 416kB, limit 512kB, failcnt 342 
+0

感谢我现在明白了;所以最好的方法是检查cgroup内存以查看当前的使用情况。 – Disco

+0

您可以在这里阅读更多关于'cgroup'内存指标的信息http://blog.docker.io/2013/10/gathering-lxc-docker-containers-metrics/ 特别是'memory.stat'伪文件。 – 2013-11-21 12:12:58

+0

非常感谢。在Ubuntu上配置这个更详细的信息https://github.com/dotcloud/docker/issues/4250 – Barry

20

链接到这个nice post上stressin g容器内存使用情况。这里的总结,修改了一下,为搬运工,而不是一般的LXC工作:

启动容器内存限制:

$ sudo docker -m 512M -it ubuntu /bin/bash 
root# apt-get update && apt-get install -y build-essential 

创建容器内的文件foo.c具有以下

#include <stdlib.h> 
#include <stdio.h> 

int main(void) { 
    int i; 
    for (i=0; i<65536; i++) { 
     char *q = malloc(65536); 
     printf ("Malloced: %ld\n", 65536*i); 
    } 
    sleep(9999999); 
} 

编译文件

gcc -o foo foo.c 

打开一个新的ter单宝元监视容器内存使用情况:

$ cd /sys/fs/cgroup/memory/lxc/{{containerID}} 
$ while true; do echo -n "Mem Usage (mb): " && expr `cat memory.usage_in_bytes`/1024/1024; echo -n "Mem+swap Usage (mb): " && expr `cat memory.limit_in_bytes`/1024/1024; sleep 1; done 

容器

$ ./foo 

启动内存消耗现在看你的容器最大程度的发挥。注意:当内存不足时,malloc的开始将会失败,否则容器将被单独放置。通常情况下,容器内的软件会由于malloc发生故障而崩溃,但有韧性的软件将继续运行

Final注意:Docker的-m标志不会分别计算swap和ram。如果你使用-m 512M那么512的一部分将被交换,而不是RAM。如果您只想RAM则需要直接使用LXC选项(这意味着你将需要与LXC执行驱动程序而不是libcontainer运行搬运工)

# Same as docker -m 512m 
sudo docker run --lxc-conf="lxc.cgroup.memory.limit_in_bytes=512M" -it ubuntu /bin/bash 

# Set total to equal max RAM (e.g. don't use swap) 
sudo docker run --lxc-conf="lxc.cgroup.memory.max_usage_in_bytes=512M" --lxc-conf="lxc.cgroup.memory.limit_in_bytes=512M" -it ubuntu /bin/bash 

有作为的一部分使用交换之间的显着差异总而言之 - 将foo程序快速交换到450M以上,然后慢慢消耗余数,而只有RAM,它立即跳跃到511M。使用交换时,只要进入容器,容器的内存消耗就会标记为〜60M - 这基本上是将交换计为“使用”。没有交换内存利用率< 10M,当我进入

+1

感谢您的明确解释! – pygabriel

+0

我试图让collectd和码头工作。不过,Collectd会发布整个系统(主机)的RAM使用情况,而不是docker受限制的内存。 http://stackoverflow.com/q/37881322/1925997我想知道如果这个选项可以帮助,但当运行码头与'--lxc-conf =“lxc.cgroup.memory.limit_in_bytes = 512M”'我要结束与'提供但未定义的标志: - lxc-conf'错误。任何想法如何解决这个问题? –

+0

好的答案!顺便说一句,我想你错过了代码'''sudo docker * run * -m 512M -it ubuntu/bin/bash''的第一行例子中的'run' cimmand – gsalgadotoledo

0

如果您正在使用泊坞窗的新版本,那么地方去寻找这些信息的容器是/sys/fs/cgroup/memory/docker/<container_id>/memory.limit_in_bytes

docker run --memory="198m" redis 
docker ps --no-trunc` # to get the container long_id 
313105b341eed869bcc355c4b3903b2ede2606a8f1b7154e64f913113db8b44a 
cat /sys/fs/cgroup/memory/docker/313105b341eed869bcc355c4b3903b2ede2606a8f1b7154e64f913113db8b44a/memory.limit_in_bytes 
207618048 # in bytes