本文摘自:https://www.jb51.net/article/130521.htm
容器的使用过程中,经常需要对容器可以使用的主机资源进行限制,本文介绍如何限制容器可以使用的主机内存,需要的朋友参考下吧
默认情况下容器使用的资源是不受限制的。也就是可以使用主机内核调度器所允许的最大资源。但是在容器的使用过程中,经常需要对容器可以使用的主机资源进行限制,本文介绍如何限制容器可以使用的主机内存。
限制容器不能过多的使用主机的内存是非常重要的。对于 linux 主机来说,一旦内核检测到没有足够的内存可以分配,就会扔出 OOME(Out Of Memmory Exception),并开始杀死一些进程用于释放内存空间。糟糕的是任何进程都可能成为内核猎杀的对象,包括 docker daemon 和其它一些重要的程序。更危险的是如果某个支持系统运行的重要进程被干掉了,整个系统也就宕掉了!这里我们考虑一个比较常见的场景,大量的容器把主机的内存消耗殆尽,OOME 被触发后系统内核立即开始杀进程释放内存。如果内核杀死的第一个进程就是 docker daemon 会怎么样?结果是所有的容器都不工作了,这是不能接受的!
针对这个问题,docker 尝试通过调整 docker daemon 的 OOM 优先级来进行缓解。内核在选择要杀死的进程时会对所有的进程打分,直接杀死得分最高的进程,接着是下一个。当 docker daemon 的 OOM 优先级被降低后(注意容器进程的 OOM 优先级并没有被调整),docker daemon 进程的得分不仅会低于容器进程的得分,还会低于其它一些进程的得分。这样 docker daemon 进程就安全多了。
我们可以通过下面的脚本直观的看一下当前系统中所有进程的得分情况:
#!/bin/bash
for proc in $(find /proc -maxdepth 1 -regex '/proc/[0-9]+'); do
printf "%2d %5d %s\n" \
"$(cat $proc/oom_score)" \
"$(basename $proc)" \
"$(cat $proc/cmdline | tr '\0' ' ' | head -c 50)"
done 2>/dev/null | sort -nr | head -n 40
此脚本输出得分最高的 40 个进程,并进行了排序:
第一列显示进程的得分,mysqld 排到的第一名。显示为 node server.js 的都是容器进程,排名普遍比较靠前。红框中的是 docker daemon 进程,非常的靠后,都排到了 sshd 的后面。
有了上面的机制后是否就可以高枕无忧了呢!不是的,docker 的官方文档中一直强调这只是一种缓解的方案,并且为我们提供了一些降低风险的建议:
通过测试掌握应用对内存的需求
保证运行容器的主机有重组的内存
限制容器可以使用的内存
为主机配置 swap
好了,啰嗦了这么多,其实就是说:通过限制容器使用的内存上限,可以降低主机内存耗尽时带来的各种风险。
为了测试容器的内存使用情况,笔者在 ubuntu 的镜像中安装了压力测试工作 stress,并新创建了镜像 u-stress。本文演示用的所有容器都会通过 u-stress 镜像创建(本文运行容器的宿主机为 CentOS7)。下面是创建 u-stress 镜像的 Dockerfile:
FROM ubuntu:latest
RUN apt-get update && \
apt-get install stress
创建镜像的命令为:
$ docker build -t u-stress:latest .
在进入繁琐的设置细节之前我们先完成一个简单的用例:限制容器可以使用的最大内存为 300M。
-m(--memory=) 选项可以完成这样的配置:
$ docker run -it -m 300M --memory-swap -1 --name con1 u-stress /bin/bash
下面的 stress 命令会创建一个进程并通过 malloc 函数分配内存:
# stress --vm 1 --vm-bytes 500M
通过 docker stats 命令查看实际情况:
上面的 docker run
命令中通过 -m
选项限制容器使用的内存上限为 300M。同时设置 memory-swap
值为 -1
,它表示容器程序使用内存的受限,而可以使用的 swap
空间使用不受限制(宿主机有多少 swap
容器就可以使用多少)。
下面我们通过 top
命令来查看 stress
进程内存的实际情况:
上面的截图中先通过 pgrep 命令查询 stress 命令相关的进程,进程号比较大的那个是用来消耗内存的进程,我们就查看它的内存信息。VIRT 是进程虚拟内存的大小,所以它应该是 500M。RES 为实际分配的物理内存数量,我们看到这个值就在 300M 上下浮动。看样子我们已经成功的限制了容器能够使用的物理内存数量。
强调一下--memory-swap
是必须要与 --memory
一起使用的。
正常情况下, --memory-swap
的值包含容器可用内存和可用 swap
。所以--memory="300m" --memory-swap="1g"
的含义为:
容器可以使用 300M
的物理内存,并且可以使用700M(1G -330M)
的 swap
。--memory-swap
居然是容器可以使用的物理内存和可以使用的 swap
之和!
把--memory-swap
设置为 0 和不设置是一样的,此时如果设置了 --memory
,容器可以使用的 swap 大小为 --memory
值的两倍。
如果 --memory-swap
的值和--memory
相同,则容器不能使用 swap
。下面的 demo 演示了在没有 swap
可用的情况下向系统申请大量内存的场景:
$ docker run -it --rm -m 300M --memory-swap=300M u-stress /bin/bash
# stress --vm 1 --vm-bytes 500M
demo
中容器的物理内存被限制在 300M
,但是进程却希望申请到 500M
的物理内存。在没有swap
可用的情况下,进程直接被 OOM kill
了。如果有足够的 swap
,程序至少还可以正常的运行。
我们可以通过--oom-kill-disable
选项强行阻止 OOM kill
的发生,但是笔者认为 OOM kill
是一种健康的行为,为什么要阻止它呢?
除了限制可用 swap
的大小,还可以设置容器使用 swap
的紧迫程度,这一点和主机的 swappiness 是一样的。容器默认会继承主机的 swappiness
,如果要显式的为容器设置 swappiness
值,可以使用--memory-swappiness
选项。
通过限制容器可用的物理内存,可以避免容器内服务异常导致大量消耗主机内存的情况(此时让容器重启是较好的策略),因此可以降低主机内存被耗尽带来的风险。
“The first 90% of the code accounts for the first 90% of the development time. The remaining 10% of the code accounts for the other 90% of the development time.” – Tom Cargill
标 题:Docker如何限制容器可用的内存