| 注册
请输入搜索内容

热门搜索

Java Linux MySQL PHP JavaScript Hibernate jQuery Nginx
XRTBet
8年前发布

在Docker中运行Java:为了防止失败,你需要知道这些

   <p>摘要: 很多开发者会(或者应该)知道,当我们为运行在Linux容器(Docker、rkt、runC、lxcfs等)中的Java程序去设置JVM的GC、堆大小和运行时编译器的参数时并没有得到预想的效果。当我们通过“java -jar mypplication-fat.jar”的方式而不设置任何参数来运行一个Java应用时,JVM会根据自身的许多参数进行调整,以便在执行环境中获得最优的性能。本篇博客将通过简单的方式向开发人员展示在将Java应用运行在Linux容器内时需要了解的内容。</p>    <p><img src="https://simg.open-open.com/show/a2f46e02ea8f7f8af6c6989687bd6b52.png"></p>    <p>很多开发者会(或者应该)知道,当我们为运行在Linux容器(Docker、rkt、runC、lxcfs等)中的Java程序去设置JVM的GC、堆大小和运行时编译器的参数时并没有得到预想的效果。当我们通过“java -jar mypplication-fat.jar”的方式而不设置任何参数来运行一个Java应用时,JVM会根据自身的许多参数进行调整,以便在执行环境中获得最优的性能。</p>    <p>本篇博客将通过简单的方式向开发人员展示在将Java应用运行在Linux容器内时需要了解的内容。</p>    <p>我们倾向于认为容器可以像虚拟机一样可以完整的定义虚拟机的CPU个数和虚拟机的内存。容器更像是一个进程级别的资源(CPU、内存、文件系统、网络等)隔离。这种隔离是依赖于Linux内核中提供的一个cgroups的功能。</p>    <p>然而,一些可以从运行时环境中收集信息的应用程序在cgroups功能出现之前已经存在。在容器中执行命令 ‘top‘、‘free‘、‘ps’,也包括没有经过优化的JVM是一个会受到高限制的Linux进程。让我们来验证一下。</p>    <h2>问题</h2>    <p>为了展示遇到的问题,我使用命令“docker-machine create -d virtualbox –virtualbox-memory ‘1024’ docker1024”在虚拟机中创建了一个具有1GB内存的Docker守护进程,接下来在3个Linux容器中执行命令“free -h”,使其只有100MB的内存和Swap。结果显示所有的容器总内存是995MB。</p>    <p style="text-align: center;"><img src="https://simg.open-open.com/show/099bcb9a760039b6a92d1ae0f4486d5e.jpg"></p>    <p>即使是在 Kubernetes/OpenShift集群中,结果也是类似的。我在一个内存是15G的集群中也执行了命令使得Kubernetes Pod有511MB的内存限制(命令:“kubectl run mycentos –image=centos -it –limits=’memory=512Mi’”),总内存显示为14GB。</p>    <p style="text-align: center;"><img src="https://simg.open-open.com/show/2f9ac13201241f42d7921f12f1eda066.png"></p>    <p>想要知道为什么是这样的结果,可以去阅读此篇博客文章 “Memory inside Linux containers – Or why don’t free and top work in a Linux container?”( <a href="/misc/goto?guid=4959747791226154109" rel="nofollow,noindex">https://fabiokung.com/2014/03/13/memory-inside-linux-containers/</a> )</p>    <p>我们需要知道Docker参数(-m、–memory和–memory-swap)和Kubernetes参数(–limits)会让Linux内核在一个进程的内存超出限制时将其Kill掉,但是JVM根本不清楚这个限制的存在,当超过这个限制时,不好的事情发生了!</p>    <p>为了模拟当一个进程超出内存限制时会被杀死的场景,我们可以通过命令“docker run -it –name mywildfly -m=50m jboss/wildfly”在一个容器中运行WildFly Application Server并且为其限制内存大小为50MB。在这个容器运行期间,我们可以执行命令“docker stats”来查看容器的限制。</p>    <p style="text-align: center;"><img src="https://simg.open-open.com/show/efa6e99cbefe5eb0707924f67623f9cc.png"></p>    <p>但是过了几秒之后,容器Wildfly将会被中断并且输出信息:*** JBossAS process (55) received KILL signal ***</p>    <p>通过命令 “docker inspect mywildfly -f ‘{{json .State}}'”可以查看容器被杀死的原因是发生了OOM(内存不足)。容器中的“state”被记录为OOMKilled=true 。</p>    <p style="text-align: center;"><img src="https://simg.open-open.com/show/51dd4fc289f5f0cca321dd67b31280d1.png"></p>    <h2>这将怎样影响Java应用</h2>    <p>在Docker宿主机中创建一个具有1GB内存的虚拟机(在之前使用命令已经创建完毕 “docker-machine create -d virtualbox –virtualbox-memory ‘1024’ docker1024”) ,并且限制一个容器的内存为150M,看起来已经足够运行这个在 Dockerfile中设置过参数-XX: PrintFlagsFinal 和 -XX: PrintGCDetails的Spring Boot application了。这些参数使得我们可以读取JVM的初始化参数并且获得 Garbage Collection(GC)的运行详细情况。</p>    <p>尝试一下:</p>    <p>$ docker run -it --rm --name mycontainer150 -p 8080:8080 -m 150M rafabene/java-container:openjdk</p>    <p>我也提供了一个访问接口“/api/memory/”来使用String对象加载JVM内存,模拟大量的消耗内存,可以调用试试:</p>    <p>$ curl http://`docker-machine ip docker1024`:8080/api/memory</p>    <p>这个接口将会返回下面的信息 “Allocated more than 80% (219.8 MiB) of the max allowed JVM memory size (241.7 MiB)”。</p>    <p>在这里我们至少有2个问题:</p>    <ul>     <li> <p>为什么JVM会允许241.7MiB的最大内容?</p> </li>     <li> <p>如果容器已经限制了内存为150MB,为什么允许Java分配内存到220MB?</p> </li>    </ul>    <p>首先,我们应该重新了解在JVM ergonomic page中所描述的 “maximum heap size”的定义,它将会使用1/4的物理内存。JVM并不知道它运行在一个容器中,所以它将被允许使用260MB的最大堆大小。通过添加容器初始化时的参数-XX: PrintFlagsFinal,我们可以检查这个参数的值。</p>    <p>$ docker logs mycontainer150|grep -i MaxHeapSize</p>    <p>uintx MaxHeapSize := 262144000 {product}</p>    <p>其次,我们应该理解当在docker命令行中设置了 “-m 150M”参数时,Docker守护进程会限制RAM为150M并且Swap为150M。从结果上看,一个进程可以分配300M的内存,解释了为什么我们的进程没有收到任何从Kernel中发出的退出信号。</p>    <p>更多的关于Docker命令中内存限制 (–memory)和Swap (–memory-swap)的差别可以参考这里。</p>    <h2>更多的内存是解决方案吗?</h2>    <p>开发者如果不理解问题可能会认为运行环境中没有为JVM提供足够的内存。通常的解决对策就是为运行环境提供更多的内存,但是实际上,这是一个错误的认识。</p>    <p>假如我们将Docker Machine的内存从1GB提高到8GB(使用命令 “docker-machine create -d virtualbox –virtualbox-memory ‘8192’ docker8192”),并且创建的容器从150M到800M:</p>    <p>$ docker run -it --name mycontainer -p 8080:8080 -m 800M rafabene/java-container:openjdk</p>    <p>此时使用命令 “curl http://X51X:8080/api/memory ” 还不能返回结果,因为在一个拥有8GB内存的JVM环境中经过计算的MaxHeapSize大小是2092957696(~ 2GB)。可以使用命令“docker logs mycontainer|grep -i MaxHeapSize”查看。</p>    <p style="text-align: center;"><img src="https://simg.open-open.com/show/7735f2e882ebd69b8db335236aa101fe.png"></p>    <p>应用将会尝试分配超过1.6GB的内存,当超过了容器的限制(800MB的RAM 800MB的Swap),进程将会被Kill掉。</p>    <p>很明显当在容器中运行程序时,通过增加内存和设置JVM的参数不是一个好的方式。当在一个容器中运行Java应用时,我们应该基于应用的需要和容器的限制来设置最大堆大小(参数:-Xmx)。</p>    <h2>解决方案是什么?</h2>    <p>在Dockerfile中稍作修改,为JVM指定扩展的环境变量。修改内容如下:</p>    <p>CMD java -XX:+PrintFlagsFinal -XX:+PrintGCDetails $JAVA_OPTIONS -jar java-container.jar</p>    <p>现在我们可以使用JAVA_OPTIONS的环境变量来设置JVM Heap的大小。300MB看起来对应用足够了。稍后你可以查看日志,看到Heap的值是 314572800 bytes(300MBi)。</p>    <p>Docker下,可以使用“-e”的参数来设置环境变量进行切换。</p>    <p>$ docker run -d --name mycontainer8g -p 8080:8080 -m 800M -e JAVA_OPTIONS='-Xmx300m' rafabene/java-container:openjdk-env</p>    <p>$ docker logs mycontainer8g|grep -i MaxHeapSize</p>    <p>uintx    MaxHeapSize := 314572800       {product}</p>    <p>在Kubernetes中,可以使用“–env=[key=value]”来设置环境变量进行切换:</p>    <p>$ kubectl run mycontainer --image=rafabene/java-container:openjdk-env --limits='memory=800Mi' --env="JAVA_OPTIONS='-Xmx300m'"</p>    <p>$ kubectl get pods</p>    <p>NAME                          READY  STATUS    RESTARTS AGE</p>    <p>mycontainer-2141389741-b1u0o  1/1    Running   0        6s</p>    <p>$ kubectl logs mycontainer-2141389741-b1u0o|grep MaxHeapSize</p>    <p>uintx     MaxHeapSize := 314572800     {product}</p>    <h2>还能再改进吗?</h2>    <p>有什么办法可以根据容器的限制来自动计算Heap的值?</p>    <p>事实上如果你的基础Docker镜像使用的是由Fabric8提供的,那么就可以实现。镜像fabric8/java-jboss-openjdk8-jdk使用了脚本来计算容器的内存限制,并且使用50%的内存作为上限。也就是有50%的内存可以写入。你也可以使用这个镜像来开/关调试、诊断或者其他更多的事情。让我们看一下一个Spring Boot应用的 Dockerfile :</p>    <p>FROM fabric8/java-jboss-openjdk8-jdk:1.2.3</p>    <p>ENV JAVA_APP_JAR java-container.jar</p>    <p>ENV AB_OFF true</p>    <p>EXPOSE 8080</p>    <p>ADD target/$JAVA_APP_JAR /deployments/</p>    <p>就这样!现在,不管容器的内存限制如何,我们的Java应用将在容器中自动的调节Heap大小,而不是再根据宿主机来设置。</p>    <p style="text-align: center;"><img src="https://simg.open-open.com/show/f534475fb1a1d232d2193fa7bd9b11f9.png"></p>    <p>总结到目前为止,Java JVM还不能意识到其是运行在一个容器中 — 某些资源在内存和CPU的使用上会受到限制。因此,你不能让JVM自己来设置其认为的最优的最大Heap值。</p>    <p>一个解决对策是使用Fabric8作为基础镜像,它可以意识到应用程序运行在一个受限制的容器中,并且在你没有做任何事情的情况下,可以自动的调整最大Heap的值。</p>    <p> </p>    <p> </p>    <p>来自:https://sdk.cn/news/6821</p>    <p> </p>    
 本文由用户 XRTBet 自行上传分享,仅供网友学习交流。所有权归原作者,若您的权利被侵害,请联系管理员。
 转载本站原创文章,请注明出处,并保留原始链接、图片水印。
 本站是一个以用户分享为主的开源技术平台,欢迎各类分享!
 本文地址:https://www.open-open.com/lib/view/open1492658093035.html
Docker Java