Docker容器日志过大?没有比较轻松的方式解决? 您所在的位置:网站首页 docker打印日志命令 Docker容器日志过大?没有比较轻松的方式解决?

Docker容器日志过大?没有比较轻松的方式解决?

2024-05-27 05:13| 来源: 网络整理| 查看: 265

Docker容器日志过大?有没有比较简单的方式解决? 1. 问题描述

当我们尝试查看特定 Docker 容器的日志时,通常会使用 docker logs 命令。然而,有时候会发现控制台持续输出日志信息,持续时间可能相当长,直到最终打印完成。这种现象往往源自对 Docker 容器日志长时间未进行处理,导致日志积累过多,占用了系统磁盘空间。因此,为了释放磁盘空间并优化系统性能,我们可以采取一些简单而有效的方法来处理这些庞大的日志文件。

2. docker日志处理机制

需要处理问题,那我们肯定要先了解docker的日志处理机制,了解了基本的机制,能够帮助我们更好的理解问题并解决问题。

2.1 日志查看

docker logs 可以查看docker容器的输出日志,但是这里的日志主要包含标准输出和标准错误输出,一些容器可能会把日志输出到某个日志文件中,比如tomcat,这样使用docker logs 命令是无法查看的。

注意docker logs命令查看的是容器的全部日志,当日志量很大时会对容器的运行造成影响,可以通过docker logs --tail N container name查看最新N行的数据,N是一个整数。

2.2 处理机制

当我们启动一个docker容器时,实际上时作为docker daemon的一个子进程运行的,docker daemon可以拿到容器里进程的标准输出与标准错误输出,并通过docker的log driver模块来处理,大致图示如下:

image-20240307144725996

上面图中所列举的就是所支持的Log Driver:

none:容器没有日志,docker logs不输出任何内容local:日志以自定义格式存储json-file:日志以json格式存储,默认的Log Driversyslog:将日志写入syslog。syslog守护程序必须在主机上运行journald:将日志写入journald。journald守护程序必须在主机上运行gelf:将日志写入Graylog Extended Log Format端点,如Graylog或Logstashfluentd:将日志写入fluentd。fluentd守护程序必须在主机上运行awslogs:将日志写入Amazon CloudWatch Logssplunk:通过HTTP Event Collector将日志写入splunketwlogs:将日志作为ETW(Event Tracing for Windows)事件写入。只在Windows平台可用gcplogs:将日志写入Google Cloud Platform Logginglogentries:将日志写入Rapid7 Logentries

可以使用命令docker info | grep "Logging Driver"

image-20240307145038976

2.3 默认的json-file

json-file Log Driver是Docker默认启用的Driver,将容器的STDOUT/STDERR输出以json的格式写到宿主机的磁盘,日志文件路径为 /var/lib/docker/containers/{container_id}/{container_id}-json.log

格式是这样的:

image-20240307153128792

json-file将每一行日志封装到一个json字符串中。

json-file支持如下配置:

max-size:单个日志文件的最大大小,单位可以为k、m、g,默认是-1,表示日志文件可以无限大。max-file:最多可以存多少个日志文件,默认数量是1,当默认数量大于1时,每个日志文件达到最大存储大小,且数量达到设置数量,产生新日志时会删除掉最旧的一个日志文件。labels:指定日志所使用到的标签,使用逗号分割。比如traceId,message两个标签。env:指定与日志相关的环境变量,使用逗号分割env-rejex:一个正则表达式来匹配与日志相关的环境变量compress:是否压缩日志文件 3. 如何解决? 3.1 查看日志大小

我们可以通过如下脚本获取当前所有容器的日志大小,这里时使用docker默认的json-file的形式:

#!/bin/sh echo "======== docker containers logs file size ========" logs=$(find /var/lib/docker/containers/ -name *-json.log) for log in $logs do ls -lh $log done

执行脚本:

image-20240307155549512

json-file的命令开头的一小串字符时容器的id。

例如我有一个docker容器id是2de6f164ee11,我们可以适当修改shell脚本,查看某一个容器的日志大小。

logs=$(find /var/lib/docker/containers/ -name *-json.log | grep "2de6f164ee11") 3.2 删除日志

如果docker容器正在运行,使用rm -rf的方式删除日志后,磁盘空间并没有释放。原因是在Linux或者Unix系统中,通过rm -rf或者文件管理器删除文件,将会从文件系统的目录结构上解除链接(unlink)。如果文件是被打开的(有一个进程正在使用),那么进程将仍然可以读取该文件,磁盘空间也一直被占用。

正确的方式是直接使用命令改写日志文件。

cat /dev/null > *-json.log cat: 是一个命令,用于连接文件并打印它们的内容到标准输出(通常是终端)。/dev/null: 是一个特殊的设备文件,向它写入的内容会被丢弃,读取它将会立即返回结束符。>: 是重定向操作符,将命令的输出重定向到文件。*-json.log: 是通配符,用于匹配当前目录中所有以 -json.log 结尾的文件。

可以使用如下脚本,直接处理所有的日志文件:

#!/bin/sh echo "======== start clean docker containers logs ========" logs=$(find /var/lib/docker/containers/ -name *-json.log) for log in $logs do echo "clean logs : $log" cat /dev/null > $log done echo "======== end clean docker containers logs ========"

注意,虽然使用这种方式可以删除日志,释放磁盘,但是过一段时间后,日志又会涨回来,所以要从根本上解决问题,只需要添加两个参数。没错!就是上面所讲到的max-size和max-file。

3.3 治本操作

在运行docker容器时,添加上max-size和max-file可以解决日志一直增长的问题。

docker run -it --log-opt max-size=10m --log-opt max-file=3 alpine ash

这段启动命令表示总共有三个日志文件,每个文件的最大大小时10m,这样就能将该容器的日志大小控制在最大30m。

4. 总结

在运行容器时,我们就应该优先考虑如何处理日志的问题,后面不必为容器运行后所产生的巨大日志而手足无措。

当然需要删除无用日志可以通过3.1,3.2的操作完成,建议在运行容器的时候加上max-size和max-file参数或者至少加上max-size参数。

我是友好的分割线

最后给自己的一个小开源项目宣传一下,项目包含管理端,后端,小程序客户端,源码均已开源。详情可以进https://ext.dcloud.net.cn/plugin?id=16933插件市场查看。

image-20240307163336293

往期文章:

BFG Repo-Cleaner,一行命令替换、删除、修改git提交记录?如何实现项目代码的自动拉取、打包并部署?


【本文地址】

公司简介

联系我们

今日新闻

    推荐新闻

      专题文章
        CopyRight 2018-2019 实验室设备网 版权所有