1. 查看大文件:
切换到根目录下,执行以下命令:
du -h --max-depth=1 /查看该文件夹下面的所有文件大小
2. 重新执行步骤1查询出来的大文件
3. 最终定位发现是docker记录的日志xxx-json.log文件占 了60多个G。
4.清理日志
1.truncate -s 0 5cbd860d7c02341373814b3d9723dc9356c4d69fc5b2160a6d71795c8872-json.log
2.cat /dev/null > 1cbdf8607c02sdf41373814ad4cd1b3d972sdf356c4d69fc5b2160a6d7112d-json.log
3. > 8cb8607adsfzc02341373814ad4cd1b3d9723dc9356c4d69fc5b2160a6d71795c8872sdf-json.log
4.echo " " > 9cb8607c02341373814ad4cd1b3d9723dc9356c4d69fc5b2160a6d71795c8833-json.log
5. 批量清空:
看所有容器日志大小和清理所有容器日志命令:
ls -lh $(find /var/lib/docker/containers/ -name *-json.log)
truncate -s 0 /var/lib/docker/containers/*/*-json.log
6. 上述方法,日志文件迟早又会涨回来。要从根本上解决问题,需要限制容器服务的日志大小上限
设置一个容器服务的日志大小上限,这个通过配置容器docker-compose的max-size选项来实现:
nginx: image: nginx:1.18 restart: always logging: driver: "json-file" options: max-size: "10g"
重启nginx容器之后,其日志文件的大小就被限制在10GB,再也不用担心了
全局设置日志大小
vim /etc/docker/daemon.json
新建/etc/docker/daemon.json,若有就不用新建了。添加log-dirver和log-opts参数,样例如下:registry-mirrors
是容器镜像地址,你可以用阿里云的(免费的)
{
"registry-mirrors": ["http://f613ce8f.m.daocloud.io"],
"log-driver":"json-file",
"log-opts": {"max-size":"500m", "max-file":"3"}
}
max-size=500m,意味着一个容器日志大小上限是500M,
max-file=3,意味着一个容器有三个日志,分别是id+.json、id+1.json、id+2.json。
# 重启docker守护进程 systemctl daemon-reload systemctl restart docke
参考: https://www.cnblogs.com/jockming/p/13375941.html