• Linux 根目录所在分区被脏数据占满


    背景:

    ​ 公司在做一个项目,大概功能就是一个通行闸机的人脸识别系统,要经过门禁的人注册了之后,系统就会存储一张原始的图片在服务器的数据文件夹里面,包括了永久的存储和一些访客注册临时存储。一天周五的时候要使用df -h 查看根目录已经被占用98%,根目录挂载的分区有50G大小;当时显示的是还有3.8G可用,按照每个人脸产生的数据只有200K大小的话,根据每天通过的人流量计算也不会产生太多的数据。

    ​ 周一的时候,有电话打过来,说是系统不能正常使用了,想想可能是那个存储被占满了吧!登陆上去看,果然根目录所在分区已经被占用满了,当时想着两种方法:

    • 给数据目录扩容,因为挂载/的分区是LVM卷
    • 清除现在文件系统中的一些大的文件

    计划A: 找到 / 目录下的大文件(当时没有截图)

    使用find命令找到/目录中的大日志文件。

    1.第一步找出大于500M的日志文件。

    find / -type f -name "*.log" -size +500M
    # 找到了这个日志文件,用ls -l查看有3.8G
    /wls/appsystems/nginx-1.14.0/install/logs/access.log
    

    2.把该文件复制到其它目录中

    防止误删除,即使删除了也能够找回来,-a保持原来的属性,防止恢复的时候没有了原来的文件属性,导致程序报错。

    # home目录下挂载了一个分区
    cp -a /wls/appsystems/nginx-1.14.0/install/logs/access.log /home/
    

    3.清除日志文件

    >/wls/appsystems/nginx-1.14.0/install/logs/access.log
    

    ​ 当时就使用这种方法清理出来了一部分的空间,但是到了中午的时候,发现又快满了,当时还是想的事给这个目录分区扩容,但是仔细的想了想,按照平时的用户量来看的话肯定不会增长的这么快。于是就放弃了扩容开始找数据为什么增加得那么快的原因。

    计划B:找出数据异常增加的原因对症下药

    1.使用du命令查看占用比较大的目录

    先从/目录下查看占用比较大的目录。当时这个目录占用的47G,这是清理之后的。

    du -sh ./*
    
    -s      size 查看大小
    -h      以可读的方式查看显示G或者M为单位
    -m      以M为单位显示
            只用-s的话默认单位是K
    

    然后逐级的向下查找最大的产生数据的目录。最后确定是在/wls/files/FTR/faceFile/image/目录下,正好对应的是存储人脸数据的目录。如何查看他的变化情况?

    2.查看数据目录单位时间变化量

    我们查看目录所占的大小使du命令,再结合watch命令就可以查看到指定单位时间的变化了。

    watch -n 1 -d "du -sm ./*"
    
    -n     更新的频率单位s
    -d     不同的显示高亮
    

    通过这样的方式查看到image目录发生的变化,我们直接观察了五分钟变化了多少,当时计算差不多5分钟差不多增加了100M左右。当时就确定了肯定是系统出问题了。

    3.查看五分钟内产生的内容确定原因

    通过find命令把5min钟之内产生的数据导出来,看看到底是产生了哪些数据。

    # 在数据产生的目录下执行的。
    find ./ -type f -mmin -5|xargs cp -t /opt/save/
    
    cd /opt/save/
    tar -czvf export_save.tar.gz ./save
    sz export_save.tar.gz
    

    把这个包导到了windows桌面上,解压查看。

    原因出来了,一人注册只可能出现一次,而且这一张图片还出现了4次,通过原来watch命令还知道,这个数据还在不断的产生。总结出来肯定是程序出了问题,打电话找开发,从根源上解决问题。

    最后:使用shell脚本清洗脏数据

    从linux中查找出这个前缀开头的数据。

    # 因为查看结果的数据比较多所以只需要查看开头和结尾即可
    find ./ -type f -name "20000009_6ae05_*" |xargs ls -lh |head
    find ./ -type f -name "20000009_6ae05_*" |xargs ls -lh |tail
    

    结合上面的两种结果来看,重复数据每五分钟会产生一次,重复图片的前缀都是相同的,故障发生的时间是在 2021-1-9 4:00之后。那么之后产生的数据就有两种,一种是程序产生的重复图片,还有一种是正常使用产生的图片。确定逻辑关系。

    1. 某文件名前缀2021-1-9 4:00 之前的数据是正常的数据。之后的如果有重复的就脏数据。
    2. 找出2021-1-9 4:00 之后的重复照片。
    3. 查看该照片在2021-1-9 4:00之前是否有,如果有就把2021-1-9 4:00之后的删除。
    4. 如果没有就不用操作。

    注: 在2021-1-9之后可能也有每天注册的新用户,但是用户量应该不是很大,因为我们是在1-18号处理得,之后新用户也可能产生新的重复文件,但是那个找起来就比较复杂了,于是就先清除了2021-1-9 4:00之后大部分的重复文件。

    1.找出2021-1-9 4:00 之后的重复照片

    # 找出2021-1-9 4:00 之后的重复照片
    find ./ -type f -newermt "2021-1-9 4:00" >~/out-19400-image.txt
    
    # 去重并截取前缀,按数字排序。再次输出统计结果。
    cat out-19400-image.txt |sort|cut -c 3-17|uniq -c|sort -n > after1-9-4.txt
    

    结果类似这样。

    然后我只要文件名,需要再次处理一次;然后再按照上面的逻辑来编写脚本。

    
    cat after1-9-4.txt |awk -F' ' '{print $2}' > filename_fina.txt
    
    

    处理之后的文件前缀之后的结果。

    2.编写脚本

    [root@localhost gxd]# vi clean.sh 
    #!/bin/bash
    
    dir='/wls/files/FTR/faceFile/image/'
    
    # 2020-1-9 4:00之后的图片且>=10张的文件前缀
    for i in `cat filename_fina.txt`;do
    #for i in "20004788_d2d9e_";do
        # 查看在2020-1-9 4:00之前是否有记录
        num_pic=`find $dir -type f -name "${i}*" ! -newermt "2021-1-9 4:00"|wc -l`
    
        if [ $num_pic -ne 0 ];then
            echo "这张图片在2020-1-9 4:00之前有记录了 前缀${i} 执行操作mv"
            find $dir -type f -name "$i*" -newermt "2021-1-9 4:00" |xargs mv -t /home/laji
            echo "============================================================="
        else
            echo -e "这张图片在2020-1-9 4:00之后才有记录 前缀${i} 
     不进行操作"
            echo "============================================================="
        fi
    done
    

    执行的效果。

    最后清理出来的空间。

    清理出来重复的内容。

  • 相关阅读:
    System.Collections.Generic.IEnumerable.cs
    System.Collections.IList.cs
    茶-保健茶:松针茶
    中药-中药名:松针
    植物:松树
    LDAP-常用命令
    dsadm-dsconf数据导入导出
    SUN-LDAP6.3_RHEL 5.0-卸载LDAP
    passwd-shadow文件
    文件及目录的权限
  • 原文地址:https://www.cnblogs.com/gshelldon/p/14301537.html
Copyright © 2020-2023  润新知