• 使用df -h命令查看磁盘空间使用率不算高,还有很多空余空间,但是创建文件或写入数据时一直报错磁盘写满


    关于磁盘空间中索引节点爆满的问题还是挺多的,借此跟大家分享一下:

    一、发现问题

    在公司一台配置较低的Linux服务器(内存、硬盘比较小)的/data分区内创建文件时,系统提示磁盘空间不足,用df -h命令查看了一下磁盘使用情况,发现/data分区只使用了66%,还有12G的剩余空间,按理说不会出现这种问题。

    二、分析问题

    后来用df -i查看了一下/data分区的索引节点(inode),发现已经用满(IUsed=100%),导致系统无法创建新目录和文件。 [root@bastion-IDC ~]# df -i Filesystem Inodes IUsed IFree IUse% Mounted on ....... ....... /dev/mapper/VolGroup-lv_home 53452800 53452800 0 100% /data inode译成中文就是索引节点,每个存储设备(例如硬盘)或存储设备的分区被格式化为文件系统后,应该有两部份,一部份是inode,另一部份是Block,Block是用来存储数据用的。而inode呢,就是用来存储这些数据的信息,这些信息包括文件大小、属主、归属的用户组、读写权限等。inode为每个文件进行信息索引,所以就有了inode的数值。操作系统根据指令,能通过inode值最快的找到相对应的文件。

    而这台服务器的Block虽然还有剩余,但inode已经用满,因此在创建新目录或文件时,系统提示磁盘空间不足。

    三、查找原因:

    /data/cache目录中存在数量非常多的小字节缓存文件,占用的Block不多,但是占用了大量的inode。

    四、解决方案:

    1)删除/data/cache目录中的部分文件,释放出/data分区的一部分inode,特别要留意那些spool出来的文件,这种文件一般会占用比较多的节点,因为比较小而且零碎,同时要多留意日志文件信息等

    2)用软连接将空闲分区/opt中的newcache目录连接到/data/cache,使用/opt分区的inode来缓解/data分区inode不足的问题: # ln -s /opt/newcache /data/cache

    3)更换服务器,用高配置的服务器替换低配置的服务器。很多时候用钱去解决问题比用技术更有效,堆在我办公桌上5台全新的 DELL PowerEdge 2950 服务器即将运往IDC机房。一般不建议

    ************************************************************************************************************* 关于磁盘的inode满100%--i节点大爆发 原因: 通常是发现磁盘没有满但是无法写入文件。提示“no space left on device” 用df -i 查看,应该会发现相应的分区是100% 一般都是crontab的job有问题,造成/var/spool/clientmqueue中产生许多的零碎文件。 处理方法: 用rm -rf *会不能删除,并会有相应的提示,大意是参数太多。 可以用多种方法,这里提及一个我随便写的,在/var/spool/clientmqueue/下执行命令:“lsattr ./|awk -F"/" '{print $3}'|xargs -i rm -rf {}”用lsattr列出./下面的文件名的属性,用awk取出名字,然后rm -rf 还有一个方法比较普遍的使用:“find /var/spool/clientmqueue/ -type f -exec rm {} ;”或者在/var/spool/clientmqueue/目录下“find ./ -exec rm {} ;” 将crontab中没有定向输出的行都在最后加上“> /dev/null 2>&1”,在删除的过程中操作。或者先停止crontab,加上重定向。

    ************************************************************************************************************

    no space left on device的解决:

    服务器磁盘不足,df -h 一下,var下正常,还有剩余,发现问题没有,到后来显示大量的No space left on device:

    /var明明还有很大的空间,为什么就提示“没有足够的空间”了呢?结果用到了df -i命令查看磁盘的节点发现如下图:

    节点100%了.

    这个时候用户可以先看下日志文件是否太多,如果是日志文件占用大量的inodes可以临时释放清理下过期的日志。

    以下是检查inodes满的某一种情况,仅供参考:

    查看原来是crontab里面定时执行的句子里没有加 > /dev/null 2>&1,系统中cron执行的程序有输出内容,输出内容会以邮件形式发给cron的用户,而sendmail没有启动所以就产生了很大零碎的文件:

     cd /var/spool/clientmqueue/  进入这个目录,删掉这些没用的文件,用ls 查看一下,结果是没有反应,文件太多,于是就用到了这个命令:ls |xargs rm -rf 可以分批的处理删除文件,如下图是删除后的效果:

    操作到该步骤,可以根据较大目录的文件占用情况,临时转移部分文件到占用磁盘较小的目录中。

    转自:https://cloud.tencent.com/developer/article/1025981?from=10680

  • 相关阅读:
    MYSQL57密码策略修改
    dataSource' defined in class path resource [org/springframework/boot/autocon
    ubuntu14.04 red5
    hadoop中修改端口号
    FATAL org.apache.hadoop.hdfs.server.datanode.DataNode: Initialization failed for Block pool <registering> (Datanode Uuid unassigned) service to controller/192.168.1.183:9000. Exiting. java.io.IOExcep
    hadoop ssh 问题WARNING: REMOTE HOST IDENTIFICATION HAS CHANGED!
    openstack安装dashboard后访问horizon出错 End of script output before headers: django.wsgi
    sqlalchemy.exc.OperationalError: (sqlite3.OperationalError) Cannot add a NOT NULL column with default value NULL [SQL: u'ALTER TABLE address_scopes ADD COLUMN ip_version INTEGER NOT NULL']
    mysql ERROR 2002 (HY000): Can't connect to local MySQL server through socket '/var/run/mysqld/mysqld.sock' (2 "No such file or directory")
    OpenStack安装keyston 错误BError: (pymysql.err.InternalError) (1071, u‘Specified key was too long; max key length is 767 bytes‘) [SQL: u‘ CREATE TABLE migrate_ver
  • 原文地址:https://www.cnblogs.com/guanbin-529/p/12101319.html
Copyright © 2020-2023  润新知