关于磁盘空间中索引节点爆满的问题仍是挺多的,借此跟你们分享几个状况:node
状况一linux
在公司一台配置较低的Linux服务器(内存、硬盘比较小)的/data分区内建立文件时,系统提示磁盘空间不足,用df -h命令查看了一下磁盘使用状况,发现/data分区只使用了66%,还有12G的剩余空间,按理说不会出现这种问题。 后来用df -i查看了一下/data分区的索引节点(inode),发现已经用满(IUsed=100%),致使系统没法建立新目录和文件。 [root@bastion-IDC ~]# df -i Filesystem Inodes IUsed IFree IUse% Mounted on ....... ....... /dev/mapper/VolGroup-lv_home 53452800 53452800 0 100% /data inode译成中文就是索引节点,每一个存储设备(例如硬盘)或存储设备的分区被格式化为文件系统后,应该有两部份,一部份是inode,另外一部份是Block,Block是用来存储数据用的。而inode呢,就是用来存储这些数据的信息,这些信息包括文件大小、属主、归属的用户组、读写权限等。inode为每一个文件进行信息索引,因此就有了inode的数值。操做系统根据指令,能经过inode值最快的找到相对应的文件。 这台服务器的Block虽然还有剩余,但inode已经用满,所以在建立新目录或文件时,系统提示磁盘空间不足。 排查是因为/data/cache目录中存在数量很是多的小字节缓存文件,占用的Block很少,可是占用了大量的inode。 解决方案: 1)删除/data/cache目录中的部分文件,释放出/data分区的一部分inode,特别要留意那些spool出来的文件,这种文件通常会占用比较多的节点,由于比较小并且零碎,同时要多留意日志文件信息等 2)用软链接将空闲分区/opt中的newcache目录链接到/data/cache,使用/opt分区的inode来缓解/data分区inode不足的问题: # ln -s /opt/newcache /data/cache 3)更换服务器,用高配置的服务器替换低配置的服务器。
状况二缓存
问题:使用"df -h"命令发现磁盘使用率没有占满,可是没法写入文件,提示"no space left on device"! 缘由:磁盘的inode节点使用爆满了!("df -i"命令查看/var空间的inode爆满)。 ------------------------------------------------------------------------------- 可能缘由1: crontab里面定时执行的句子里没有加 > /dev/null 2>&1,系统中cron执行的程序有输出内容, 输出内容会以邮件形式发给cron的用户,而sendmail没有启动因此就产生了很大零碎的文件: crontab的job有问题,形成/var/spool/clientmqueue中产生许多的零碎文件。 处理方法: 用"rm -rf *"会不能删除,并会有相应的提示,大意是参数太多。 正确方法: 在/var/spool/clientmqueue/下执行命令: # lsattr ./|awk -F"/" '{print $3}'|xargs -i rm -rf {} 表示用lsattr列出./下面的文件名的属性,用awk取出名字,而后rm -rf 还有一个比较靠谱的方法: # find /var/spool/clientmqueue/ -type f -exec rm {} \; 或者在/var/spool/clientmqueue/目录下 # cd /var/spool/clientmqueue/ # find ./ -exec rm {} \; 将crontab中没有定向输出的行都在最后加上"> /dev/null 2>&1",在删除的过程当中操做。 或者先中止crontab,加上重定向。 -------------------------------------------------------------------------------- 可能缘由2 能够看下日志文件是否太多,若是是日志文件占用大量的inodes能够临时释放清理下过时的日志。 也能够根据较大目录的文件占用状况,临时转移部分文件到占用磁盘较小的目录中。
其余总结bash
=================================================== 当发现某个分区下的inode使用率过大时,须要找到该分区下的某些目录里有哪些文件能够清理。 查找某个目录下一个月或两个月以前的文件,而后删除 # find . -type f -mtime +30 |wc -l # find . -type f -mtime +60 |wc -l # find . -type f -mtime +30 -exec rm -f {} \; # find . -type f -mtime +60 -exec rm -f {} \; 释放inode缓存 # sync # echo 3 > /proc/sys/vm/drop_caches 再次检查下磁盘inode使用状况 # df -i =================================================== 1)删除无用的临时文件,释放inode。好比/tmp下有不少临时文件 # ls -lt /tmp | wc -l # find /tmp -type f -exec rm {} \; 若是使用rm *,有可能由于文件数量太多而出现Argument list too long错误 ------------------------------------------------------------------------------------------ 是在linux下,试图传太多参数给一个系统命令(ls *; cp *; rm *; cat *; etc..)时,就会出现 Argument list too long错误。 解决方法:使用find -exec 遍历,而后执行删除即可。 # find /tmp -type f -exec rm {} \; ------------------------------------------------------------------------------------------ 2)除了的临时文件外,0字节的文件也会占用inode,应该也释放。 # find /home -type f -size 0 -exec rm {} \; 3)inode爆满,也多是某些目录下存在大量的小文件致使。 大量小文件分布有两种可能: a)一是只有一个或少许目录下存在大量小文件,这种状况可使用以下命令来找出这个异常目录: # find / -type d -size +10M 即找出大小大于10M的目录(目录大小越大,表示目录下的文件越多)。 b)大量的小文件分布在大量的目录下,这时候上面的命令可能找不出异常的目录,须要如下命令: # cd / # find */ ! -type l | cut -d / -f 1 | uniq -c 此命令做用是找出目录下文件总数,可能须要执行屡次,直到找出具体的目录。好比上面的命令找出了/data目录下存在大量的小文件, 但/data/目录还有不少目录,这时候咱们还须要继续执行: # cd /data # find */ ! -type l | cut -d / -f 1 | uniq -c 直到找出具体的目录。 若是能够直接删除节点满的文件夹: # find . -type f -exec rm {} \; 还能够按照文件的inode节点删除文件 # find . -inum 342137 -exec rm -i {} \;