• Linux服务器报错too many open files错误解决方案


    1、本质解决方案按照oracle的安装脚本中以下几项文件进行相应配置:

    cp /etc/security/limits.conf /etc/security/limits.conf.bak

    echo "oracle soft nproc 2047" >>/etc/security/limits.conf

    echo "oracle hard nproc 16384" >>/etc/security/limits.conf

    echo "oracle soft nofile 1024" >>/etc/security/limits.conf

    echo "oracle hard nofile 65536" >>/etc/security/limits.conf

    cp /etc/pam.d/login /etc/pam.d/login.bak

    echo "session required /lib/security/pam_limits.so" >>/etc/pam.d/login

    echo "session required pam_limits.so" >>/etc/pam.d/login

    cp /etc/profile /etc/profile.bak

    echo 'if [ $USER = "oracle" ]; then' >>  /etc/profile

    echo 'if [ $SHELL = "/bin/ksh" ]; then' >> /etc/profile

    echo 'ulimit -p 16384' >> /etc/profile

    echo 'ulimit -n 65536' >> /etc/profile

    echo 'else' >> /etc/profile

    echo 'ulimit -u 16384 -n 65536' >> /etc/profile

    echo 'fi' >> /etc/profile

    echo 'fi' >> /etc/profile

    cp /etc/sysctl.conf /etc/sysctl.conf.bak

    echo "fs.aio-max-nr = 1048576" >> /etc/sysctl.conf

    echo "fs.file-max = 6815744" >> /etc/sysctl.conf

    echo "kernel.shmall = 2097152" >> /etc/sysctl.conf

    echo "kernel.shmmax = 4294967295" >> /etc/sysctl.conf

    echo "kernel.shmmni = 4096" >> /etc/sysctl.conf

    echo "kernel.sem = 250 32000 100 128" >> /etc/sysctl.conf

    echo "net.ipv4.ip_local_port_range = 9000 65500" >> /etc/sysctl.conf

    echo "net.core.rmem_default = 262144" >> /etc/sysctl.conf

    echo "net.core.rmem_max = 4194304" >> /etc/sysctl.conf

    echo "net.core.wmem_default = 262144" >> /etc/sysctl.conf

    echo "net.core.wmem_max = 1048586" >> /etc/sysctl.conf

    echo "net.ipv4.tcp_wmem = 262144 262144 262144" >> /etc/sysctl.conf

    echo "net.ipv4.tcp_rmem = 4194304 4194304 4194304" >> /etc/sysctl.conf

    sysctl -p

    2、临时解决方案:

    [root@zytest04 ~]# ulimit -a

    core file size          (blocks, -c) 0

    data seg size           (kbytes, -d) unlimited

    scheduling priority             (-e) 0

    file size               (blocks, -f) unlimited

    pending signals                 (-i) 46418

    max locked memory       (kbytes, -l) 64

    max memory size         (kbytes, -m) unlimited

    open files                      (-n) 1024

    pipe size            (512 bytes, -p) 8

    POSIX message queues     (bytes, -q) 819200

    real-time priority              (-r) 0

    stack size              (kbytes, -s) 10240

    cpu time               (seconds, -t) unlimited

    max user processes              (-u) 46418

    virtual memory          (kbytes, -v) unlimited

    file locks                      (-x) unlimited

    [root@zytest04 ~]# ulimit -n 4096

    [root@zytest04 ~]# ulimit -a

    core file size          (blocks, -c) 0

    data seg size           (kbytes, -d) unlimited

    scheduling priority             (-e) 0

    file size               (blocks, -f) unlimited

    pending signals                 (-i) 46418

    max locked memory       (kbytes, -l) 64

    max memory size         (kbytes, -m) unlimited

    open files                      (-n) 4096

    pipe size            (512 bytes, -p) 8

    POSIX message queues     (bytes, -q) 819200

    real-time priority              (-r) 0

    stack size              (kbytes, -s) 10240

    cpu time               (seconds, -t) unlimited

    max user processes              (-u) 46418

    virtual memory          (kbytes, -v) unlimited

    file locks                      (-x) unlimited

    3、转自网络文档

    第一部分:(主要是命令,查看最大打开限制数量,不能解决根本问题)

    在Linux下,我们使用ulimit -n 命令可以看到单个进程能够打开的最大文件句柄数量(socket连接也算在里面)。系统默认值1024。

    对于一般的应用来说(象Apache、系统进程)1024完全足够使用。但是如何象squid、mysql、java等单进程处理大量请求的应用来说就有点捉襟见肘了。如果单个进程打开的文件句柄数量超过了系统定义的值,就会提到“too many files open”的错误提示。如何知道当前进程打开了多少个文件句柄呢?下面一段小脚本可以帮你查看:

    00001. lsof -n |awk '{print $2}'|sort|uniq -c |sort -nr|more   

    在系统访问高峰时间以root用户执行上面的脚本,可能出现的结果如下:

    00001. # lsof -n|awk '{print $2}'|sort|uniq -c |sort -nr|more   

    00002.     131 24204  

    00003.      57 24244  

    00004.      57 24231  

    00005.      56 24264  

    其中第一行是打开的文件句柄数量,第二行是进程号。得到进程号后,我们可以通过ps命令得到进程的详细内容。

    00001. ps -aef|grep 24204  

    00002. mysql    24204 24162 99 16:15 ?        00:24:25 /usr/sbin/mysqld  

    哦,原来是mysql进程打开最多文件句柄数量。但是他目前只打开了131个文件句柄数量,远远底于系统默认值1024。

    但是如果系统并发特别大,尤其是squid服务器,很有可能会超过1024。这时候就必须要调整系统参数,以适应应用变化。Linux有硬性限制和软性限制。可以通过ulimit来设定这两个参数。方法如下,以root用户运行以下命令:

    00001. ulimit -HSn 4096  

    以上命令中,H指定了硬性大小,S指定了软性大小,n表示设定单个进程最大的打开文件句柄数量。个人觉得最好不要超过4096,毕竟打开的文件句柄数越多响应时间肯定会越慢。设定句柄数量后,系统重启后,又会恢复默认值。如果想永久保存下来,可以修改.bash_profile文件,可以修改 /etc/profile 把上面命令加到最后。(findsun提出的办法比较合理)

    =================================================================================

    Too many open files经常在使用linux的时候出现,大多数情况是您的程序没有正常关闭一些资源引起的,所以出现这种情况,请检查io读写,socket通讯等是否正常关闭。
    如果检查程序没有问题,那就有可能是linux默认的open files值太小,不能满足当前程序默认值的要求,比如数据库连接池的个数,tomcat请求连接的个数等。。。
    查看当前系统open files的默认值,可执行:

    Java代码 wps5BC6.tmp

    00001. [root@pororo script]# ulimit -a   

    00002. core file size           (blocks, -c) 0

    00003. data seg size            (kbytes, -d) unlimited   

    00004. scheduling priority              (-e) 0

    00005. file size                (blocks, -f) unlimited   

    00006. pending signals                  (-i) 128161

    00007. max locked memory        (kbytes, -l) 32

    00008. max memory size          (kbytes, -m) unlimited   

    00009. open files                       (-n) 800000

    00010. pipe size             (512 bytes, -p) 8

    00011. POSIX message queues      (bytes, -q) 819200

    00012. real-time priority               (-r) 0

    00013. stack size               (kbytes, -s) 10240

    00014. cpu time                (seconds, -t) unlimited   

    00015. max user processes               (-u) 128161

    00016. virtual memory           (kbytes, -v) unlimited   

    00017. file locks                       (-x) unlimited  

    00018. ==========================================================================

    00019. 第二部分:(解决的真正方法)

    功能说明:控制shell程序的资源。

    语  法:ulimit [-aHS][-c <core文件上限>][-d <数据节区大小>][-f <文件大 小>][-m <内存大小>][-n <文件数目>][-p <缓冲区大小>][-s <堆叠大 小>][-t <CPU时间>][-u <程序数目>][-v <虚拟内存大小>]

    补充说明:ulimit为shell内建指令,可用来控制shell执行程序的资源。

    参  数:
    -a  显示目前资源限制的设定。
    -c <core文件上限>  设定core文件的最大值,单位为区块。
    -d <数据节区大小>  程序数据节区的最大值,单位为KB。
    -f <文件大小>  shell所能建立的最大文件,单位为区块。
    -H  设定资源的硬性限制,也就是管理员所设下的限制。
    -m <内存大小>  指定可使用内存的上限,单位为KB。
    -n <文件数目>  指定同一时间最多可开启的文件数。
    -p <缓冲区大小>  指定管道缓冲区的大小,单位512字节。
    -s <堆叠大小>  指定堆叠的上限,单位为KB。
    -S  设定资源的弹性限制。
    -t <CPU时间>  指定CPU使用时间的上限,单位为秒。
    -u <程序数目>  用户最多可开启的程序数目。
    -v <虚拟内存大小>  指定可使用的虚拟内存上限,单位为KB。

    ulimit -a 用来显示当前的各种用户进程限制。
        Linux对于每个用户,系统限制其最大进程数。为提高性能,可以根据设备资源情况,
        设置各linux 用户的最大进程数,下面我把某linux用户的最大进程数设为10000个:
         ulimit -u 10000
         对于需要做许多 socket 连接并使它们处于打开状态的 Java 应用程序而言,
         最好通过使用 ulimit -n xx 修改每个进程可打开的文件数,缺省值是 1024。
         ulimit -n 4096 将每个进程可以打开的文件数目加大到4096,缺省为1024
         其他建议设置成无限制(unlimited)的一些重要设置是:
         数据段长度:ulimit -d unlimited
         最大内存大小:ulimit -m unlimited
         堆栈大小:ulimit -s unlimited
         CPU 时间:ulimit -t unlimited
         虚拟内存:ulimit -v unlimited
    我们公司服务器需要调整ulimit的stack size 参数调整为unlimited 无限,使用ulimit -s unlimited时只能在当时的shell见效,重开一个shell就失效了。。于是得在/etc/profile 的最后面添加ulimit -s unlimited 就可以了,source /etc/profile使修改文件生效。
    PS:如果你碰到类似的错误提示
    ulimit: max user processes: cannot modify limit: 不允许的操作
    ulimit: open files: cannot modify limit: 不允许的操作
    为啥root用户是可以的?普通用户又会遇到这样的问题?
    看一下/etc/security/limits.conf大概就会明白。
    linux对用户有默认的ulimit限制,而这个文件可以配置用户的硬配置和软配置,硬配置是个上限。
    超出上限的修改就会出“不允许的操作”这样的错误。
    在limits.conf加上
    *        soft    noproc  10240
    *        hard    noproc  10240
    *        soft    nofile  10240
    *        hard    nofile  10240
    就是限制了任意用户的最大线程数和文件数为10240。

  • 相关阅读:
    POI使用介绍
    Git的使用简介
    SOA架构搭建---duboo+zookeeper+SSM实现
    分布式事务介绍
    兼容安卓微信调用摄像头
    cookie
    js对手机软键盘的监听
    input 改变placeholder默认样式
    VisualVm使用JMX的方式连接远程JVM
    update批量根据条件更新
  • 原文地址:https://www.cnblogs.com/wcwen1990/p/6656426.html
Copyright © 2020-2023  润新知