一般一个大规模Linuxserver请求数可能是几十万上百万的情况。须要足够的连接数来使用,所以务必进行对应的设置。
默认的Linuxserver文件描写叙述符等打开最大是1024。用ulimit -a 查看:
[viewuser@~]$ ulimit -a
core file size (blocks, -c) 0 #coredump 文件大小
data seg size (kbytes, -d) unlimited
scheduling priority (-e) 0
file size (blocks, -f) unlimited
pending signals (-i) 255622
max locked memory (kbytes, -l) 64
max memory size (kbytes, -m) unlimited
open files (-n) 1024 #打开文件数量。root账户无限制
pipe size (512 bytes, -p) 8
POSIX message queues (bytes, -q) 819200
real-time priority (-r) 0
stack size (kbytes, -s) 8192
cpu time (seconds, -t) unlimited
max user processes (-u) 4096 #root用户本项是无限
virtual memory (kbytes, -v) unlimited
file locks (-x) unlimited
设置要求:如果我们要设置为200W最大打开文件描写叙述符
1. 改动 nr_open 限制 (用途:可以配置nofile最大数)
cat /proc/sys/fs/nr_open
Linux 内核 2.6.25 曾经,在内核里面宏定义是1024*1024,最大仅仅能是100w(1048576)。所以不要设置更大的值,假设Linux内核大于 2.6.25 则能够设置更大值。
设置方法:
sudo bash -c 'echo 2000000 > /proc/sys/fs/nr_open'
注意:仅仅有改动了 nr_open 限制。才干改动以下的限制。
2. 打开文件描写叙述符限制:改动 limits.conf 的nofile软硬打开文件限制(用途:tcp连接数)
文件位置:/etc/security/limits.conf
查找 nofile 。假设没有,则在自己最后加上:
2.6.25 及曾经内核设置为100W:
* soft nofile 1000000
* hard nofile 1000000
2.6.25 以后版本号内核能够设置为200W:
* soft nofile 2000000
* hard nofile 2000000
设置后保存本文件。
(本操作必须重新启动才生效,假设无法重新启动,会无法生效,不确定是否使用 /sbin/sysctl -p 能否够直接生效)
3. 打开进程限制:改动 limits.conf 中的nproc限制 (用途:进程数)
说明:假设你对进程总数量没有特殊要求,能够不改动本选项,假设你是一个高性能多进程的server。须要非常多进程来处理,那么能够改动本选项。
ulimit -a 里能够看到 max user processes 假设值是比較大的,能够不用设置 nproc 项。
配置文件:/etc/security/limits.d/20-nproc.conf (RHEL 7/CentOS 7)
* soft nproc 4096
root soft nproc unlimited
就是root无限(实际root用户限制是:255622)。其它非root用户是4096个进程。
说明:
硬限制表明soft限制中所能设定的最大值。
soft限制指的是当前系统生效的设置值。 hard限制值可以被普通用户减少。可是不能添加。 soft限制不能设置的比hard限制更高。 仅仅有root用户才可以添加hard限制值。
当添加文件限制描写叙述。能够简单的把当前值双倍。 样例例如以下, 假设你要提高默认值1024, 最好提高到2048, 假设还要继续添加。 就须要设置成4096。
4. 改动 file-max 选项 (用途:可分配文件句柄数目)
file-max 价值:指定了能够分配的文件句柄的最大数目(能够使用 /proc/sys/fs/file-nr 文件查看到当前已经使用的文件句柄和总句柄数。)
(1) 暂时生效:
文件路径:/proc/sys/fs/file-max cat /proc/sys/fs/file-max 3252210
假设要改动。直接覆盖文件:(比方改成200w)
sudo echo 2000000 > /proc/sys/fs/file-max
注意:假设你想每次启动都自己主动运行上面的命令,能够在系统启动配置文件/etc/rc.local里面加入一句命令:(跟永久生效差点儿相同)echo 2000000 > /proc/sys/fs/file-max或者直接Shell全搞定:echo "echo 2000000 > /proc/sys/fs/file-max" >> /etc/rc.local
(2) 永久生效:
改动配置文件,文件位置:/etc/sysctl.conf
打开配置文件到最末尾。假设配置文件中没有则能够直接加入:
sudo echo "fs.file-max = 2000000" >>/etc/sysctl.conf
配置文件生效:sudo /sbin/sysctl -p
5. 改动TCP等相关选项
配置文件:/etc/sysctl.conf
改动选项:
net.core.somaxconn = 2048
net.core.rmem_default = 262144
net.core.wmem_default = 262144
net.core.rmem_max = 16777216
net.core.wmem_max = 16777216
net.ipv4.tcp_rmem = 4096 4096 16777216
net.ipv4.tcp_wmem = 4096 4096 16777216
net.ipv4.tcp_mem = 786432 2097152 3145728
net.ipv4.tcp_max_syn_backlog = 16384
net.core.netdev_max_backlog = 20000
net.ipv4.tcp_fin_timeout = 15
net.ipv4.tcp_max_syn_backlog = 16384
net.ipv4.tcp_tw_reuse = 1
net.ipv4.tcp_tw_recycle = 1
net.ipv4.tcp_max_orphans = 131072
配置文件生效:sudo /sbin/sysctl -p
以上选项也能够直接给 /proc/sys/net/ 文件夹以下依照各个选项能够直接使用 echo VALUE > /proc/sys/net/core/wmem_max 来直接改动内存暂时值生效。
主要看这几项:
-
net.ipv4.tcp_rmem 用来配置读缓冲的大小,三个值。第一个是这个读缓冲的最小值,第三个是最大值。中间的是默认值。
我们能够在程序中改动读缓冲的大小。可是不能超过最小与最大。
为了使每一个socket所使用的内存数最小,我这里设置默认值为4096。
-
net.ipv4.tcp_wmem 用来配置写缓冲的大小。读缓冲与写缓冲在大小,直接影响到socket在内核中内存的占用。
-
net.ipv4.tcp_mem 则是配置tcp的内存大小,其单位是页,而不是字节。当超过第二个值时,TCP进入 pressure模式,此时TCP尝试稳定其内存的使用。当小于第一个值时。就退出pressure模式。
当内存占用超过第三个值时。TCP就拒绝分配 socket了,查看dmesg,会打出非常多的日志“TCP: too many of orphaned sockets”。
-
net.ipv4.tcp_max_orphans 这个值也要设置一下,这个值表示系统所能处理不属于不论什么进程的 socket数量,当我们须要高速建立大量连接时,就须要关注下这个值了。当不属于不论什么进程的socket的数量大于这个值时,dmesg就会看 到”too many of orphaned sockets”。
注意:假设是client程序,为了更好的訪问server程序不是卡在port分配上。建议把client的port(port_range)范围开大一些:
改动文件:/etc/sysctl.conf
net.ipv4.ip_local_port_range = 1024 65535
配置生效:sudo /sbin/sysctl -p
假设是client。其它文件打开限制等能够參考上面的来设置。
6. 其它一些配置
(1) 打开core文件
假设为了观察程序是否正常。出现故障后生成对应映像文件,能够开启coredump相关的操作,能够打开:(非必须,假设线上环境。操心影响稳定性,能够考虑不开启)
配置文件:/etc/security/limits.conf
改动配置文件:
添加:
* soft core 102400
* hard core 2048003
建议设置为无限大小:
* soft core unlimited
* hard core unlimited
然后重新启动机器生效(不确定能否够使用 /sbin/sysctl -p 生效),使用: ulimit -a 或 ulimit -c 查看结果,兴许假设程序出现栈溢出等都会生成coredump文件。方便用gdb等追查问题原因。
參考URL:
http://www.tuicool.com/articles/r6NvQr
http://blog.yufeng.info/archives/2568#more-2568
http://heylinux.com/archives/2938.html
http://club.1688.com/article/8964198.html
http://blog.csdn.net/qxk1989/article/details/7822792
http://blog.csdn.net/unix21/article/details/8743537
http://blog.csdn.net/force_eagle/article/details/6725243
转自黑夜路人微信公众号文章http://mp.weixin.qq.com/s?__biz=MjM5MDg2NjIyMA==&mid=207150100&idx=1&sn=92a20b281613d7d8eebd10458aa183be&scene=5#rd