Linux下各种连接数配置及高并发Nginx优化

对linux的调优比较欠缺,看到一篇挺不错的文档,借此转载一下并且学习整理。

转载自 https://www.psvmc.cn/article/2021-11-23-linux-connections-num.html

前言

在性能测试过程中,经常会接触到链接数相关的问题,那就是一台服务器最多能支持多少链接数呢?

有的朋友可能会说是65535,因为操作系统有65535个端口,那么这个答案准确吗?

首先先了解下如何标识一个链接,操作系统是通过一个四元组来标识一个TCP链接:

{本地ip,本地port,远程ip,远程port}

这四个要素唯一确定一个TCP链接,任意一个要素不相同,就认为是一个不同的链接。

在Linux系统中,一切皆文件,每一个TCP链接都要占用一个文件句柄,系统允许创建的链接数取决于句柄数的上限。超过这个值再创建链接就会报这样的错误:

Can't open so many files

内核文件描述符

查看及修改内核文件描述符的最大限制

查看

more /proc/sys/fs/file-max

临时生效 echo 3195430 > /proc/sys/fs/file-max

立即生效,永久生效

echo "fs.file-max = 3195430" >> /etc/sysctl.conf

sysctl -p

系统连接数

查看

ulimit -n

参数

arduino 复制代码
    -S	use the soft resource limit # 设置软限制      
    -H	use the hard resource limit # 设置硬限制   
    -a	all current limits are reported# 显示所有的配置。      
    -b	the socket buffer size # 设置socket buffer 的最大值。      
    -c	the maximum size of core files created # 设置core文件的最大值.       
    -d	the maximum size of a process's data segment  # 设置线程数据段的最大值 
    -e	the maximum scheduling priority ('nice') # 设置最大调度优先级       
    -f	the maximum size of files written by the shell and its children # 创建文件的最大值。       
    -i	the maximum number of pending signals # 设置最大的等待信号       
    -l	the maximum size a process may lock into memory #设置在内存中锁定进程的最大值      
    -m	the maximum resident set size        
    -n	the maximum number of open file descriptors # 设置最大可以的打开文件描述符。      
    -p	the pipe buffer size       
    -q	the maximum number of bytes in POSIX message queues       
    -r	the maximum real-time scheduling priority      
    -s	the maximum stack size       
    -t	the maximum amount of cpu time in seconds       
    -u	the maximum number of user processes  # 设置用户可以创建的最大进程数. 
    -v	the size of virtual memory  # 设置虚拟内存的最大值       
    -x	the maximum number of file locks 

临时生效

bash 复制代码
ulimit -HSn 65535 

永久生效

bash 复制代码
cat /etc/security/limits.conf 

配置如下

markdown 复制代码
* soft nofile 65535 
* hard nofile 65535 
* soft nproc 65535 
* hard nproc 65535 

通过

css 复制代码
sysctl -p 

使得配置生效,可用通过ulimit -a查看file配置是否生效,临时设置也可用通过ulimit -u 65535 配置。

查看系统当前的连接数

css 复制代码
netstat -ant | awk '/^tcp/ {++S[$NF]} END {for(a in S) print a, S[a]}' 

结果

LAST_ACK 54

SYN_RECV 5

ESTABLISHED 4636

FIN_WAIT1 52

FIN_WAIT2 299

CLOSING 3

TIME_WAIT 1344

解析:

  • LAST_ACK //等待所有分组死掉
  • SYN_RECV //一个连接请求已经到达,等待确认
  • ESTABLISHED //正常数据传输状态/当前并发连接数
  • FIN_WAIT1 //应用说它已经完成
  • FIN_WAIT2 //另一边已同意释放
  • CLOSING //两边同时尝试关闭
  • TIME_WAIT //另一边已初始化一个释放

单独查看TIME_WAIT

css 复制代码
ss -nat | grep TIME-WAIT 

这里看到大部分都是9001和9011端口的服务占用的

我们查询一下数量

perl 复制代码
ss -nat | grep TIME-WAIT | grep 9001 | wc -l 
ss -nat | grep TIME-WAIT | grep 9011 | wc -l 

内核参数的优化

查看内核参数

css 复制代码
sysctl -a 

注意

调整内核参数后,内核处于不稳定状态,请务必重启实例。

打开配置文件

bash 复制代码
vi /etc/sysctl.conf 

修改

ini 复制代码
# 打开文件句柄数量 
fs.file-max = 655360 
# 最大ip跟踪数 
net.nf_conntrack_max = 655360 

#表示当keepalive起用的时候,TCP发送keepalive消息的频度。缺省是2小时,改为2分钟。 
net.netfilter.nf_conntrack_tcp_timeout_established = 120  

# 允许系统打开的端口范围,扩大端口数 
net.ipv4.ip_local_port_range = 10000 65535  

# 用来限制监听(LISTEN)队列最大数据包的数量,超过这个数量就会导致链接超时或者触发重传机制, 
net.core.somaxconn = 65535 

# 每个网络接口接收数据包的速率比内核处理这些包的速率快时,允许送到队列的数据包的最大数目。 
net.core.netdev_max_backlog = 262144  

# TIME_WAIT相关 
# TIME_WAIT 最高的队列数 
net.ipv4.tcp_max_tw_buckets = 262144 

# timeout状态时间 
net.ipv4.tcp_fin_timeout = 15 

# 开启时就是同一个源IP来连接同一个目的端口的数据包时间戳必须是递增的,否则就丢弃 
net.ipv4.tcp_timestamps = 1 

# 开启重用。允许将TIME-WAIT sockets 重新用于新的TCP 连接。 
net.ipv4.tcp_tw_reuse = 1 

# 是否启用timewait 快速回收。如果服务器身处NAT环境,tcp_timestamps为1,安全起见,要禁止 net.ipv4.tcp_tw_recycle = 0  
net.ipv4.ip_conntrack_max = 10240  

# 系统中最多有多少个TCP 套接字不被关联到任何一个用户文件句柄上。如果超过这个数字,孤儿连接将即刻被复位并打印出警告信息。 
net.ipv4.tcp_max_orphans = 262144 

# 是指定所能接受SYN同步包的最大客户端数量。 
net.ipv4.tcp_max_syn_backlog = 262144 

# 为了打开对端的连接,内核需要发送一个SYN,以确认收到上一个 SYN连接请求包。也就是所谓三次握手中的第二次握手。 
# 这个设置决定了内核放弃连接之前发送SYN+ACK 包的数量。 
net.ipv4.tcp_synack_retries = 1 

# 对于一个新建连接,内核要发送多少个 SYN 连接请求才决定放弃,测试感觉两个更稳定 
net.ipv4.tcp_syn_retries = 2 

# 开启SYN Cookies,当出现SYN 等待队列溢出时,启用cookies 来处理,目的是为了防止syn flood攻击。合法用户的高负载应该调整tcp_max_syn_backlog、tcp_synack_retries属性, 
net.ipv4.tcp_syncookies = 0 

使得配置生效

css 复制代码
sysctl -p 

TIME_WAIT有关的配置

ini 复制代码
# TIME_WAIT 最高的队列数 
net.ipv4.tcp_max_tw_buckets = 262144 

调整次参数的同时,要调整TIME_WAIT_2到TIME_WAIT的超时时间,默认是60s,优化到30s:

ini 复制代码
# TIME_WAIT_2到TIME_WAIT的超时时间 
net.ipv4.tcp_fin_timeout = 30

# 其它TCP本身的配合参数类似与synack重传次数、syn重传次数等以后介绍,优化后也是有所益处的。
# 开启时就是同一个源IP来连接同一个目的端口的数据包时间戳必须是递增的,否则就丢弃 net.ipv4.tcp_timestamps = 1

# 开启重用。允许将TIME-WAIT sockets 重新用于新的TCP 连接。 
net.ipv4.tcp_tw_reuse = 1

# 机器作为客户端时起作用,开启后time\_wait在一秒内回收
# 不要开启,现在互联网NAT结构很多,可能直接无法三次握手
# 不要开启,现在互联网NAT结构很多,可能直接无法三次握手 
net.ipv4.tcp_tw_recycle = 0

Nginx连接数

查看连接数

查看Nginx并发连接数 netstat -apn|grep 'nginx: worker'|wc -l

CPU相关信息查看

bash 复制代码
# 逻辑CPU个数: 
cat /proc/cpuinfo | grep "processor" | wc -l  

# 物理CPU个数: 
cat /proc/cpuinfo | grep "physical id" | sort | uniq | wc -l  

# 每个物理CPU中Core的个数: 
cat /proc/cpuinfo | grep "cpu cores" | wc -l 

配置连接数

Nginx总并发连接数 = worker数量 * worker_connections

一般建立连接的角度:客户并发连接为1.

nginx作为http服务器的时候:

max_clients = worker_processes * worker_connections

nginx作为反向代理服务器的时候:

max_clients = worker_processes * worker_connections/2

nginx做反向代理时,和客户端之间保持一个连接,和后端服务器保持一个连接。

但是怎样合理的设置worker_processes与worker_connections这两个参数?

ini 复制代码
user nginx;  

worker_processes  auto; 
worker_rlimit_nofile 256000;  

events {         
        use epoll;         
        worker_connections 65535;         
        multi_accept on; }  
       
http {     

} 

根节点配置

yaml 复制代码
worker_processes  auto; 
worker_rlimit_nofile 65535; 
worker_cpu_affinity 0001 0010 0100 1000; 
worker_processes

worker角色的进程个数(nginx启动后有多少个worker处理http请求。master不处理请求,而是根据相应配置文件信息管理worker进程. master进程主要负责对外揽活(即接收客户端的请求),并将活儿合理的分配给多个worker,每个worker进程主要负责干活(处理请求))。

nginx运行工作进程个数,一般设置cpu的核心或者核心数x2,如:worker_processes 4;

可以设置为autoauto这个参数值是从nginx 1.3.8和nginx 1.2.5 开始进行支持的,自动参数可以自动检测 cpu cores 并设置 worker_processes 参数 。

arduino 复制代码
worker_processes  auto; 

worker_processes最多开启8个,8个以上性能就不会再提升了,而且稳定性会变的更低,因此8个进程够用了。

查看nginx当前进程数:

perl 复制代码
ps -aux | grep nginx |grep -v grep 
worker_rlimit_nofile

Nginx最多可以打开文件数,与ulimit -n保持一致,如:worker_rlimit_nofile 65535;

为nginx工作进程改变打开最多文件描述符数目的限制。用来在不重启主进程的情况下增加限制。

worker_cpu_affinity

运行CPU亲和力,与worker_processes对应,如:worker_cpu_affinity 0001 0010 0100 1000;

2核cpu,开启2个进程

ini 复制代码
worker_processes     2; 
worker_cpu_affinity 01 10; 

解释:01表示启用第一个CPU内核,10表示启用第二个CPU内核

worker_cpu_affinity 01 10;表示开启两个进程,第一个进程对应着第一个CPU内核,第二个进程对应着第二个CPU内核。

2核cpu,开启4个进程

ini 复制代码
worker_processes     4; 
worker_cpu_affinity 01 10 01 10; 

解释:开启了四个进程,它们分别对应着开启2个CPU内核

4个cpu,开启4个进程

yaml 复制代码
worker_processes     4; 
worker_cpu_affinity 0001 0010 0100 1000; 

解释:0001表示启用第一个CPU内核,0010表示启用第二个CPU内核,依此类推

4核cpu,开启2个进程

ini 复制代码
worker_processes     2; 
worker_cpu_affinity 0101 1010; 

解释:0101表示开启第一个和第三个内核,1010表示开启第二个和第四个内核;2个进程对应着四个内核;worker_cpu_affinity配置是写在/etc/nginx/nginx.conf里面的;2核是 01,四核是0001,8核是00000001,有多少个核,就有几位数,1表示该内核开启,0表示该内核关闭。

8核cpu,开启8个进程

ini 复制代码
worker_processes     8; 
worker_cpu_affinity 00000001 00000010 00000100 00001000 00010000 00100000 01000000 10000000; 

解释:0001表示启用第一个CPU内核,0010表示启用第二个CPU内核,依此类推;worker_processes最多开启8个,8个以上性能提升不会再提升了,而且稳定性变得更低,所以8个进程够用了。

配置完之后可以重启nginx,用ab工具或者wrk工具,可以进行性能测试。

在服务器上执行top,然后按1,就可以多个CPU工作情况,如果多个CPU内核的利用率差不多,就证明Nginx已经成功利用了多核CPU。

events

事件处理模型。

csharp 复制代码
events {   use epoll;   worker_connections 65535;   multi_accept on; } 

use epoll :nginx采用epoll事件模型,处理效率高
work_connections :是单个worker进程允许客户端最大连接数,这个数值一般根据服务器性能和内存来制定,实际最大值就是worker进程数乘以work_connections,实际我们填入一个65535,足够了,这些都算并发值,一个网站的并发达到这么大的数量,也算一个大站了!
multi_accept :告诉nginx收到一个新连接通知后接受尽可能多的连接,默认是on,设置为on后,多个worker按串行方式来处理连接,也就是一个连接只有一个worker被唤醒,其他的处于休眠状态,设置为off后,多个worker按并行方式来处理连接,也就是一个连接会唤醒所有的worker,直到连接分配完毕,没有取得连接的继续休眠。当你的服务器连接数不多时,开启这个参数会让负载有一定的降低,但是当服务器的吞吐量很大时,为了效率,可以关闭这个参数。

重启

检查配置文件是否可用

复制代码
nginx -t 

重新加载配置文件

复制代码
service nginx reload 

或者重启

复制代码
service nginx restart 

进程信息

查看进程连接数

总连接数

bash 复制代码
ps -ef |wc -l 

查询用户的连接数统计

bash 复制代码
ps -ef |awk '{print $1}' |sort |uniq -c |sort -rn 

查看某个进程连接数:

bash 复制代码
lsof -i:8|wc -l lsof -p 12345|wc -l 

其中

-p:对应进程的PID

-i:对应进程的端口号

或者使用下面命令也能获取到

bash 复制代码
netstat -nat|grep -i 8018|wc -l 

查看进程的线程数

物理内存决定的系统进程数上限

bash 复制代码
cat /proc/sys/kernel/threads-max 

系统的进程或线程限制数

这个值表示进程ID的上限。为了兼容旧版,默认为32768(即两个字节)

bash 复制代码
cat /proc/sys/kernel/pid_max 

用户最大进程或线程数

使用命令:

bash 复制代码
ulimit -u 

ps -ef只打印进程,而ps -eLf会打印所有的线程

perl 复制代码
ps -eLf | grep java 

ps -eLf各字段含义

  • UID:用户ID
  • PID:process id 进程id
  • PPID: parent process id 父进程id
  • LWP:表示这是个线程;要么是主线程(进程),要么是线程
  • NLWP: num of light weight process 轻量级进程数量,即线程数量
  • STIME: start time 启动时间
  • TIME: 占用的CPU总时间
  • TTY:该进程是在哪个终端运行的;pts/0255代表虚拟终端,一般是远程连接的终端;tty1tty7 代表本地控制台终端
  • CMD:进程的启动命令

查看pid

css 复制代码
lsof -i:8018 

假如pid为26281

查询线程

css 复制代码
top -H -p ${pid} # 或者  top -p ${pid} #然后 shitf + H 

查询线程数量

bash 复制代码
cat /proc/${pid}/status 

获取线程的PID

bash 复制代码
ls /proc/${pid}/task 

树状显示线程

bash 复制代码
pstree -p ${pid} 

列表显示线程

bash 复制代码
ps -hH -p ${pid} 

进程命令数

查询进程正在运行的命令数

bash 复制代码
lsof |awk '{print $1}' |sort |uniq -c |sort -rn 
相关推荐
砖头拍死你7 分钟前
51单片机如何使用printf打印unsigned long的那些事
java·前端·51单片机
用户15129054522016 分钟前
css —pointer-events属性_css pointer-events
前端
帅夫帅夫17 分钟前
Axios 入门指南:从基础用法到实战技巧
前端
云边散步19 分钟前
《校园生活平台从 0 到 1 的搭建》第四篇:微信授权登录前端
前端·javascript·后端
讨厌吃蛋黄酥21 分钟前
React样式冲突终结者:CSS模块化+Vite全链路实战指南🔥
前端·javascript·react.js
噔噔42822 分钟前
使用webworker优化大文件生成hash的几种方式
前端
Hilaku29 分钟前
原生<dialog>元素:别再自己手写Modal弹窗了!
前端·javascript·html
NeverSettle1105741 小时前
手把手教你用nodejs + vue3 实现大文件上传、秒传、断点续传
前端·面试
用户1512905452201 小时前
crossorigin注解添加了解决不了跨域问题_CORS与@CrossOrigin详解
前端
Silkide1 小时前
前端数据拷贝简史
前端