[转帖]内核 TCP 参数调优

内核,tcp,参数 · 浏览次数 : 0

小编点评

**优化Linux内核参数的建议** **TIME_WAIT状态连接的优化** * **开启SYNCookies**: `net.ipv4.tcp_syncookies= 1` * **开启重用**: `net.ipv4.tcp_tw_reuse= 1` * **开启 TCP 连接快速回收**: `net.ipv4.tcp_tw_recycle= 1` * **设置 TCP keepalive 时间**: `net.ipv4.tcp_keepalive_time= 1200` **其他优化** * **设置 TCP 端口范围**: `net.ipv4.tcp_max_syn_backlog= 8192` * **设置 TCP 窗口大小**: `net.ipv4.tcp_max_tw_buckets= 5000` * **降低 TIME_WAIT sockets 的数量**: `net.ipv4.tcp_fin_timeout= 30` * **降低 TIME_WAIT sockets 的优先级**: `net.ipv4.tcp_mem= 8388608` **注意** * 以上优化建议仅适用于轻量级网站或应用程序。 * 优化内核参数可能影响系统性能,请在开启任何优化之前测试。 * 对于敏感的应用程序,如 Web 服务器,请谨慎执行这些优化。

正文

https://cloud.tencent.com/developer/article/1993859?areaSource=&traceId=

 

Linux系统下,TCP连接断开后,会以 TIME_WAIT 状态保留一定时间,然后才释放端口。当并发请求过多时,会产生大量 TIME_WAIT 状态连接,无法及时断开会占用大量的端口资源和服务器资源。这时可优化TCP内核参数,及时将TIME_WAIT状态的端口清理掉。

下面方法只对大量 TIME_WAIT 状态的连接导致系统资源消耗有效,如不是这种情况,效果可能不明显。可用 netstat 命令查 TIME_WAIT 状态,输入下面命令,

查看当前TCP连接的状态和对应的连接数量:

netstat -atn|awk '/^tcp/{++count[$NF]} END {for(a in count) print a,count[a]}'

#这个命令会输出类似下面的结果:
LAST_ACK18
SYN_RECV364
ESTABLISHED70
FIN_WAIT1342
FIN_WAIT260
CLOSING43
TIME_WAIT15649

只用关心 TIME_WAIT 个数,看到有15000多个 TIME_WAIT,这就占了15000多个端口。端口数量只有65535个,占一个少一个,严重影响到新连接。这时,有必要调整下Linux的TCP内核参数,让系统更快的释放TIME_WAIT连接。

编辑配置文件:/etc/sysctl.conf,在这个文件中,加入下面几行内容:

net.ipv4.tcp_syncookies= 1	#开启SYNCookies。当SYN等待队列溢出时,启用cookies处理,可防范少量SYN攻击,默认0,表关闭;
net.ipv4.tcp_tw_reuse= 1	#开启重用。允许将TIME-WAITsockets重用于新的TCP连接,默认0,表示关闭;
net.ipv4.tcp_tw_recycle= 1	#开启TCP连接中TIME-WAITsockets的快速回收,默认0,表关闭;
net.ipv4.tcp_fin_timeout= 30	#修改系統默认的 TIMEOUT 时间。

输入下面的命令,让内核参数生效:

sysctl -p

经过这样调整后,除进一步提升服务器的负载能力外,还能防御小流量程度的DoS、CC和SYN攻击。

此外,如果连接数本身就很多,可再优化TCP 的可用端口范围,进一步提升服务器的并发能力。依然是往上面的参数文件中,加入下面配置:

net.ipv4.tcp_keepalive_time= 1200	#当keepalive起用时,TCP发送keepalive消息的频度。缺省是2小时,改为20分钟。
net.ipv4.ip_local_port_range= 1024 65535	#用于向外连接的端口范围。缺省情况下很小,改为1024到65535。
net.ipv4.tcp_max_syn_backlog= 8192	#SYN队列长度,默认为1024,加大队列长度为8192,可容纳更多等待连接的网络连接数。
net.ipv4.tcp_max_tw_buckets= 5000	#表示系统同时保持TIME_WAIT最大数量,如果超过,TIME_WAIT将立刻被清除并打印警告信息。默认180000,改为5000。此项参数可控制TIME_WAIT 最大数量。

这几个参数,建议在流量非常大的服务器上开启,会有显著效果。一般的流量小的服务器上,没必要去设这几个参数。

内核其他TCP参数说明:

net.ipv4.tcp_max_syn_backlog= 65536		#记录尚未收到客户端确认信息的连接请求的最大值。对于有128M内存的系统而言,缺省值是1024,小内存系统则是128。
net.core.netdev_max_backlog= 32768		#每个网络接口接收数据包的速率比内核处理的速率快时,允许送到队列的数据包的最大数目。
net.core.somaxconn= 32768		#如web应用中listen函数的backlog默认会给我们内核参数的net.core.somaxconn限制到128,而 nginx 定义的 NGX_LISTEN_BACKLOG 默认511,所以有必要调整这个值。
net.core.wmem_default= 8388608
net.core.rmem_default= 8388608
net.core.rmem_max= 16777216 #最大socket读buffer,可参考优化值:873200
net.core.wmem_max= 16777216 #最大socket写buffer,可参考优化值:873200
net.ipv4.tcp_timestsmps= 0	#时间戳可避免序列号的卷绕。一个1Gbps的链路肯定会遇到以前用的序列号。时间戳能让内核接受这种“异常”的数据包。这里需将其关掉。
net.ipv4.tcp_synack_retries= 2	#为打开对端的连接,内核需发送个SYN并附带个回应前一个SYN的ACK。即三次握手中的第二次握手。该设置决定内核放弃连接前发SYN+ACK包的数量。
net.ipv4.tcp_syn_retries= 2	#在内核放弃建立连接前发送SYN包的数量。
#net.ipv4.tcp_tw_len= 1
net.ipv4.tcp_tw_reuse= 1		#开启重用。允许将TIME-WAITsockets重用于新TCP连接。
net.ipv4.tcp_wmem= 8192 436600 873200	#TCP写buffer,可参考优化值:8192 436600 873200

net.ipv4.tcp_rmem = 32768 436600 873200	#TCP读buffer,可参考优化值:32768 436600 873200

net.ipv4.tcp_mem= 94500000 91500000 92700000

#同样有3个值,意思是:
#net.ipv4.tcp_mem[0]:低于此值,TCP无内存压力。
#net.ipv4.tcp_mem[1]:在此值下,进入内存压力阶段。
#net.ipv4.tcp_mem[2]:高于此值,TCP拒绝分配socket。
#上述内存单位是页,而不是字节。可参考优化值是:7864321048576 1572864

net.ipv4.tcp_max_orphans= 3276800
#系统中最多有多少个TCP套接字不被关联到任何一个用户文件句柄上,如超过,连接将即刻被复位并打印警告信息,这个限制仅是为防止简单的DoS攻击,不能过分依靠它或人为减小这个值,更应该增加这个值(如果增加内存后)。

net.ipv4.tcp_fin_timeout= 30
#如果套接字由本端要求关闭,这个参数决定它保持在FIN-WAIT-2状态的时间。对端可出错并永不关闭连接,甚至意外当机。缺省值是60秒。2.2 内核的通常值是180秒,你可以按这个设置,但即使是个轻载的WEB服务器,也有因为大量的死套接字而内存溢出的风险,FIN-WAIT-2 的危险性比FIN-WAIT-1 小,因为它最多只能吃掉1.5K内存,但它们的生存期长些。

与[转帖]内核 TCP 参数调优相似的内容:

[转帖]内核 TCP 参数调优

https://cloud.tencent.com/developer/article/1993859?areaSource=&traceId= Linux系统下,TCP连接断开后,会以 TIME_WAIT 状态保留一定时间,然后才释放端口。当并发请求过多时,会产生大量 TIME_WAIT 状态连接

[转帖]Linux内核 TCP/IP、Socket参数调优

文章系转载,便于整理和分类,原文地址:http://www.360doc.com/content/14/0606/16/3300331_384326124.shtml Doc1: /proc/sys/net目录 所有的TCP/IP参数都位于/proc/sys/net目录下(请注意,对/proc/sy

[转帖]Linux内核调优

Linux服务器调优 转载于:https://blog.csdn.net/largetalk/article/details/16863689 安装一台新的Linux服务器之后都要做些配置调整工作,优化一下系统,以前零零碎碎记录过一些,这里集中整理一下。 Linux内核参数 net.ipv4.tcp

[转帖]内核参数优化

net.ipv4.tcp_timestamps= 1 #服务器时间截,默念为1 net.ipv4.tcp_tw_reuse= 1 #服务器作为客户端时起作用,开启后time_wait在一秒内回收,(两端都要开启tw_timestamps=1时才有效) net.ipv4.tcp_tw_recycle=

[转帖]一个简单的内核参数优化

一个简单的内核参数优化 作者:孤风孤影 https://www.bilibili.com/read/cv15200947/ 出处:bilibili net.ipv4.tcp_keepalive_time=600 #此参数表示TCP发送keepalive探测消息的间隔时间(秒) net.ipv4.tc

[转帖]linux中内核的一个不错的参数somaxconn

最近发现很多内核优化参数都记不住了,写下文章来备记,方便以后查看. 编辑 /etc/sysctl.conf 文件,在里面加入如下内容:(有注释) #设置系统对最大跟踪的TCP连接数的限制(CentOS 5.6无此参数) net.ipv4.ip_conntrack_max = 25000000 #最大

[转帖]已经被废弃的 tcp_tw_recycle

最近准备自己动手部署测试kubernetes集群,注备写一个 hands on 的手册。突发奇想将 centos 原有的内核从3.10更新到了4.14版本,并执行一些常规的优化操作。没有想到在修改了 sysctl.conf 里面的一些参数,希望能对新的 kubernetes 性能有所帮助。 当我在其

【转帖】TCP内核参数

https://www.cnblogs.com/chia/p/7799231.html tcp_syn_retries :INTEGER默认值是5对于一个新建连接,内核要发送多少个 SYN 连接请求才决定放弃。不应该大于255,默认值是5,对应于180秒左右时间。(对于大负载而物理通信良好的网络而言

[转帖]Linux内核参数net.ipv4.ip_local_port_range对服务器连接数影响的正确解释

首先明确一下该参数的意义:net.ipv4.ip_local_port_range表示本机作为客户端对外发起tcp/udp连接时所能使用的临时端口范围。 对于TCP连接,本机所能发起的tcp连接数受四元组(源地址*源端口*目标地址*目标端口)限制。 而对于UDP连接,本机所能发起的udp连接数则受二

[转帖]k8s实践指南-排错案例-tcp_tw_recycle 引发丢包

https://www.oomspot.com/post/k8sshijianzhinanpaicuoanlitcptwrecycleyinfadiubao tcp_tw_recycle 引发丢包 tcp_tw_recycle 这个内核参数用来快速回收 TIME_WAIT 连接,不过如果在 NAT