[转帖]linux中内核的一个不错的参数somaxconn

linux,内核,一个,不错,参数,somaxconn · 浏览次数 : 0

小编点评

# 配置参数排版 **1. TCP KeepAlive参数** ``` net.ipv4.tcp_keepalive_time = 1800 net.ipv4.tcp_keepalive_probes = 9 net.ipv4.tcp_keepalive_intvl = 30 ``` **2. SYN Cookies参数** ``` net.ipv4.tcp_syncookies = 1 ``` **3. TCP Reuse参数** ``` net.ipv4.tcp_tw_reuse = 1 ``` **4. TCP Fast Retry参数** ``` net.ipv4.tcp_tw_recycle = 1 ``` **5. TCP FIN Timeout参数** ``` net.ipv4.tcp_fin_timeout = 30 ``` **6. TCP Keepalive参数** ``` net.ipv4.tcp_keepalive_time = 1200 ``` **7. TCP Max SYN Backlog参数** ``` net.ipv4.tcp_max_syn_backlog = 8192 ``` **8. TCP Max Tw Bucket参数** ``` net.ipv4.tcp_max_tw_buckets = 5000 ``` **9. TIME_WAIT套接字参数** ``` net.ipv4.ip_local_port_range = 1024 65000 net.ipv4.tcp_max_syn_backlog = 8192 ``` **10. 配置参数排版** ``` # TCP KeepAlive net.ipv4.tcp_keepalive_time = 1800 net.ipv4.tcp_keepalive_probes = 9 net.ipv4.tcp_keepalive_intvl = 30 # SYN Cookies net.ipv4.tcp_syncookies = 1 # TCP Reuse net.ipv4.tcp_tw_reuse = 1 net.ipv4.tcp_tw_recycle = 1 # TCP Fast Retry net.ipv4.tcp_tw_recycle = 1 # TCP FIN Timeout net.ipv4.tcp_fin_timeout = 30 # TCP Keepalive net.ipv4.tcp_keepalive_time = 1200 # TCP Max SYN Backlog net.ipv4.tcp_max_syn_backlog = 8192 # TCP Max Tw Bucket net.ipv4.tcp_max_tw_buckets = 5000 # TIME_WAIT 套接字 net.ipv4.ip_local_port_range = 1024 65000 net.ipv4.tcp_max_syn_backlog = 8192 ```

正文

最近发现很多内核优化参数都记不住了,写下文章来备记,方便以后查看.

编辑 /etc/sysctl.conf 文件,在里面加入如下内容:(有注释)  

#设置系统对最大跟踪的TCP连接数的限制(CentOS 5.6无此参数)
net.ipv4.ip_conntrack_max = 25000000 

#最大的待发送TCP数据缓冲区空间  
net.inet.tcp.sendspace=65536  
 
#最大的接受TCP缓冲区空间  
net.inet.tcp.recvspace=65536  
 
#最大的接受UDP缓冲区大小  
net.inet.udp.sendspace=65535  
 
#最大的发送UDP数据缓冲区大小  
net.inet.udp.maxdgram=65535  
 
#本地套接字连接的数据发送空间  
net.local.stream.sendspace=65535  
 
#加快网络性能的协议  
net.inet.tcp.rfc1323=1  
net.inet.tcp.rfc1644=1  
net.inet.tcp.rfc3042=1  
net.inet.tcp.rfc3390=1  
 
#最大的套接字缓冲区  
kern.ipc.maxsockbuf=2097152  
 
#系统中允许的最多文件数量  
kern.maxfiles=65536  
 
#每个进程能够同时打开的最大文件数量  
kern.maxfilesperproc=32768  
 
#当一台计算机发起TCP连接请求时,系统会回应ACK应答数据包。该选项设置是否延迟ACK应答数据包,把它和包含数据的数据包一起发送

,在高速网络和低负载的情况下会略微提高性能,但在网络连接较差的时候,对方计算机得不到应答会持续发起连接请求,反而会降低性

能。  
net.inet.tcp.delayed_ack=0  
 
#屏蔽ICMP重定向功能  
net.inet.icmp.drop_redirect=1  
net.inet.icmp.log_redirect=1  
net.inet.ip.redirect=0  
net.inet6.ip6.redirect=0  
 
#防止ICMP广播风暴  
net.inet.icmp.bmcastecho=0  
net.inet.icmp.maskrepl=0  
 
#限制系统发送ICMP速率  
net.inet.icmp.icmplim=100  
 
#安全参数,编译内核的时候加了options TCP_DROP_SYNFIN才可以用  
net.inet.icmp.icmplim_output=0  
net.inet.tcp.drop_synfin=1  
 
#设置为1会帮助系统清除没有正常断开的TCP连接,这增加了一些网络带宽的使用,但是一些死掉的连接最终能被识别并清除。死的TCP连

接是被拨号用户存取的系统的一个特别的问题,因为用户经常断开modem而不正确的关闭活动的连接 
net.inet.tcp.always_keepalive=1  
 
#若看到net.inet.ip.intr_queue_drops这个在增加,就要调大net.inet.ip.intr_queue_maxlen,为0最好  
net.inet.ip.intr_queue_maxlen=1000  
 
#防止DOS攻击,默认为30000  
net.inet.tcp.msl=7500  
 
#接收到一个已经关闭的端口发来的所有包,直接drop,如果设置为1则是只针对TCP包  
net.inet.tcp.blackhole=2  
 
#接收到一个已经关闭的端口发来的所有UDP包直接drop  
net.inet.udp.blackhole=1  
 
#为网络数据连接时提供缓冲  
net.inet.tcp.inflight.enable=1  
 
#如果打开的话每个目标地址一次转发成功以后它的数据都将被记录进路由表和arp数据表,节约路由的计算时间,但会需要大量的内核内存

空间来保存路由表  
net.inet.ip.fastforwarding=0  
 
#kernel编译打开options POLLING功能,高负载情况下使用低负载不推荐SMP不能和polling一起用  
#kern.polling.enable=1  
 
#并发连接数,默认为128,推荐在1024-4096之间,数字越大占用内存也越大  
kern.ipc.somaxconn=32768  
 
#禁止用户查看其他用户的进程  
security.bsd.see_other_uids=0  
 
#设置kernel安全级别  
kern.securelevel=0  
 
#记录下任何TCP连接  
net.inet.tcp.log_in_vain=1  
 
#记录下任何UDP连接  
net.inet.udp.log_in_vain=1  
 
#防止不正确的udp包的攻击  
net.inet.udp.checksum=1  
 
#防止DOS攻击  
net.inet.tcp.syncookies=1  
 
#仅为线程提供物理内存支持,需要256兆以上内存  
kern.ipc.shm_use_phys=1  
 
# 线程可使用的最大共享内存  
kern.ipc.shmmax=67108864  
 
# 最大线程数量  
kern.ipc.shmall=32768  
 
# 程序崩溃时不记录  
kern.coredump=0  
 
# lo本地数据流接收和发送空间  
net.local.stream.recvspace=65536  
net.local.dgram.maxdgram=16384  
net.local.dgram.recvspace=65536  
 
# 数据包数据段大小,ADSL为1452。  
net.inet.tcp.mssdflt=1460  
 
# 为网络数据连接时提供缓冲  
net.inet.tcp.inflight_enable=1  
 
# 数据包数据段最小值,ADSL为1452  
net.inet.tcp.minmss=1460  
 
# 本地数据最大数量  
net.inet.raw.maxdgram=65536  
 
# 本地数据流接收空间  
net.inet.raw.recvspace=65536  
 
#ipfw防火墙动态规则数量,默认为4096,增大该值可以防止某些病毒发送大量TCP连接,导致不能建立正常连接  
net.inet.ip.fw.dyn_max=65535  
 
#设置ipf防火墙TCP连接空闲保留时间,默认8640000(120小时)  
net.inet.ipf.fr_tcpidletimeout=864000


$ /proc/sys/net/core/wmem_max
最大socket写buffer,可参考的优化值:873200
$ /proc/sys/net/core/rmem_max
最大socket读buffer,可参考的优化值:873200
$ /proc/sys/net/ipv4/tcp_wmem
TCP写buffer,可参考的优化值: 8192 436600 873200
$ /proc/sys/net/ipv4/tcp_rmem
TCP读buffer,可参考的优化值: 32768 436600 873200
$ /proc/sys/net/ipv4/tcp_mem
同样有3个值,意思是:
net.ipv4.tcp_mem[0]:低于此值,TCP没有内存压力.
net.ipv4.tcp_mem[1]:在此值下,进入内存压力阶段.
net.ipv4.tcp_mem[2]:高于此值,TCP拒绝分配socket.
上述内存单位是页,而不是字节.可参考的优化值是:786432 1048576 1572864
$ /proc/sys/net/core/netdev_max_backlog
进入包的最大设备队列.默认是300,对重负载服务器而言,该值太低,可调整到1000.
$ /proc/sys/net/core/somaxconn
listen()的默认参数,挂起请求的最大数量.默认是128.对繁忙的服务器,增加该值有助于网络性能.可调整到256.
$ /proc/sys/net/core/optmem_max
socket buffer的最大初始化值,默认10K.
$ /proc/sys/net/ipv4/tcp_max_syn_backlog
进入SYN包的最大请求队列.默认1024.对重负载服务器,增加该值显然有好处.可调整到2048.
$ /proc/sys/net/ipv4/tcp_retries2
TCP失败重传次数,默认值15,意味着重传15次才彻底放弃.可减少到5,以尽早释放内核资源.
$ /proc/sys/net/ipv4/tcp_keepalive_time
$ /proc/sys/net/ipv4/tcp_keepalive_intvl
$ /proc/sys/net/ipv4/tcp_keepalive_probes
这3个参数与TCP KeepAlive有关.默认值是:
tcp_keepalive_time = 7200 seconds (2 hours)
tcp_keepalive_probes = 9
tcp_keepalive_intvl = 75 seconds
意思是如果某个TCP连接在idle 2个小时后,内核才发起probe.如果probe 9次(每次75秒)不成功,内核才彻底放弃,认为该连接已失效.对服务器而言,显然上述值太大. 可调整到:
/proc/sys/net/ipv4/tcp_keepalive_time 1800
/proc/sys/net/ipv4/tcp_keepalive_intvl 30
/proc/sys/net/ipv4/tcp_keepalive_probes 3
$ proc/sys/net/ipv4/ip_local_port_range
指定端口范围的一个配置,默认是32768 61000,已够大.
 
net.ipv4.tcp_syncookies = 1
表示开启SYN Cookies。当出现SYN等待队列溢出时,启用cookies来处理,可防范少量SYN攻击,默认为0,表示关闭;

net.ipv4.tcp_tw_reuse = 1
表示开启重用。允许将TIME-WAIT sockets重新用于新的TCP连接,默认为0,表示关闭;

net.ipv4.tcp_tw_recycle = 1
表示开启TCP连接中TIME-WAIT sockets的快速回收,默认为0,表示关闭。

net.ipv4.tcp_fin_timeout = 30
表示如果套接字由本端要求关闭,这个参数决定了它保持在FIN-WAIT-2状态的时间。

net.ipv4.tcp_keepalive_time = 1200
表示当keepalive起用的时候,TCP发送keepalive消息的频度。缺省是2小时,改为20分钟。

net.ipv4.ip_local_port_range = 1024 65000
表示用于向外连接的端口范围。缺省情况下很小:32768到61000,改为1024到65000。

net.ipv4.tcp_max_syn_backlog = 8192
表示SYN队列的长度,默认为1024,加大队列长度为8192,可以容纳更多等待连接的网络连接数。

net.ipv4.tcp_max_tw_buckets = 5000

表示系统同时保持TIME_WAIT套接字的最大数量,如果超过这个数字,TIME_WAIT套接字将立刻被清除并打印警告信息。默认为180000,改为 5000。对于Apache、Nginx等服务器,上几行的参数可以很好地减少TIME_WAIT套接字数量,但是对于Squid,效果却不大。此项参数可以控制TIME_WAIT套接字的最大数量,避免Squid服务器被大量的TIME_WAIT套接字拖死。

与[转帖]linux中内核的一个不错的参数somaxconn相似的内容:

[转帖]linux中内核的一个不错的参数somaxconn

最近发现很多内核优化参数都记不住了,写下文章来备记,方便以后查看. 编辑 /etc/sysctl.conf 文件,在里面加入如下内容:(有注释) #设置系统对最大跟踪的TCP连接数的限制(CentOS 5.6无此参数) net.ipv4.ip_conntrack_max = 25000000 #最大

[转帖]单节点高并发Linux服务器影响接入能力的因素有哪些

在单台服务器承载数十万并发的情况下,影响服务器接入能力的因素已经不在是CPU、内存、带宽等表层因素,而是内核参数、设备配置、应用优化等多种细节因素。 1、最大打开文件数 Linux 中所有内容都是以文件的形式保存和管理的, 包括套接字、网络通信等资源,即一切皆文件,因此提升最大打开文件数是提高服务器

[转帖]Linux:页表中PGD、PUD、PMD、TLB等概念介绍

1、PGD: Page Global Directory Linux系统中每个进程对应用户空间的pgd是不一样的,但是linux内核 的pgd是一样的。当创建一个新的进程时,都要为新进程创建一个新的页面目录PGD,并从内核的页面目录swapper_pg_dir中复制内核区间页面目录项至新建进程页面目

[转帖]使用 Crash 工具分析 Linux dump 文件

前言 Linux 内核(以下简称内核)是一个不与特定进程相关的功能集合,内核的代码很难轻易的在调试器中执行和跟踪。开发者认为,内核如果发生了错误,就不应该继续运行。因此内核发生错误时,它的行为通常被设定为系统崩溃,机器重启。基于动态存储器的电气特性,机器重启后,上次错误发生时的现场会遭到破坏,这使得

[转帖]Linux之Shell 脚本执行三种方式

什么是Shell? Shell是用户与内核进行交互操作的一种接口,目前最流行的Shell称为bash ShellShell也是一门编程语言<解释型的编程语言>,即shell脚本一个系统可以存在多个shell,可以通过cat /etc/shells命令查看系统中安装的shell,不同的shell可能支

[转帖]Linux块层技术全面剖析-v0.1

Linux块层技术全面剖析-v0.1 perftrace@gmail.com 前言 网络上很多文章对块层的描述散乱在各个站点,而一些经典书籍由于更新不及时难免更不上最新的代码,例如关于块层的多队列。那么,是时候写一个关于linux块层的中文专题片章了,本文基于内核4.17.2。 因为文章中很多内容都

[转帖]《Linux性能优化实战》笔记(六)—— Linux 软中断与对应故障分析方法

中断是系统用来响应硬件设备请求的一种机制,它会打断进程的正常调度和执行,然后调用内核中的中断处理程序来响应设备的请求。 一、 为什么要有中断 举个生活中的例子,让你感受一下中断的魅力。比如说你订了一份外卖,但是不确定外卖什么时候送到,也没有别的方法了解外卖的进度,但是,配送员送外卖是不等人的,到了你

[转帖]一文读懂Linux内核中的并发和竞争

https://zhuanlan.zhihu.com/p/561865798 内核中的并发和竞争简介 在早期的 Linux内核中,并发的来源相对较少。早期内核不支持对称多处理( symmetric multi processing,SMP),因此,导致并发执行的唯一原因是对硬件中断的服务。这种情况处

[转帖]Linux 内核内存性能调优的一些笔记

https://my.oschina.net/u/6150560/blog/7759034 一、前言 在工作生活中,我们时常会遇到一些性能问题:比如手机用久了,在滑动窗口或点击 APP 时会出现页面反应慢、卡顿等情况;比如运行在某台服务器上进程的某些性能指标(影响用户体验的 PCT99 指标等)不达

[转帖]linux中top命令显示不全怎么解决

https://www.yisu.com/zixun/697775.html 这篇“linux中top命令显示不全怎么解决”文章的知识点大部分人都不太理解,所以小编给大家总结了以下内容,内容详细,步骤清晰,具有一定的借鉴价值,希望大家阅读完这篇文章能有所收获,下面我们一起来看看这篇“linux中to