ITPub博客

首页 > Linux操作系统 > Linux操作系统 > Linux Network Tuning Linux网络环境性能优化调整

Linux Network Tuning Linux网络环境性能优化调整

原创 Linux操作系统 作者:syzxlyx_cu 时间:2009-09-28 12:15:38 0 删除 编辑
Linux Network Tuning Linux网络环境性能优化调整来源:cnbird2008的专栏 作者: 发布时间:2009-06-20 点击:6 标签:linux linux性能优化 linux配置  
(以前写的,当时用的RH Linux AS5.)
如下网络配置参数调整,主要是针对请求压力大的Linux (2.6 kernel)服务器而言.
如果服务器压力不大,那么维持默认即可.
 
下述内容取材于"Performance Tuning For Linux Server"一书.
 
$ /proc/sys/net/core/wmem_max
最大socket写buffer,可参考的优化值:873200
 
$ /proc/sys/net/core/rmem_max
最大socket读buffer,可参考的优化值:873200
 
$ /proc/sys/net/ipv4/tcp_wmem
TCP写buffer,可参考的优化值: 8192  436600  873200
 
$ /proc/sys/net/ipv4/tcp_rmem
TCP读buffer,可参考的优化值: 32768  436600  873200
 
$ /proc/sys/net/ipv4/tcp_mem
同样有3个值,意思是:
net.ipv4.tcp_mem[0]:低于此值,TCP没有内存压力.
net.ipv4.tcp_mem[1]:在此值下,进入内存压力阶段.
net.ipv4.tcp_mem[2]:高于此值,TCP拒绝分配socket.
上述内存单位是页,而不是字节.
可参考的优化值是:786432  1048576 1572864
 
$ /proc/sys/net/core/netdev_max_backlog
进入包的最大设备队列.默认是300,对重负载服务器而言,该值太低,可调整到1000.
 
$ /proc/sys/net/core/somaxconn
listen()的默认参数,挂起请求的最大数量.默认是128.对繁忙的服务器,增加该值有助于网络性能.
可调整到256.
 
$ /proc/sys/net/core/optmem_max
socket buffer的最大初始化值,默认10K.
 
$ /proc/sys/net/ipv4/tcp_max_syn_backlog
进入SYN包的最大请求队列.默认1024.对重负载服务器,增加该值显然有好处.
可调整到2048.
 
$ /proc/sys/net/ipv4/tcp_retries2
TCP失败重传次数,默认值15,意味着重传15次才彻底放弃.可减少到5,以尽早释放内核资源.
 
$ /proc/sys/net/ipv4/tcp_keepalive_time
$ /proc/sys/net/ipv4/tcp_keepalive_intvl
$ /proc/sys/net/ipv4/tcp_keepalive_probes
这3个参数与TCP KeepAlive有关.默认值是:
tcp_keepalive_time = 7200 seconds (2 hours)
tcp_keepalive_probes = 9
tcp_keepalive_intvl = 75 seconds
意思是如果某个TCP连接在idle 2个小时后,内核才发起probe.
如果probe 9次(每次75秒)不成功,内核才彻底放弃,认为该连接已失效.
对服务器而言,显然上述值太大. 可调整到:
/proc/sys/net/ipv4/tcp_keepalive_time  1800
/proc/sys/net/ipv4/tcp_keepalive_intvl  30
/proc/sys/net/ipv4/tcp_keepalive_probes  3
 
$ proc/sys/net/ipv4/ip_local_port_range
指定端口范围的一个配置,默认是32768   61000,已够大

来自 “ ITPUB博客 ” ,链接:http://blog.itpub.net/20542911/viewspace-615790/,如需转载,请注明出处,否则将追究法律责任。

请登录后发表评论 登录
全部评论

注册时间:2009-09-28

  • 博文量
    125
  • 访问量
    124042