zoukankan      html  css  js  c++  java
  • Linux TCP/IP 协议栈调优

    文章转载于:http://colobu.com/2014/09/18/linux-tcpip-tuning/

    最近忙于系统性能的DEBUG和调优。 有些性能瓶颈和Linux的TCP/IP的协议栈的设置有关,所以特别google了一下Linux TCP/IP的协议栈的参数意义和配置,记录一下。
    如果想永久的保存参数的设置, 可以将参数加入到/etc/sysctl.conf中。如果想临时的更改参数的配置, 可以修改/proc/sys/net/ipv4/下的参数, 机器重启后更改失效。


    杨云1028整理的参数的说明:
    参考文章:
    linux内核TCP相关参数解释
    http://os.chinaunix.net/a2008/0918/985/000000985483.shtml

    linux内核参数优化
    http://blog.chinaunix.net/uid-29081804-id-3830203.html

    linux内核参数注释

    根据参数文件所处目录不同而进行分表整理
    下列文件所在目录:/proc/sys/net/ipv4/

    名称

    默认值

    建议值

    描述

    tcp_syn_retries

    5

    1

    对于一个新建连接,内核要发送多少个 SYN 连接请求才决定放弃。不应该大于255,默认值是5,对应于180秒左右时间。。(对于大负载而物理通信良好的网络而言,这个值偏高,可修改为2.这个值仅仅是针对对外的连接,对进来的连接,是由tcp_retries1决定的)

    tcp_synack_retries

    5

    1

    对于远端的连接请求SYN,内核会发送SYN  ACK数据报,以确认收到上一个 SYN连接请求包。这是所谓的三次握手( threeway handshake)机制的第二个步骤。这里决定内核在放弃连接之前所送出的 SYN+ACK 数目。不应该大于255,默认值是5,对应于180秒左右时间。

    tcp_keepalive_time

    7200

    600

    TCP发送keepalive探测消息的间隔时间(秒),用于确认TCP连接是否有效。

    防止两边建立连接但不发送数据的攻击。

    tcp_keepalive_probes

    9

    3

    TCP发送keepalive探测消息的间隔时间(秒),用于确认TCP连接是否有效。

    tcp_keepalive_intvl

    75

    15

    探测消息未获得响应时,重发该消息的间隔时间(秒)。默认值为75秒。 (对于普通应用来说,这个值有一些偏大,可以根据需要改小.特别是web类服务器需要改小该值,15是个比较合适的值)

    tcp_retries1

    3

    3

    放弃回应一个TCP连接请求前﹐需要进行多少次重试。RFC 规定最低的数值是3

    tcp_retries2

    15

    5

    在丢弃激活(已建立通讯状况)TCP连接之前﹐需要进行多少次重试。默认值为15,根据RTO的值来决定,相当于13-30分钟(RFC1122规定,必须大于100).(这个值根据目前的网络设置,可以适当地改小,我的网络内修改为了5)

    tcp_orphan_retries

    7

    3

    在近端丢弃TCP连接之前﹐要进行多少次重试。默认值是7个﹐相当于 50 - 16分钟﹐视 RTO 而定。如果您的系统是负载很大的web服务器﹐那么也许需要降低该值﹐这类 sockets 可能会耗费大量的资源。另外参的考tcp_max_orphans(事实上做NAT的时候,降低该值也是好处显著的,我本人的网络环境中降低该值为3)

    tcp_fin_timeout

    60

    2

    对于本端断开的socket连接,TCP保持在FIN-WAIT-2状态的时间。对方可能会断开连接或一直不结束连接或不可预料的进程死亡。默认值为 60 秒。

    tcp_max_tw_buckets

    180000

    36000

    系统在同时所处理的最大 timewait sockets 数目。如果超过此数的话﹐time-wait socket 会被立即砍除并且显示警告信息。之所以要设定这个限制﹐纯粹为了抵御那些简单的 DoS 攻击﹐不过﹐如果网络条件需要比默认值更多﹐则可以提高它(或许还要增加内存)(事实上做NAT的时候最好可以适当地增加该值)

    tcp_tw_recycle

    0

    1

    打开快速 TIME-WAIT sockets 回收。除非得到技术专家的建议或要求﹐请不要随意修改这个值。(NAT的时候,建议打开它)

    tcp_tw_reuse

    0

    1

    表示是否允许重新应用处于TIME-WAIT状态的socket用于新的TCP连接(这个对快速重启动某些服务,而启动后提示端口已经被使用的情形非常有帮助)

    tcp_max_orphans

    8192

    32768

    系统所能处理不属于任何进程的TCP sockets最大数量。假如超过这个数量﹐那么不属于任何进程的连接会被立即reset,并同时显示警告信息。之所以要设定这个限制﹐纯粹为了抵御那些简单的 DoS 攻击﹐千万不要依赖这个或是人为的降低这个限制。如果内存大更应该增加这个值。(这个值Redhat AS版本中设置为32768,但是很多防火墙修改的时候,建议该值修改为2000)

    tcp_abort_on_overflow

    0

    0

    当守护进程太忙而不能接受新的连接,就象对方发送reset消息,默认值是false。这意味着当溢出的原因是因为一个偶然的猝发,那么连接将恢复状态。只有在你确信守护进程真的不能完成连接请求时才打开该选项,该选项会影响客户的使用。(对待已经满载的sendmail,apache这类服务的时候,这个可以很快让客户端终止连接,可以给予服务程序处理已有连接的缓冲机会,所以很多防火墙上推荐打开它)

    tcp_syncookies

    0

    1

    只有在内核编译时选择了CONFIG_SYNCOOKIES时才会发生作用。当出现syn等候队列出现溢出时象对方发送syncookies目的是为了防止syn flood攻击。

    tcp_stdurg

    0

    0

    使用 TCP urg pointer 字段中的主机请求解释功能。大部份的主机都使用老旧的 BSD解释,因此如果您在 Linux 打开它﹐或会导致不能和它们正确沟通。

    tcp_max_syn_backlog

    1024

    16384

    对于那些依然还未获得客户端确认的连接请求﹐需要保存在队列中最大数目。对于超过 128Mb 内存的系统﹐默认值是 1024 ﹐低于128Mb 的则为 128。如果服务器经常出现过载﹐可以尝试增加这个数字。警告﹗假如您将此值设为大于 1024﹐最好修改include/net/tcp.h里面的TCP_SYNQ_HSIZE﹐以保持TCP_SYNQ_HSIZE16(SYN Flood攻击利用TCP协议散布握手的缺陷,伪造虚假源IP地址发送大量TCP-SYN半打开连接到目标系统,最终导致目标系统Socket队列资源耗尽而无法接受新的连接。为了应付这种攻击,现代Unix系统中普遍采用多连接队列处理的方式来缓冲(而不是解决)这种攻击,是用一个基本队列处理正常的完全连接应用(Connect()Accept() ),是用另一个队列单独存放半打开连接。这种双队列处理方式和其他一些系统内核措施(例如Syn-Cookies/Caches)联合应用时,能够比较有效的缓解小规模的SYN Flood攻击(事实证明)

    tcp_window_scaling

    1

    1

    该文件表示设置tcp/ip会话的滑动窗口大小是否可变。参数值为布尔值,为1时表示可变,为0时表示不可变。tcp/ip通常使用的窗口最大可达到 65535 字节,对于高速网络,该值可能太小,这时候如果启用了该功能,可以使tcp/ip滑动窗口大小增大数个数量级,从而提高数据传输的能力(RFC 1323)。(对普通地百M网络而言,关闭会降低开销,所以如果不是高速网络,可以考虑设置为0

    tcp_timestamps

    1

    1

    Timestamps 用在其它一些东西中﹐可以防范那些伪造的 sequence号码。一条1G的宽带线路或许会重遇到带 out-of-line数值的旧sequence 号码(假如它是由于上次产生的)Timestamp 会让它知道这是个 '旧封包'(该文件表示是否启用以一种比超时重发更精确的方法(RFC 1323)来启用对 RTT 的计算;为了实现更好的性能应该启用这个选项。)

    tcp_sack

    1

    1

    使用 Selective ACK﹐它可以用来查找特定的遗失的数据报--- 因此有助于快速恢复状态。该文件表示是否启用有选择的应答(Selective Acknowledgment),这可以通过有选择地应答乱序接收到的报文来提高性能(这样可以让发送者只发送丢失的报文段)。(对于广域网通信来说这个选项应该启用,但是这会增加对 CPU 的占用。)

    tcp_fack

    1

    1

    打开FACK拥塞避免和快速重传功能。(注意,当tcp_sack设置为0的时候,这个值即使设置为1也无效)[这个是TCP连接靠谱的核心功能]

    tcp_dsack

    1

    1

    允许TCP发送"两个完全相同"SACK

    tcp_ecn

    0

    0

    TCP的直接拥塞通告功能。

    tcp_reordering

    3

    6

    TCP流中重排序的数据报最大数量 (一般有看到推荐把这个数值略微调整大一些,比如5)

    tcp_retrans_collapse

    1

    0

    对于某些有bug的打印机提供针对其bug的兼容性。(一般不需要这个支持,可以关闭它)

    tcp_wmemmindefaultmax

    4096

    16384

    131072

    8192

    131072

    16777216

    发送缓存设置

    min:为TCP socket预留用于发送缓冲的内存最小值。每个tcp socket都可以在建议以后都可以使用它。默认值为4096(4K)。

    default:为TCP socket预留用于发送缓冲的内存数量,默认情况下该值会影响其它协议使用的net.core.wmem_default 值,一般要低于net.core.wmem_default的值。默认值为16384(16K)。

    max: 用于TCP socket发送缓冲的内存最大值。该值不会影响net.core.wmem_max,"静态"选择参数SOSNDBUF则不受该值影响。默认值为131072(128K)。(对于服务器而言,增加这个参数的值对于发送数据很有帮助,在我的网络环境中,修改为了51200 131072 204800)

    tcprmemmindefaultmax

    4096

    87380

    174760

    32768

    131072

    16777216

    接收缓存设置

    tcp_wmem

    tcp_memmindefaultmax

    根据内存计算

    786432

    1048576 1572864

    low:当TCP使用了低于该值的内存页面数时,TCP不会考虑释放内存。即低于此值没有内存压力。(理想情况下,这个值应与指定给 tcp_wmem 的第 2 个值相匹配 - 这第 2 个值表明,最大页面大小乘以最大并发请求数除以页大小 (131072 300 / 4096)。 )

    pressure:当TCP使用了超过该值的内存页面数量时,TCP试图稳定其内存使用,进入pressure模式,当内存消耗低于low值时则退出pressure状态。(理想情况下这个值应该是 TCP 可以使用的总缓冲区大小的最大值 (204800 300 / 4096)。 )

    high:允许所有tcp sockets用于排队缓冲数据报的页面量。(如果超过这个值,TCP 连接将被拒绝,这就是为什么不要令其过于保守 (512000 300 / 4096) 的原因了。 在这种情况下,提供的价值很大,它能处理很多连接,是所预期的 2.5 倍;或者使现有连接能够传输 2.5 倍的数据。 我的网络里为192000 300000 732000)

    一般情况下这些值是在系统启动时根据系统内存数量计算得到的。

    tcp_app_win

    31

    31

    保留max(window/2^tcp_app_win, mss)数量的窗口由于应用缓冲。当为0时表示不需要缓冲。

    tcp_adv_win_scale

    2

    2

    计算缓冲开销bytes/2^tcp_adv_win_scale(如果tcp_adv_win_scale > 0)或者bytes-bytes/2^(-tcp_adv_win_scale)(如果tcp_adv_win_scale BOOLEAN>0)

    tcp_low_latency

    0

    0

    允许 TCP/IP 栈适应在高吞吐量情况下低延时的情况;这个选项一般情形是的禁用。(但在构建Beowulf 集群的时候,打开它很有帮助)

    tcp_westwood

    0

    0

    启用发送者端的拥塞控制算法,它可以维护对吞吐量的评估,并试图对带宽的整体利用情况进行优化;对于 WAN 通信来说应该启用这个选项。

    tcp_bic

    0

    0

    为快速长距离网络启用 Binary Increase Congestion;这样可以更好地利用以 GB 速度进行操作的链接;对于 WAN 通信应该启用这个选项。

    ip_forward

    0

    NAT必须开启IP转发支持,把该值写1

    ip_local_port_range:minmax

    32768

    61000

    1024

    65000

    表示用于向外连接的端口范围,默认比较小,这个范围同样会间接用于NAT表规模。

    ip_conntrack_max

    65535

    65535

    系统支持的最大ipv4连接数,默认65536(事实上这也是理论最大值),同时这个值和你的内存大小有关,如果内存128M,这个值最大81921G以上内存这个值都是默认65536

    所处目录/proc/sys/net/ipv4/netfilter/
    文件需要打开防火墙才会存在

    名称

    默认值

    建议值

    描述

    ip_conntrack_max

    65536

    65536

    系统支持的最大ipv4连接数,默认65536(事实上这也是理论最大值),同时这个值和你的内存大小有关,如果内存128M,这个值最大81921G以上内存这个值都是默认65536,这个值受/proc/sys/net/ipv4/ip_conntrack_max限制


    ip_conntrack_tcp_timeout_established

    432000

    180

    已建立的tcp连接的超时时间,默认432000,也就是5天。影响:这个值过大将导致一些可能已经不用的连接常驻于内存中,占用大量链接资源,从而可能导致NAT ip_conntrack: table full的问题建议:对于NAT负载相对本机的 NAT表大小很紧张的时候,可能需要考虑缩小这个值,以尽早清除连接,保证有可用的连接资源;如果不紧张,不必修改

    ip_conntrack_tcp_timeout_time_wait

    120

    120

    time_wait状态超时时间,超过该时间就清除该连接

    ip_conntrack_tcp_timeout_close_wait

    60

    60

    close_wait状态超时时间,超过该时间就清除该连接

    ip_conntrack_tcp_timeout_fin_wait

    120

    120

    fin_wait状态超时时间,超过该时间就清除该连接

    文件所处目录/proc/sys/net/core/

    名称

    默认值

    建议值

    描述

    netdev_max_backlog


    1024

    16384

    每个网络接口接收数据包的速率比内核处理这些包的速率快时,允许送到队列的数据包的最大数目,对重负载服务器而言,该值需要调高一点。

    somaxconn 


    128

    16384

    用来限制监听(LISTEN)队列最大数据包的数量,超过这个数量就会导致链接超时或者触发重传机制。

    web应用中listen函数的backlog默认会给我们内核参数的net.core.somaxconn限制到128,而nginx定义的NGX_LISTEN_BACKLOG默认为511,所以有必要调整这个值。对繁忙的服务器,增加该值有助于网络性能

    wmem_default


    129024

    129024

    默认的发送窗口大小(以字节为单位)

    rmem_default


    129024

    129024

    默认的接收窗口大小(以字节为单位)

    rmem_max


    129024

    873200

    最大的TCP数据接收缓冲

    wmem_max

    129024

    873200

    最大的TCP数据发送缓冲

    两种修改内核参数方法

    1. 使用echo value方式直接追加到文件里如echo "1" >/proc/sys/net/ipv4/tcp_syn_retries,但这种方法设备重启后又会恢复为默认值

    2. 把参数添加到/etc/sysctl.conf中,然后执行sysctl -p使参数生效,永久生效

    内核生产环境优化参数

    生产中常用的参数:

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    net.ipv4.tcp_syn_retries = 1
    net.ipv4.tcp_synack_retries = 1
    net.ipv4.tcp_keepalive_time = 600
    net.ipv4.tcp_keepalive_probes = 3
    net.ipv4.tcp_keepalive_intvl =15
    net.ipv4.tcp_retries2 = 5
    net.ipv4.tcp_fin_timeout = 2
    net.ipv4.tcp_max_tw_buckets = 36000
    net.ipv4.tcp_tw_recycle = 1
    net.ipv4.tcp_tw_reuse = 1
    net.ipv4.tcp_max_orphans = 32768
    net.ipv4.tcp_syncookies = 1
    net.ipv4.tcp_max_syn_backlog = 16384
    net.ipv4.tcp_wmem = 8192 131072 16777216
    net.ipv4.tcp_rmem = 32768 131072 16777216
    net.ipv4.tcp_mem = 786432 1048576 1572864
    net.ipv4.ip_local_port_range = 1024 65000
    net.ipv4.ip_conntrack_max = 65536
    net.ipv4.netfilter.ip_conntrack_max=65536
    net.ipv4.netfilter.ip_conntrack_tcp_timeout_established=180
    net.core.somaxconn = 16384
    net.core.netdev_max_backlog = 16384

    不同的生产环境需要优化的参数基本差不多,只是值有相应的变化。具体优化值要参考应用场景,这儿所列只是常用优化参数,是否适合,可在上面查看该参数描述,理解后,再根据自己生产环境而设。

    其它相关linux内核参数调整文章:
    Linux内核参数优化
    http://flandycheng.blog.51cto.com/855176/476769

    优化linux的内核参数来提高服务器并发处理能力
    http://www.ha97.com/4396.html

    nginx做web服务器linux内核参数优化
    http://blog.csdn.net/force_eagle/article/details/6725243


    sudops网站提供的优化例子:
    Linux下TCP/IP及内核参数优化有多种方式,参数配置得当可以大大提高系统的性能,也可以根据特定场景进行专门的优化,如TIME_WAIT过高,DDOS攻击等等。
    如下配置是写在sysctl.conf中,可使用sysctl -p生效,文中附带了一些默认值和中文解释(从网上收集和翻译而来),确有些辛苦,转载请保留链接,谢谢~。
    相关参数仅供参考,具体数值还需要根据机器性能,应用场景等实际情况来做更细微调整。

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    23
    24
    25
    26
    27
    28
    29
    30
    31
    32
    33
    34
    35
    36
    37
    38
    39
    40
    41
    42
    43
    44
    45
    46
    47
    48
    49
    50
    51
    52
    53
    54
    55
    56
    57
    58
    59
    60
    61
    62
    63
    64
    65
    66
    67
    68
    69
    70
    71
    72
    73
    74
    75
    76
    77
    78
    79
    80
    81
    82
    83
    84
    85
    86
    87
    88
    89
    90
    91
    92
    93
    94
    95
    96
    97
    98
    99
    100
    101
    102
    103
    104
    105
    106
    107
    108
    109
    110
    111
    112
    113
    114
    115
    116
    net.core.netdev_max_backlog = 400000
    #该参数决定了,网络设备接收数据包的速率比内核处理这些包的速率快时,允许送到队列的数据包的最大数目。
    net.core.optmem_max = 10000000
    #该参数指定了每个套接字所允许的最大缓冲区的大小
    net.core.rmem_default = 10000000
    #指定了接收套接字缓冲区大小的缺省值(以字节为单位)。
    net.core.rmem_max = 10000000
    #指定了接收套接字缓冲区大小的最大值(以字节为单位)。
    net.core.somaxconn = 100000
    #Linux kernel参数,表示socket监听的backlog(监听队列)上限
    net.core.wmem_default = 11059200
    #定义默认的发送窗口大小;对于更大的 BDP 来说,这个大小也应该更大。
    net.core.wmem_max = 11059200
    #定义发送窗口的最大大小;对于更大的 BDP 来说,这个大小也应该更大。
    net.ipv4.conf.all.rp_filter = 1
    net.ipv4.conf.default.rp_filter = 1
    #严谨模式 1 (推荐)
    #松散模式 0
    net.ipv4.tcp_congestion_control = bic
    #默认推荐设置是 htcp
    net.ipv4.tcp_window_scaling = 0
    #关闭tcp_window_scaling
    #启用 RFC 1323 定义的 window scaling;要支持超过 64KB 的窗口,必须启用该值。
    net.ipv4.tcp_ecn = 0
    #把TCP的直接拥塞通告(tcp_ecn)关掉
    net.ipv4.tcp_sack = 1
    #关闭tcp_sack
    #启用有选择的应答(Selective Acknowledgment),
    #这可以通过有选择地应答乱序接收到的报文来提高性能(这样可以让发送者只发送丢失的报文段);
    #(对于广域网通信来说)这个选项应该启用,但是这会增加对 CPU 的占用。
    net.ipv4.tcp_max_tw_buckets = 10000
    #表示系统同时保持TIME_WAIT套接字的最大数量
    net.ipv4.tcp_max_syn_backlog = 8192
    #表示SYN队列长度,默认1024,改成8192,可以容纳更多等待连接的网络连接数。
    net.ipv4.tcp_syncookies = 1
    #表示开启SYN Cookies。当出现SYN等待队列溢出时,启用cookies来处理,可防范少量SYN攻击,默认为0,表示关闭;
    net.ipv4.tcp_timestamps = 1
    #开启TCP时间戳
    #以一种比重发超时更精确的方法(请参阅 RFC 1323)来启用对 RTT 的计算;为了实现更好的性能应该启用这个选项。
    net.ipv4.tcp_tw_reuse = 1
    #表示开启重用。允许将TIME-WAIT sockets重新用于新的TCP连接,默认为0,表示关闭;
    net.ipv4.tcp_tw_recycle = 1
    #表示开启TCP连接中TIME-WAIT sockets的快速回收,默认为0,表示关闭。
    net.ipv4.tcp_fin_timeout = 10
    #表示如果套接字由本端要求关闭,这个参数决定了它保持在FIN-WAIT-2状态的时间。
    net.ipv4.tcp_keepalive_time = 1800
    #表示当keepalive起用的时候,TCP发送keepalive消息的频度。缺省是2小时,改为30分钟。
    net.ipv4.tcp_keepalive_probes = 3
    #如果对方不予应答,探测包的发送次数
    net.ipv4.tcp_keepalive_intvl = 15
    #keepalive探测包的发送间隔
    net.ipv4.tcp_mem
    #确定 TCP 栈应该如何反映内存使用;每个值的单位都是内存页(通常是 4KB)。
    #第一个值是内存使用的下限。
    #第二个值是内存压力模式开始对缓冲区使用应用压力的上限。
    #第三个值是内存上限。在这个层次上可以将报文丢弃,从而减少对内存的使用。对于较大的 BDP 可以增大这些值(但是要记住,其单位是内存页,而不是字节)。
    net.ipv4.tcp_rmem
    #与 tcp_wmem 类似,不过它表示的是为自动调优所使用的接收缓冲区的值。
    net.ipv4.tcp_wmem = 30000000 30000000 30000000
    #为自动调优定义每个 socket 使用的内存。
    #第一个值是为 socket 的发送缓冲区分配的最少字节数。
    #第二个值是默认值(该值会被 wmem_default 覆盖),缓冲区在系统负载不重的情况下可以增长到这个值。
    #第三个值是发送缓冲区空间的最大字节数(该值会被 wmem_max 覆盖)。
    net.ipv4.ip_local_port_range = 1024 65000
    #表示用于向外连接的端口范围。缺省情况下很小:32768到61000,改为1024到65000。
    net.ipv4.netfilter.ip_conntrack_max=204800
    #设置系统对最大跟踪的TCP连接数的限制
    net.ipv4.tcp_slow_start_after_idle = 0
    #关闭tcp的连接传输的慢启动,即先休止一段时间,再初始化拥塞窗口。
    net.ipv4.route.gc_timeout = 100
    #路由缓存刷新频率,当一个路由失败后多长时间跳到另一个路由,默认是300。
    net.ipv4.tcp_syn_retries = 1
    #在内核放弃建立连接之前发送SYN包的数量。
    net.ipv4.icmp_echo_ignore_broadcasts = 1
    # 避免放大攻击
    net.ipv4.icmp_ignore_bogus_error_responses = 1
    # 开启恶意icmp错误消息保护
    net.inet.udp.checksum=1
    #防止不正确的udp包的攻击
    net.ipv4.conf.default.accept_source_route = 0
    #是否接受含有源路由信息的ip包。参数值为布尔值,1表示接受,0表示不接受。
    #在充当网关的linux主机上缺省值为1,在一般的linux主机上缺省值为0。
    #从安全性角度出发,建议你关闭该功能。

    最初的幸福ever也提供了一些参数的说明。

    /proc/sys/net目录
    所有的TCP/IP参数都位于/proc/sys/net目录下(请注意,对/proc/sys/net目录下内容的修改都是临时的,任何修改在系统重启后都会丢失),例如下面这些重要的参数:

    参数(路径+文件)

    描述

    默认值

    优化值

    /proc/sys/net/core/rmem_default

    默认的TCP数据接收窗口大小(字节)。

    229376

    256960

    /proc/sys/net/core/rmem_max

    最大的TCP数据接收窗口(字节)。

    131071

    513920

    /proc/sys/net/core/wmem_default

    默认的TCP数据发送窗口大小(字节)。

    229376

    256960

    /proc/sys/net/core/wmem_max

    最大的TCP数据发送窗口(字节)。

    131071

    513920

    /proc/sys/net/core/netdev_max_backlog

    在每个网络接口接收数据包的速率比内核处理这些包的速率快时,允许送到队列的数据包的最大数目。

    1000

    2000

    /proc/sys/net/core/somaxconn

    定义了系统中每一个端口最大的监听队列的长度,这是个全局的参数。

    128

    2048

    /proc/sys/net/core/optmem_max

    表示每个套接字所允许的最大缓冲区的大小。

    20480

    81920

    /proc/sys/net/ipv4/tcp_mem

    确定TCP栈应该如何反映内存使用,每个值的单位都是内存页(通常是4KB)。第一个值是内存使用的下限;第二个值是内存压力模式开始对缓冲区使用应用压力的上限;第三个值是内存使用的上限。在这个层次上可以将报文丢弃,从而减少对内存的使用。对于较大的BDP可以增大这些值(注意,其单位是内存页而不是字节)。

    94011  125351  188022

    131072  262144  524288

    /proc/sys/net/ipv4/tcp_rmem

    为自动调优定义socket使用的内存。第一个值是为socket接收缓冲区分配的最少字节数;第二个值是默认值(该值会被rmem_default覆盖),缓冲区在系统负载不重的情况下可以增长到这个值;第三个值是接收缓冲区空间的最大字节数(该值会被rmem_max覆盖)。

    4096  87380  4011232

    8760  256960  4088000

    /proc/sys/net/ipv4/tcp_wmem

    为自动调优定义socket使用的内存。第一个值是为socket发送缓冲区分配的最少字节数;第二个值是默认值(该值会被wmem_default覆盖),缓冲区在系统负载不重的情况下可以增长到这个值;第三个值是发送缓冲区空间的最大字节数(该值会被wmem_max覆盖)。

    4096  16384  4011232

    8760  256960  4088000

    /proc/sys/net/ipv4/tcp_keepalive_time

    TCP发送keepalive探测消息的间隔时间(秒),用于确认TCP连接是否有效。

    7200

    1800

    /proc/sys/net/ipv4/tcp_keepalive_intvl

    探测消息未获得响应时,重发该消息的间隔时间(秒)。

    75

    30

    /proc/sys/net/ipv4/tcp_keepalive_probes

    在认定TCP连接失效之前,最多发送多少个keepalive探测消息。

    9

    3

    /proc/sys/net/ipv4/tcp_sack

    启用有选择的应答(1表示启用),通过有选择地应答乱序接收到的报文来提高性能,让发送者只发送丢失的报文段,(对于广域网通信来说)这个选项应该启用,但是会增加对CPU的占用。

    1

    1

    /proc/sys/net/ipv4/tcp_fack

    启用转发应答,可以进行有选择应答(SACK)从而减少拥塞情况的发生,这个选项也应该启用。

    1

    1

    /proc/sys/net/ipv4/tcp_timestamps

    TCP时间戳(会在TCP包头增加12个字节),以一种比重发超时更精确的方法(参考RFC 1323)来启用对RTT 的计算,为实现更好的性能应该启用这个选项。

    1

    1

    /proc/sys/net/ipv4/tcp_window_scaling

    启用RFC 1323定义的window scaling,要支持超过64KB的TCP窗口,必须启用该值(1表示启用),TCP窗口最大至1GB,TCP连接双方都启用时才生效。

    1

    1

    /proc/sys/net/ipv4/tcp_syncookies

    表示是否打开TCP同步标签(syncookie),内核必须打开了CONFIG_SYN_COOKIES项进行编译,同步标签可以防止一个套接字在有过多试图连接到达时引起过载。

    1

    1

    /proc/sys/net/ipv4/tcp_tw_reuse

    表示是否允许将处于TIME-WAIT状态的socket(TIME-WAIT的端口)用于新的TCP连接 。

    0

    1

    /proc/sys/net/ipv4/tcp_tw_recycle

    能够更快地回收TIME-WAIT套接字。

    0

    1

    /proc/sys/net/ipv4/tcp_fin_timeout

    对于本端断开的socket连接,TCP保持在FIN-WAIT-2状态的时间(秒)。对方可能会断开连接或一直不结束连接或不可预料的进程死亡。

    60

    30

    /proc/sys/net/ipv4/ip_local_port_range

    表示TCP/UDP协议允许使用的本地端口号

    32768  61000

    1024  65000

    /proc/sys/net/ipv4/tcp_max_syn_backlog

    对于还未获得对方确认的连接请求,可保存在队列中的最大数目。如果服务器经常出现过载,可以尝试增加这个数字。

    2048

    2048

    /proc/sys/net/ipv4/tcp_low_latency

    允许TCP/IP栈适应在高吞吐量情况下低延时的情况,这个选项应该禁用。

    0

     

    /proc/sys/net/ipv4/tcp_westwood

    启用发送者端的拥塞控制算法,它可以维护对吞吐量的评估,并试图对带宽的整体利用情况进行优化,对于WAN 通信来说应该启用这个选项。

    0

     

    /proc/sys/net/ipv4/tcp_bic

    为快速长距离网络启用Binary Increase Congestion,这样可以更好地利用以GB速度进行操作的链接,对于WAN通信应该启用这个选项。

    1

     

  • 相关阅读:
    DataGridView编辑后立即更新到数据库的两种方法
    Azure 意外重启, 丢失sql server master表和 filezilla
    欧洲美食精选-德国篇
    Azure 负载均衡和可用性集
    windows Azure 域名绑定
    Azure billing 分析(2)
    Azure billing 分析
    试用windows Azure
    Excel公式无法重算,暂无法解决
    iphone 语音备忘录 同步问题
  • 原文地址:https://www.cnblogs.com/shenlanzifa/p/5288698.html
Copyright © 2011-2022 走看看