zoukankan      html  css  js  c++  java
  • http短连接大量time wait解决方案

    tcp连接是网络编程中最基础的概念,基于不同的使用场景,我们一般区分为“长连接”和“短连接”,
    长短连接的优点和缺点这里就不详细展开了,有心的同学直接去google查询,本文主要关注如何解决tcp短连接的TIME_WAIT问题。


    短连接最大的优点是方便,特别是脚本语言,由于执行完毕后脚本语言的进程就结束了,基本上都是用短连接。
    但短连接最大的缺点是将占用大量的系统资源,例如:本地端口、socket句柄。
    导致这个问题的原因其实很简单:tcp协议层并没有长短连接的概念,因此不管长连接还是短连接,连接建立->数据传输->连接关闭的流程和处理都是一样的。


    正常的TCP客户端连接在关闭后,会进入一个TIME_WAIT的状态,持续的时间一般在1~4分钟,对于连接数不高的场景,1~4分钟其实并不长,对系统也不会有什么影响,
    但如果短时间内(例如1s内)进行大量的短连接,则可能出现这样一种情况:客户端所在的操作系统的socket端口和句柄被用尽,系统无法再发起新的连接!


    举例来说:假设每秒建立了1000个短连接(Web场景下是很常见的,例如每个请求都去访问memcached),假设TIME_WAIT的时间是1分钟,则1分钟内需要建立6W个短连接,
    由于TIME_WAIT时间是1分钟,这些短连接1分钟内都处于TIME_WAIT状态,都不会释放,而Linux默认的本地端口范围配置是:net.ipv4.ip_local_port_range = 32768    61000
    不到3W,因此这种情况下新的请求由于没有本地端口就不能建立了。


    可以通过如下方式来解决这个问题:
    1)可以改为长连接,但代价较大,长连接太多会导致服务器性能问题,而且PHP等脚本语言,需要通过proxy之类的软件才能实现长连接;
    2)修改ipv4.ip_local_port_range,增大可用端口范围,但只能缓解问题,不能根本解决问题;
    3)客户端程序中设置socket的SO_LINGER选项;
    4)客户端机器打开tcp_tw_recycle和tcp_timestamps选项;
    5)客户端机器打开tcp_tw_reuse和tcp_timestamps选项;
    6)客户端机器设置tcp_max_tw_buckets为一个很小的值;


    在解决php连接Memcached的短连接问题过程中,我们主要验证了3)4)5)6)几种方法,采取的是基本功能验证和代码验证,并没有进行性能压力测试验证,
    因此实际应用的时候需要注意观察业务运行情况,发现丢包、断连、无法连接等现象时,需要关注是否是因为这些选项导致的


    虽然这几种方法都可以通过google查询到相关信息,但这些信息大部分都是泛泛而谈,而且绝大部分都是人云亦云,没有很大参考价值。
    我们在定位和处理这些问题过程中,遇到一些疑惑和困难,也花费了一些时间去定位和解决,以下就是相关的经验总结。
     
     ---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
     SO_LINGER选项:
     
    SO_LINGER是一个socket选项,通过setsockopt API进行设置,使用起来比较简单,但其实现机制比较复杂,且字面意思上比较难理解。
    解释最清楚的当属《Unix网络编程卷1》中的说明(7.5章节),这里简单摘录:
    SO_LINGER的值用如下数据结构表示:
    struct linger {
         int l_onoff; /* 0 = off, nozero = on */
         int l_linger; /* linger time */

    };

    其取值和处理如下:
    1、设置 l_onoff为0,则该选项关闭,l_linger的值被忽略,等于内核缺省情况,close调用会立即返回给调用者,如果可能将会传输任何未发送的数据;
    2、设置 l_onoff为非0,l_linger为0,则套接口关闭时TCP夭折连接,TCP将丢弃保留在套接口发送缓冲区中的任何数据并发送一个RST给对方,
       而不是通常的四分组终止序列,这避免了TIME_WAIT状态;
    3、设置 l_onoff 为非0,l_linger为非0,当套接口关闭时内核将拖延一段时间(由l_linger决定)。
       如果套接口缓冲区中仍残留数据,进程将处于睡眠状态,直 到(a)所有数据发送完且被对方确认,之后进行正常的终止序列(描述字访问计数为0)
       或(b)延迟时间到。此种情况下,应用程序检查close的返回值是非常重要的,如果在数据发送完并被确认前时间到,close将返回EWOULDBLOCK错误且套接口发送缓冲区中的任何数据都丢失。
       close的成功返回仅告诉我们发送的数据(和FIN)已由对方TCP确认,它并不能告诉我们对方应用进程是否已读了数据。如果套接口设为非阻塞的,它将不等待close完成。
       
    第一种情况其实和不设置没有区别,第二种情况可以用于避免TIME_WAIT状态,但在Linux上测试的时候,并未发现发送了RST选项,而是正常进行了四步关闭流程,
    初步推断是“只有在丢弃数据的时候才发送RST”,如果没有丢弃数据,则走正常的关闭流程。
    查看Linux源码,确实有这么一段注释和源码:
    =====linux-2.6.37 net/ipv4/tcp.c 1915=====
    /* As outlined in RFC 2525, section 2.17, we send a RST here because
    * data was lost. To witness the awful effects of the old behavior of
    * always doing a FIN, run an older 2.1.x kernel or 2.0.x, start a bulk
    * GET in an FTP client, suspend the process, wait for the client to
    * advertise a zero window, then kill -9 the FTP client, wheee...
    * Note: timeout is always zero in such a case.
    */
    if (data_was_unread) {
    /* Unread data was tossed, zap the connection. */
    NET_INC_STATS_USER(sock_net(sk), LINUX_MIB_TCPABORTONCLOSE);
    tcp_set_state(sk, TCP_CLOSE);
    tcp_send_active_reset(sk, sk->sk_allocation);

    另外,从原理上来说,这个选项有一定的危险性,可能导致丢数据,使用的时候要小心一些,但我们在实测libmemcached的过程中,没有发现此类现象,
    应该是和libmemcached的通讯协议设置有关,也可能是我们的压力不够大,不会出现这种情况。


    第三种情况其实就是第一种和第二种的折中处理,且当socket为非阻塞的场景下是没有作用的。
    对于应对短连接导致的大量TIME_WAIT连接问题,个人认为第二种处理是最优的选择,libmemcached就是采用这种方式,
    从实测情况来看,打开这个选项后,TIME_WAIT连接数为0,且不受网络组网(例如是否虚拟机等)的影响。
     
     ---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
    tcp_tw_recycle和tcp_timestamps
     
    【tcp_tw_recycle和tcp_timestamps】
    参考官方文档(http://www.kernel.org/doc/Documentation/networking/ip-sysctl.txt),tcp_tw_recycle解释如下:
    tcp_tw_recycle选项作用为:Enable fast recycling TIME-WAIT sockets. Default value is 0.
    tcp_timestamps选项作用为:Enable timestamps as defined in RFC1323. Default value is 1.

    这两个选项是linux内核提供的控制选项,和具体的应用程序没有关系,而且网上也能够查询到大量的相关资料,但信息都不够完整,最主要的几个问题如下;
    1)快速回收到底有多快?
    2)有的资料说只要打开tcp_tw_recycle即可,有的又说要tcp_timestamps同时打开,具体是哪个正确?
    3)为什么从虚拟机NAT出去发起客户端连接时选项无效,非虚拟机连接就有效?

    为了回答上面的疑问,只能看代码,看出一些相关的代码供大家参考:
    =====linux-2.6.37 net/ipv4/tcp_minisocks.c 269======
    void tcp_time_wait(struct sock *sk, int state, int timeo)
    {
    struct inet_timewait_sock *tw = NULL;
    const struct inet_connection_sock *icsk = inet_csk(sk);
    const struct tcp_sock *tp = tcp_sk(sk);
    int recycle_ok = 0;


        //判断是否快速回收,这里可以看出tcp_tw_recycle和tcp_timestamps两个选项都打开的时候才进行快速回收,
        //且还有进一步的判断条件,后面会分析,这个进一步的判断条件和第三个问题有关
    if (tcp_death_row.sysctl_tw_recycle && tp->rx_opt.ts_recent_stamp)
    recycle_ok = icsk->icsk_af_ops->remember_stamp(sk);


    if (tcp_death_row.tw_count < tcp_death_row.sysctl_max_tw_buckets)
    tw = inet_twsk_alloc(sk, state);


    if (tw != NULL) {
    struct tcp_timewait_sock *tcptw = tcp_twsk((struct sock *)tw);
            //计算快速回收的时间,等于 RTO * 3.5,回答第一个问题的关键是RTO(Retransmission Timeout)大概是多少
    const int rto = (icsk->icsk_rto << 2) - (icsk->icsk_rto >> 1);
            
            //。。。。。。此处省略很多代码。。。。。。
            
        if (recycle_ok) {
                //设置快速回收的时间
    tw->tw_timeout = rto;
    } else {
    tw->tw_timeout = TCP_TIMEWAIT_LEN;
    if (state == TCP_TIME_WAIT)
    timeo = TCP_TIMEWAIT_LEN;
    }
            
            //。。。。。。此处省略很多代码。。。。。。
    }


    RFC中有关于RTO计算的详细规定,一共有三个:RFC-793、RFC-2988、RFC-6298,Linux的实现是参考RFC-2988。
    对于这些算法的规定和Linuxde 实现,有兴趣的同学可以自己深入研究,实际应用中我们只要记住Linux如下两个边界值:
    =====linux-2.6.37 net/ipv4/tcp.c 126================
    #define TCP_RTO_MAX ((unsigned)(120*HZ))
    #define TCP_RTO_MIN ((unsigned)(HZ/5))
    ==========================================
    这里的HZ是1s,因此可以得出RTO最大是120s,最小是200ms,对于局域网的机器来说,正常情况下RTO基本上就是200ms,因此3.5 RTO就是700ms
    也就是说,快速回收是TIME_WAIT的状态持续700ms,而不是正常的2MSL(Linux是1分钟,请参考:include/net/tcp.h 109行TCP_TIMEWAIT_LEN定义)。
    实测结果也验证了这个推论,不停的查看TIME_WAIT状态的连接,偶尔能看到1个。

    最后一个问题是为什么从虚拟机发起的连接即使设置了tcp_tw_recycle和tcp_timestamps,也不会快速回收,继续看代码:
    tcp_time_wait函数中的代码行:recycle_ok = icsk->icsk_af_ops->remember_stamp(sk);对应的实现如下:
    =====linux-2.6.37 net/ipv4/tcp_ipv4.c 1772=====
    int tcp_v4_remember_stamp(struct sock *sk)
    {
        //。。。。。。此处省略很多代码。。。。。。


        //当获取对端信息时,进行快速回收,否则不进行快速回收
    if (peer) {
    if ((s32)(peer->tcp_ts - tp->rx_opt.ts_recent) <= 0 ||
       ((u32)get_seconds() - peer->tcp_ts_stamp > TCP_PAWS_MSL &&
        peer->tcp_ts_stamp <= (u32)tp->rx_opt.ts_recent_stamp)) {
    peer->tcp_ts_stamp = (u32)tp->rx_opt.ts_recent_stamp;
    peer->tcp_ts = tp->rx_opt.ts_recent;
    }
    if (release_it)
    inet_putpeer(peer);
    return 1;
    }


    return 0;
    }
    上面这段代码应该就是测试的时候虚拟机环境不会释放的原因,当使用虚拟机NAT出去的时候,服务器无法获取隐藏在NAT后的机器信息。
    生产环境也出现了设置了选项,但TIME_WAIT连接数达到4W多的现象,可能和虚拟机有关,也可能和组网有关。


    总结一下:
    1)快速回收到底有多快?
    局域网环境下,700ms就回收;
    2)有的资料说只要打开tcp_tw_recycle即可,有的又说要tcp_timestamps同时打开,具体是哪个正确?
    需要同时打开,但默认情况下tcp_timestamps就是打开的,所以会有人说只要打开tcp_tw_recycle即可;
    3)为什么从虚拟机发起客户端连接时选项无效,非虚拟机连接就有效?
    和网络组网有关系,无法获取对端信息时就不进行快速回收;

    综合上面的分析和总结,可以看出这种方法不是很保险,在实际应用中可能受到虚拟机、网络组网、防火墙之类的影响从而导致不能进行快速回收。

    附:

    1)tcp_timestamps的说明详见RF1323,和TCP的拥塞控制(Congestion control)有关。

    2)打开此选项,可能导致无法连接,请参考:http://www.pagefault.info/?p=416 

    ---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------

    tcp_tw_reuse

    tcp_tw_reuse选项的含义如下(http://www.kernel.org/doc/Documentation/networking/ip-sysctl.txt):
    tcp_tw_reuse - BOOLEAN
    Allow to reuse TIME-WAIT sockets for new connections when it is
    safe from protocol viewpoint. Default value is 0.
        
    这里的关键在于“协议什么情况下认为是安全的”,由于环境限制,没有办法进行验证,通过看源码简单分析了一下。
    =====linux-2.6.37 net/ipv4/tcp_ipv4.c 114=====
    int tcp_twsk_unique(struct sock *sk, struct sock *sktw, void *twp)
    {
    const struct tcp_timewait_sock *tcptw = tcp_twsk(sktw);
    struct tcp_sock *tp = tcp_sk(sk);


    /* With PAWS, it is safe from the viewpoint
      of data integrity. Even without PAWS it is safe provided sequence
      spaces do not overlap i.e. at data rates <= 80Mbit/sec.


      Actually, the idea is close to VJ's one, only timestamp cache is
      held not per host, but per port pair and TW bucket is used as state
      holder.


      If TW bucket has been already destroyed we fall back to VJ's scheme
      and use initial timestamp retrieved from peer table.
    */
        //从代码来看,tcp_tw_reuse选项和tcp_timestamps选项也必须同时打开;否则tcp_tw_reuse就不起作用
        //另外,所谓的“协议安全”,从代码来看应该是收到最后一个包后超过1s
    if (tcptw->tw_ts_recent_stamp &&
       (twp == NULL || (sysctl_tcp_tw_reuse &&
        get_seconds() - tcptw->tw_ts_recent_stamp > 1))) {
    tp->write_seq = tcptw->tw_snd_nxt + 65535 + 2;
    if (tp->write_seq == 0)
    tp->write_seq = 1;
    tp->rx_opt.ts_recent  = tcptw->tw_ts_recent;
    tp->rx_opt.ts_recent_stamp = tcptw->tw_ts_recent_stamp;
    sock_hold(sktw);
    return 1;
    }


    return 0;

    }

    总结一下:
    1)tcp_tw_reuse选项和tcp_timestamps选项也必须同时打开;
    2)重用TIME_WAIT的条件是收到最后一个包后超过1s。


    官方手册有一段警告:
    It should not be changed without advice/request of technical
    experts.
    对于大部分局域网或者公司内网应用来说,满足条件2)都是没有问题的,因此官方手册里面的警告其实也没那么可怕:)

    ---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------

    tcp_max_tw_buckets

    参考官方文档(http://www.kernel.org/doc/Documentation/networking/ip-sysctl.txt),解释如下:
    tcp_max_tw_buckets - INTEGER
    Maximal number of timewait sockets held by system simultaneously.
    If this number is exceeded time-wait socket is immediately destroyed
    and warning is printed. 
    官方文档没有说明默认值,通过几个系统的简单验证,初步确定默认值是180000。

    通过源码查看发现,这个选项比较简单,其实现代码如下:
    =====linux-2.6.37 net/ipv4/tcp_minisocks.c 269======
    void tcp_time_wait(struct sock *sk, int state, int timeo)
    {
    struct inet_timewait_sock *tw = NULL;
    const struct inet_connection_sock *icsk = inet_csk(sk);
    const struct tcp_sock *tp = tcp_sk(sk);
    int recycle_ok = 0;


    if (tcp_death_row.sysctl_tw_recycle && tp->rx_opt.ts_recent_stamp)
    recycle_ok = icsk->icsk_af_ops->remember_stamp(sk);


    if (tcp_death_row.tw_count < tcp_death_row.sysctl_max_tw_buckets)
    tw = inet_twsk_alloc(sk, state);


    if (tw != NULL) {
            //分配成功,进行TIME_WAIT状态处理,此处略去很多代码
        else {
            //分配失败,不进行处理,只记录日志: TCP: time wait bucket table overflow
    /* Sorry, if we're out of memory, just CLOSE this
    * socket up.  We've got bigger problems than
    * non-graceful socket closings.
    */
    NET_INC_STATS_BH(sock_net(sk), LINUX_MIB_TCPTIMEWAITOVERFLOW);
    }


    tcp_update_metrics(sk);
    tcp_done(sk);
    }
    实测结果验证,配置为100,TIME_WAIT连接数就稳定在100,且不受组网和其它配置的影响。

    官方手册中有一段警告:
        This limit exists only to prevent
    simple DoS attacks, you _must_ not lower the limit artificially,
    but rather increase it (probably, after increasing installed memory),
    if network conditions require more than default value.
    基本意思是这个用于防止Dos攻击,我们不应该人工减少,如果网络条件需要的话,反而应该增加。
    但其实对于我们的局域网或者公司内网应用来说,这个风险并不大。

  • 相关阅读:
    【摄影】延时摄影
    【sas sql proc】统计
    【分析模板】excel or sas
    JavaScript的方法和技巧
    好书推荐
    七招制胜ASP.NET应用程序开发
    .Net中使用带返回值的存储过程(VB代码)
    ASP.NET 2.0构建动态导航的Web应用程序(TreeView和Menu )
    简单查询和联合查询两方面介绍SQL查询语句
    数字金额大小写转换之存储过程
  • 原文地址:https://www.cnblogs.com/thammer/p/7443171.html
Copyright © 2011-2022 走看看