zoukankan      html  css  js  c++  java
  • 关于高性能网络编程的一些知识

    TCP层为了可靠性,还额外需要解决3个大问题:丢包(网络分组在传输中存在的丢失)、重复(协议层异常引发的多个相同网络分组)、延迟(很久后网络分组才到达目的地)。另外,是不是还有顺序

    涉及到滑动窗口和拥塞控制。重要的一点:TCP协议是保证了整体网络的性能的最优化。而不是本身端对端两点网络性能的最优化。

    http://blog.csdn.net/russell_tao/article/details/9111769

    本文讲述的网络编程头前冠以“高性能”,它是指程序员设计编写的服务器需要处理很大的吞吐量,这与简单网络应用就有了质的不同。因为:1、高吞吐量下,容易触发到一些设计上的边界条件;2、偶然性的小概率事件,会在高吞吐量下变成必然性事件。3、IO是慢速的,高吞吐量通常意味着高并发,如同一时刻存在数以万计、十万计、百万计的TCP活动连接。所以,做高性能网络编程不能仅仅满足于学会开源组件、中间件是如何帮我实现期望功能的,对于企业级产品来说,需要了解更多的知识。

    我认为编写高性能服务器的关注点有3个:
    1、如果基于通用组件编程,关注点多是在组件如何封装套接字编程细节。
    2、通用组件只是在封装套接字,操作系统是通过提供套接字来为进程提供网络通讯能力的。
    3、网络的复杂性会影响到服务器的吞吐量,而且,高吞吐量场景下,多种临界条件会导致应用程序的不正常,特别是组件中有bug或考虑不周或没有配置正确时。了解网络分组可以定位出这些问题,可以正确的配置系统、组件,可以正确的理解系统的瓶颈。
     

    原因在于:首先,SYN队列和ACCEPT队列都不是无限长度的,它们的长度限制与调用listen监听某个地址端口时传递的backlog参数有关。

    所以,如TOMCAT等服务器会使用独立的线程,只做accept获取连接这一件事,以防止不能及时的去accept获取连接。

    那么,为什么如Nginx等一些服务器,在一个线程内做accept的同时,还会做其他IO等操作呢?

    这里就带出阻塞和非阻塞的概念。注:我的理解,一方面nginx后续处理都是异步的,所以很快能再次accept;另外nginx的accept应该也是设置成了nonblocking.

    我刚给看了下之前的文章,对于listenfd也是可以设成 非阻塞的。

    int setnonblocking(int fd) {

      int old_option = fcntl(fd, F_GETFL);

      int new_option = old_option | O_NONBLOCK;

      fcntl(fd, F_SETFL, new_option);

      return old_option;

    }

     

     

    另外,SO_REUSEADDR也是一个很重要的选项。

     

     

    int flag = 1, len = sizeof(int);

    if (setsockopt(listenfd, SOL_SOCKET, SO_REUSEADDR, &flag, len) == -1) {

      perror(“socket”);

    }

     
     
  • 相关阅读:
    测试产品
    三年回顾
    测试服务输出业务价值
    慎用重载_2
    慎用重载_1
    ByteBuffer和String的互相转换
    线程较为深的度剖析1
    线程同步的故事描述
    Java线程同步
    TCP关闭过程
  • 原文地址:https://www.cnblogs.com/charlesblc/p/6495684.html
Copyright © 2011-2022 走看看