zoukankan      html  css  js  c++  java
  • 【IO多路复用】

    "


    目录

    一、IO模型介绍

    二、阻塞IO(blocking IO)

    三、非阻塞IO(non-blocking IO)

    四、多路复用IO(IO multiplexing)

    五、异步IO(Asynchronous I/O)

    六、模型比较分析

    七、关于select、poll、epoll


    一、IO模型介绍

    为了更好地了解IO模型,我们需要事先回顾下:同步、异步、阻塞、非阻塞

     同步(synchronous) IO和异步(asynchronous) IO,阻塞(blocking) IO和非阻塞(non-blocking)IO分别是什么,到底有什么区别?这个问题其实不同的人给出的答案都可能不同,比如wiki,就认为asynchronous IO和non-blocking IO是一个东西。这其实是因为不同的人的知识背景不同,并且在讨论这个问题的时候上下文(context)也不相同。所以,为了更好的回答这个问题,我先限定一下本文的上下文。

     本文讨论的背景是Linux环境下的network IO。本文最重要的参考文献是Richard Stevens的“UNIX® Network Programming Volume 1, Third Edition: The Sockets Networking ”,6.2节“I/O Models ”,Stevens在这节中详细说明了各种IO的特点和区别,如果英文够好的话,推荐直接阅读。Stevens的文风是有名的深入浅出,所以不用担心看不懂。本文中的流程图也是截取自参考文献。

    • Stevens在文章中一共比较了五种IO Model

    blocking IO             阻塞IO

    nonblocking           非阻塞IO

    IO multiplexing       IO多路复用

    signal driven IO      信号驱动IO

    asynchronous IO    异步IO

    由于signal driven IO(信号驱动IO)在实际中并不常用,所以本文主要介绍其余四种IO Model。

    当一个network IO(这里以read举例)发生时,涉及到两个系统对象,一是调用这个IO的process(or thread);二是系统内核(kernel)。当一个read操作发生时,该操作会经历两个阶段:

    1. 等待数据准备(Waiting for the data to be ready)

    2. 将数据从内核拷贝到进程中(Copying the data from the kernel to the process)

    (熟记这两点很重要,因为这些IO模型的区别正是体现在这两个阶段上)


    二、阻塞IO(blocking IO)

    在Linux下,默认所有的socket都是blocking,一个典型的读操作流程大概是这样:

    在这里插入图片描述

    当用户进程调用了recvfrom这个系统调用时,kernel就开始了IO的第一个阶段:准备数据,对于network io来说,很多时候数据在一开始还没有到达(比如还没有收到一个完整的UDP包),这个时候kernel就要等待足够的数据到来。

    而在用户进程这边,整个进程会被阻塞。当kernel一直等到数据准备好了,它就会将数据从kernel中拷贝到用户内存,然后kernel返回结果,用户进程才会解除block(阻塞)的状态,重新运行起来

    所以,blocking IO的特点就是在IO执行的两个阶段(等待数据和拷贝数据)都被block了.

     

    PS:所谓阻塞型接口是指系统调用时(一般是IO接口)不返回调用结果并让当前线程一直阻塞,只有当该系统调用获得结果或者超时出错时才返回。实际上除非特别指定,否则几乎所有的IO接口(包括socket接口)都是阻塞型的。这给网络编程带来了一个很大的问题,如在调用recv(1472)的同时,线程将被阻塞,在此期间,线程将无法执行任何运算或相应任何的网络请求。

    • 一个简单的解决方案

    服务器端使用多线程(或多进程)。多线程(或多进程)的目的是让每个连接都拥有独立的线程(或进程),这样任何一个连接的阻塞都不会影响其它的连接。

    • 该方案的问题

    开启多线程或多进程的方式,在遇到要同时响应成百上千路的连接请求时,将严重占据系统资源,降低系统对外界的响应效率,而且线程与进程本身也更容易进入假死状态。

    • 改进方案

    很多程序员可能会考虑到使用“线程池”或“连接池”。“线程池”皆在减少创建和销毁线程的频率,其维持一定合理数量的线程,并让空闲的线程重新承担新的执行任务。“连接池”维持连接的缓存池,尽量重用已有的连接、减少创建和关闭连接的频率。这两种技术都可以很好的降低系统开销,都被广泛应用很多大型系统,如websphere、tomcat和各种数据库等。

    • 改进后的方案其实也存在着问题

    “线程池”和“连接池”技术也只是在一定程度上缓解了频繁调用IO接口带来的资源占用。而且,所谓“池”始终有其上限,当请求远远超过上限时,“池”构成的系统对外界的响应并不比没有池的时候效果小多少。所以使用“池”必须考虑其面临的响应规模,并根据响应规模调整“池”的大小。

    对于上例中所面临的可能同时出现成千甚至上百万次的客户端请求,“线程池”或“连接池”或许可以缓解部分压力,但是不能解决所有问题。总之,多线程模型可以方便高效的解决小规模的服务请求,但面对大规模的服务请求,多线程也会遇到瓶颈,此时可以用非阻塞接口来尝试解决这个问题。


    三、非阻塞IO(non-blocking IO)

    Linux下,可以通过设置socket使其变为non-blocking,当对一个non-blocking socket执行读操作时,流程是这样的:

    在这里插入图片描述

    从图中可以看出,当用户进程发出read操作时,如果kernel中的数据还没有准备好,那么它并不会block用户进程,而是立即返回一个error。从用户进程角度讲,它发起一个read操作后,并不需要等待,而是立即得到一个结果。用户进程判断这个结果是一个error时,它就知道数据还没有准备好,于是用户进程就可以在本次到下次再发起read询问的时间间隔内做其它事情,或者直接再次发起read操作。一旦kernel中的数据准备好了,并且又再次收到了用户进程的system call,那么它立即将数据拷贝到用户内存(需要注意的是:拷贝数据这一阶段仍然是阻塞的),然后返回。

    也就是说,非阻塞的recvfrom系统调用被调用之后,进程并没有阻塞,内核会立即返回给进程一个结果,如果数据还没有准备好,则返回的是一个error,此时进程可以做其它工作,然后再次发起recvfrom系统调用,如此重复。这个过程通常被称之为轮询,轮询检查内核数据,直到数据准备好,再拷贝数据到进程,进行数据处理。需要注意,拷贝数据整个过程,进程仍然是属于阻塞的状态。

    所以,在非阻塞式IO中,用户进程其实是在不断的主动询问kernel(数据是否准备完毕).

    • python实现non-blocking IO
    1. # 服务端
    2. from socket import socket
    3. from time import sleep
    4. sk = socket()
    5. sk.bind(('127.0.0.1', 8080))
    6. sk.listen()
    7. sk.setblocking(False) # non-socket,即accept与recv不再阻塞
    8. conn_list, del_list = [], []
    9. while 1:
    10. sleep(0.1)
    11. try:
    12. conn, addr = sk.accept()
    13. conn_list.append(conn)
    14. print(addr, "已连接")
    15. except BlockingIOError:
    16. for conn in conn_list:
    17. try:
    18. info = conn.recv(1472)
    19. if not info:
    20. print(conn.getpeername(), "已断开")
    21. del_list.append(conn)
    22. continue
    23. conn.send(info.upper())
    24. except BlockingIOError: # 进程向内核要数据时,内核没有该数据,而返回的报错信息
    25. pass
    26. except ConnectionResetError: # 客户端异常断开
    27. del_list.append(conn)
    28. for conn in del_list:
    29. conn_list.remove(conn)
    30. conn.close()
    31. del_list = []
    32. ################################################
    33. # # 客户端
    34. #
    35. # from socket import socket
    36. #
    37. # client = socket()
    38. # client.connect_ex(('127.0.0.1', 8080))
    39. #
    40. # while 1:
    41. # msg = input('>>>').strip()
    42. # if not msg:continue
    43. # client.sendall(msg.encode('utf-8'))
    44. # res = client.recv(1472)
    45. # print(res.decode('utf-8'))

    但是,非阻塞的IO模型决不被推荐:

    我们不能否认其优点,能够在等待任务完成的时间里做其它工作(包括提交其它任务),但是也难掩其缺点:

    1. 循环调用recv()将大幅度推高CPU占用率;这正是我们在代码中留一句time.sleep()的原因,否则在低配主机下极容易出现卡机情况。

    2. 任务完成的响应延迟增大了,因为每过一段时间才去轮询一次read操作,而任务可能在两次轮询之间的任意时间完成,这会导致整体数据吞吐量的降低。

    此外,在这个方案中recv()更多的是起到检测“操作是否完成”的作用,实际上操作系统提供了更为高效的检测“操作是否完成”作用的借口,例如select()多路复用模式,可以一次检测多个连接是否活跃。


    四、多路复用IO(IO multiplexing)

    IO multiplexing这个词可能有点陌生,但是如果我说select/epoll,大概就都明白了,有些地方也称这种IO方式为事件驱动IO(event driven IO)。

    select/epoll的好处在于单个process就可以同时处理多个网络连接的IO。它的基本原理就是select/epoll这个function会不断的轮询所负责的所有socket,当某个socket有数据到达了,就通知用户进程。

    流程如下:

    在这里插入图片描述

    当用户进程调用select时,整个进程将会被block,而同时,kernel会“监视”所有select负责的socket,当任何一个socket中的数据准备好了,select就会返回。此时用户进程再调用read操作,将数据从kernel拷贝到用户进程。(上图)这里需要使用两个系统调用(select和recvfrom),而blocking IO只调用了一个系统调用(recvfrom)。但是select的优势在于它可以同时处理多个connection。

    • 要明白以下两点:

    1. 如果处理的连接数不是很高的话,使用select/epoll的web server不一定比使用multi-threading + blocking IO的wab server性能更好,甚至延迟更大。select/epoll的优势并不是对于单个连接能处理得更快,而是在于能处理更多的连接。

    2. 在多路复用模型中,对于每一个socket,一般都设置为non-blocking,但是,如上图所示,整个用户的process其实是一直被block的。只不过process是被select这个函数block的,而不是被socket IO给block。

    结论:select的优势在于可以处理多个连接,不适用于单个连接

    • Python实现 IO multiplexing
    1. from socket import socket, SOL_SOCKET, SO_REUSEADDR
    2. from select import select
    3. sk = socket()
    4. sk.setsockopt(SOL_SOCKET, SO_REUSEADDR, 1)
    5. sk.setblocking(False) # 设置sk为non-blocking
    6. # 由select阻塞,检测事件. 所以是否设置sk为non-blocking不会有影响
    7. sk.bind(('127.0.0.1', 8080))
    8. sk.listen()
    9. read_list = [sk] # 委托代理监听的列表
    10. while 1:
    11. rlist, wlist, xlist = select(read_list, [], []) # 阻塞
    12. # rlist-读事件 wlist-写事件 xlist-错误事件
    13. # 当select检测到read_list有变化时,才会将有变化的fd拷贝到rlist中
    14. for read_obj in rlist:
    15. if read_obj == sk:
    16. conn, addr = read_obj.accept()
    17. read_list.append(conn)
    18. print(addr, "已连接")
    19. else:
    20. try:
    21. info = read_obj.recv(1472)
    22. if not info:
    23. read_obj.close()
    24. read_list.remove(read_obj)
    25. continue
    26. read_obj.send(info.upper())
    27. except ConnectionResetError: # 客户端异常断开
    28. read_obj.close()
    29. read_list.remove(read_obj)
    30. ################################################
    31. # # 客户端
    32. #
    33. # from socket import socket
    34. #
    35. # client = socket()
    36. # client.connect_ex(('127.0.0.1', 8080))
    37. #
    38. # while 1:
    39. # msg = input('>>>').strip()
    40. # if not msg:continue
    41. # client.sendall(msg.encode('utf-8'))
    42. # res = client.recv(1472)
    43. # print(res.decode('utf-8'))
    • select监听fd变化的过程分析

    1. 用户进程创建socket对象,拷贝监听的fd到内核空间,每一个fd会对应一张系统文件表,内核空间的fd响应到数据后,就会发送信号给用户进程:数据已到;

    2. 用户进程再发送系统调用,比如(accept)将内核空间的数据copy到用户空间,同时会把接收数据端的内核空间的数据清除,这样重新监听时fd再有新的数据又可以响应到了(发送端因为基于TCP协议,所以需要收到应答后擦灰清楚);

    • 优点

    相比于其它模型,使用select()的事件驱动模型只用单线程(进程)执行,占用资源少(尤其是CPU),同时能够为多客户端提供服务。如果试图建立一个简单的事件驱动的服务器程序,此模型有一定的参考价值.

    • 缺点

    1. 首先select()接口并不是实现“时间驱动”的最好选择。因为当需要探测的句柄值(read_list的值)较大时,select()接口本身需要消耗大量时间去轮询各个句柄。

    2. 很多操作系统提供了更为高效的接口,如Linux提供了epoll, BSD提供了kqueue,Solaris提供了/dev/poll,等等。

    3. 如果需要实现更高效的服务器程序,类似epoll这样的接口更被推荐。但遗憾的是不同的操作系统提供的epoll接口有很大差异。

    4. 所以使用类似于epoll的接口实现具有较好的跨平台能力的服务器会比较困难。

    5. 其次,该模型将事件探测和事件响应夹杂在一起,一旦事件响应的执行体庞大,则对整个模型是灾难性的。


    五、异步IO(Asynchronous I/O)

    Linux下的asynchronous IO其实用得不多,从内核2.6版本才开始引入。先看一下他的流程:

    在这里插入图片描述

    当用户进程发起read操作后,便可立即去做其它的工作。而另一方面,从kernel的角度来看,当它收到一个asynchronous read时,首先它会立即返回,所以不会对用户进程产生任何block。然后,kernel会等待数据准备完成,再将数据拷贝到用户内存,当这一切都完成之后,kernel会给用户进程发送一个signal,告诉它read操作完成了。

    (Python无法实现asynchronous IO,但是有tornado框架,天生自带异步)


    六、模型比较分析

    • blocking与non-blocking

    调用前者会一直block住对应的进程直到操作完成;后者直接返回结果,没有数据就报错.

    • synchronous与asynchronous

    1. A synchronous I/O operation causes the requesting process to be blocked until that I/O operationcompletes;

    2. An asynchronous I/O operation does not cause the requesting process to be blocked; 

    两者的区别在于synchronous IO做“IO operation”的时候会将process阻塞。按照这个定义,四个IO模型可以分为两大类:blocking IO、non-blocking IO、IO multiplexing都属于synchronsou IO这一类,而asynchronous I/O属于后一类。

    non-blocking IO事实上是会有block的,这里有个非常“狡猾”的地方,定义中所指的“IO operation”是指真实的IO操作,就是例子中的recvfrom这个system call。non-blocking IO在执行recvfrom这个system call的时候,如果kernel的数据未准备好,则不会block进程,但当kernel中的数据准备好的时候,recvfrom会将数据从kernel拷贝到用户内存中,这个时候进程是被block了,在这段时间内,进程是一直被block住的。而asynchronous IO则不一样,当进程发起IO操作之后,就直接返回再也不理睬了,直到kernel发送一个信号(IO完成),用户进程再调用asynchronous read操作拿数据,在这个过程中,进程完全没有被block。

     

    各个IO Model的比较如图所示:

    在这里插入图片描述

    进过上面的介绍,会发现non-blocking IO和asynchronous IO的区别还是很明显的,在non-blocking IO中,虽然进程大部分时间都不会被block,但是它仍然要求进程去主动的check,并且当数据准备完成以后,也需要进程主动的再次调用recvfrom来将数据拷贝到用户内存。而asynchronous则完全不同,它就像是用户进程将整个IO操作交给了别人(kernel)完成,然后别人做完后发信号通知。在此期间,用户进程不需要去检查IO操作的状态,也不需要主动的去拷贝数据。


    七、关于select、poll、epoll

    • 先总结

    1. select和poll有一个共同的机制,都是采用轮询的方式去询问内核(有没有数据准备好了)

    2. select有一个最大监听事件的机制,32机器限制1024,64位机器限制2048

    3. poll理论上可以开启无限大(1G内存大概能够开10W个监听事件)

    4. epoll是最好的,采用的是回调机制,解决了select和poll共同存在的问题,理论上也可开启无限大

    这三种IO多路复用模型的工具在不同的平台有着不同的支持,而epool在Windows下就不支持,好在Python有selectors模块,帮我们默认选择当前平台下最合适的。

    • 详细说明

    IO复用:为了解释这个名词,首先来理解下复用这个概念,复用也就是共用的意思,这样理解还是有些抽象,为此,咱们来理解下复用在通信领域的使用,在通信领域中为了充分利用网络连接的物理介质,往往在同一条网络链路上采用时分复用或频分复用的技术使其在同一链路上传输多路信号,到这里我们就基本上理解了复用的含义,即公用某个“介质”来尽可能多的做同一类(性质)的事,那IO复用的“介质”是什么呢?为此我们首先来看看服务器编程的模型,客户端发来的请求服务端会产生一个进程来对其进行服务,每当来一个客户请求就产生一个进程来服务,然而进程不可能无限制的产生,因此为了解决大量客户端访问的问题,引入了IO复用技术,即:一个进程可以同时对多个客户请求进行服务。也就是说IO复用的“介质”是进程(准确的说复用的是select和poll,因为进程也是靠调用select和poll来实现的),复用一个进程(select和poll)来对多个IO进行服务,虽然客户端发来的IO是并发的但是IO所需的读写数据多数情况下是没有准备好的,因此就可以利用一个函数(select和poll)来监听IO所需的这些数据的状态,一旦IO有数据可以进行读写了,进程就来对这样的IO进行服务。

      

    理解完IO复用后,我们在来看下实现IO复用中的三个API(select、poll和epoll)的区别和联系

    select,poll,epoll都是IO多路复用的机制,I/O多路复用就是通过一种机制,可以监视多个描述符,一旦某个描述符就绪(一般是读就绪或者写就绪),能够通知应用程序进行相应的读写操作。但select,poll,epoll本质上都是同步I/O,因为他们都需要在读写事件就绪后自己负责进行读写,也就是说这个读写过程是阻塞的,而异步I/O则无需自己负责进行读写,异步I/O的实现会负责把数据从内核拷贝到用户空间。三者的原型如下所示:

    int select(int nfds, fd_set *readfds, fd_set *writefds, fd_set *exceptfds, struct timeval *timeout);

    int poll(struct pollfd *fds, nfds_t nfds, int timeout);

    int epoll_wait(int epfd, struct epoll_event *events, int maxevents, int timeout);

     1.select的第一个参数nfds为fdset集合中最大描述符值加1,fdset是一个位数组,其大小限制为__FD_SETSIZE(1024),位数组的每一位代表其对应的描述符是否需要被检查。第二三四参数表示需要关注读、写、错误事件的文件描述符位数组,这些参数既是输入参数也是输出参数,可能会被内核修改用于标示哪些描述符上发生了关注的事件,所以每次调用select前都需要重新初始化fdset。timeout参数为超时时间,该结构会被内核修改,其值为超时剩余的时间。

     select的调用步骤如下:

    (1)使用copy_from_user从用户空间拷贝fdset到内核空间

    (2)注册回调函数__pollwait

    (3)遍历所有fd,调用其对应的poll方法(对于socket,这个poll方法是sock_poll,sock_poll根据情况会调用到tcp_poll,udp_poll或者datagram_poll)

    (4)以tcp_poll为例,其核心实现就是__pollwait,也就是上面注册的回调函数。

    (5)__pollwait的主要工作就是把current(当前进程)挂到设备的等待队列中,不同的设备有不同的等待队列,对于tcp_poll 来说,其等待队列是sk->sk_sleep(注意把进程挂到等待队列中并不代表进程已经睡眠了)。在设备收到一条消息(网络设备)或填写完文件数 据(磁盘设备)后,会唤醒设备等待队列上睡眠的进程,这时current便被唤醒了。

    (6)poll方法返回时会返回一个描述读写操作是否就绪的mask掩码,根据这个mask掩码给fd_set赋值。

    (7)如果遍历完所有的fd,还没有返回一个可读写的mask掩码,则会调用schedule_timeout是调用select的进程(也就是 current)进入睡眠。当设备驱动发生自身资源可读写后,会唤醒其等待队列上睡眠的进程。如果超过一定的超时时间(schedule_timeout 指定),还是没人唤醒,则调用select的进程会重新被唤醒获得CPU,进而重新遍历fd,判断有没有就绪的fd。

    (8)把fd_set从内核空间拷贝到用户空间。

    总结下select的几大缺点:

    (1)每次调用select,都需要把fd集合从用户态拷贝到内核态,这个开销在fd很多时会很大

    (2)同时每次调用select都需要在内核遍历传递进来的所有fd,这个开销在fd很多时也很大

    (3)select支持的文件描述符数量太小了,默认是1024

    2.  poll与select不同,通过一个pollfd数组向内核传递需要关注的事件,故没有描述符个数的限制,pollfd中的events字段和revents分别用于标示关注的事件和发生的事件,故pollfd数组只需要被初始化一次。

     poll的实现机制与select类似,其对应内核中的sys_poll,只不过poll向内核传递pollfd数组,然后对pollfd中的每个描述符进行poll,相比处理fdset来说,poll效率更高。poll返回后,需要对pollfd中的每个元素检查其revents值,来得指事件是否发生。

    3.直到Linux2.6才出现了由内核直接支持的实现方法,那就是epoll,被公认为Linux2.6下性能最好的多路I/O就绪通知方法。epoll可以同时支持水平触发和边缘触发(Edge Triggered,只告诉进程哪些文件描述符刚刚变为就绪状态,它只说一遍,如果我们没有采取行动,那么它将不会再次告知,这种方式称为边缘触发),理论上边缘触发的性能要更高一些,但是代码实现相当复杂。epoll同样只告知那些就绪的文件描述符,而且当我们调用epoll_wait()获得就绪文件描述符时,返回的不是实际的描述符,而是一个代表就绪描述符数量的值,你只需要去epoll指定的一个数组中依次取得相应数量的文件描述符即可,这里也使用了内存映射(mmap)技术,这样便彻底省掉了这些文件描述符在系统调用时复制的开销。另一个本质的改进在于epoll采用基于事件的就绪通知方式。在select/poll中,进程只有在调用一定的方法后,内核才对所有监视的文件描述符进行扫描,而epoll事先通过epoll_ctl()来注册一个文件描述符,一旦基于某个文件描述符就绪时,内核会采用类似callback的回调机制,迅速激活这个文件描述符,当进程调用epoll_wait()时便得到通知。

    epoll既然是对select和poll的改进,就应该能避免上述的三个缺点。那epoll都是怎么解决的呢?在此之前,我们先看一下epoll 和select和poll的调用接口上的不同,select和poll都只提供了一个函数——select或者poll函数。而epoll提供了三个函 数,epoll_create,epoll_ctl和epoll_wait,epoll_create是创建一个epoll句柄;epoll_ctl是注 册要监听的事件类型;epoll_wait则是等待事件的产生。

      对于第一个缺点,epoll的解决方案在epoll_ctl函数中。每次注册新的事件到epoll句柄中时(在epoll_ctl中指定 EPOLL_CTL_ADD),会把所有的fd拷贝进内核,而不是在epoll_wait的时候重复拷贝。epoll保证了每个fd在整个过程中只会拷贝 一次。

      对于第二个缺点,epoll的解决方案不像select或poll一样每次都把current轮流加入fd对应的设备等待队列中,而只在 epoll_ctl时把current挂一遍(这一遍必不可少)并为每个fd指定一个回调函数,当设备就绪,唤醒等待队列上的等待者时,就会调用这个回调 函数,而这个回调函数会把就绪的fd加入一个就绪链表)。epoll_wait的工作实际上就是在这个就绪链表中查看有没有就绪的fd(利用 schedule_timeout()实现睡一会,判断一会的效果,和select实现中的第7步是类似的)。

      对于第三个缺点,epoll没有这个限制,它所支持的FD上限是最大可以打开文件的数目,这个数字一般远大于2048,举个例子, 在1GB内存的机器上大约是10万左右,具体数目可以cat /proc/sys/fs/file-max察看,一般来说这个数目和系统内存关系很大。

    总结:

    (1)select,poll实现需要自己不断轮询所有fd集合,直到设备就绪,期间可能要睡眠和唤醒多次交替。而epoll其实也需要调用 epoll_wait不断轮询就绪链表,期间也可能多次睡眠和唤醒交替,但是它是设备就绪时,调用回调函数,把就绪fd放入就绪链表中,并唤醒在 epoll_wait中进入睡眠的进程。虽然都要睡眠和交替,但是select和poll在“醒着”的时候要遍历整个fd集合,而epoll在“醒着”的 时候只要判断一下就绪链表是否为空就行了,这节省了大量的CPU时间,这就是回调机制带来的性能提升。

    (2)select,poll每次调用都要把fd集合从用户态往内核态拷贝一次,并且要把current往设备等待队列中挂一次,而epoll只要 一次拷贝,而且把current往等待队列上挂也只挂一次(在epoll_wait的开始,注意这里的等待队列并不是设备等待队列,只是一个epoll内 部定义的等待队列),这也能节省不少的开销。

    "
  • 相关阅读:
    springboot 入门
    json-lib 的 maven dependency 引入及Jar包下载
    DataGridView 使用技巧精华
    SqlServer无备份下误删数据恢复
    Reflector 已经out了,试试ILSpy
    C# 反射,动态编译
    windows8和windows server2012不联网安装.net 3.5(包括2.0和3.0)
    如何附加被分离的质疑数据库? [转]
    easyui validatebox 验证类型
    所见即所得:七大无需编程的DIY开发工具
  • 原文地址:https://www.cnblogs.com/zyk01/p/11375802.html
Copyright © 2011-2022 走看看