zoukankan      html  css  js  c++  java
  • Python之路-python(Queue队列、进程、Gevent协程、SelectPollEpoll异步IO与事件驱动)

    一、进程:

      1、语法

      2、进程间通讯

      3、进程池

    二、Gevent协程

    三、SelectPollEpoll异步IO与事件驱动

    一、进程:

      1、语法

    1 简单的启动线程语法
    2 def run(name):
    3     time.sleep(2)
    4     print("hello",name)
    5 
    6 if __name__ == '__main__':
    7     for i in range(10):同时启动10个进程
    8         p = multiprocessing.Process(target=run,args=("bob",))
    9         p.start()
    View Code
     1 #进程里面再启动一个线程
     2 #每个进程里面在启动一个线程
     3 def thread_run():
     4     print('线程',threading.get_ident())
     5 
     6 def run(name):
     7     time.sleep(2)
     8     print("hello",name)
     9     t = threading.Thread(target=thread_run,)
    10     t.start()
    11 
    12 
    13 if __name__ == '__main__':
    14     for i in range(10):
    15         p = multiprocessing.Process(target=run,args=("bob",))
    16         p.start()
     1 from multiprocessing import Process
     2 import os
     3 
     4 
     5 def info(title):
     6     print(title)
     7     print('module name:', __name__)
     8     print('parent process:', os.getppid())
     9     print('process id:', os.getpid())
    10     print("
    
    ")
    11 
    12 
    13 def f(name):
    14     info('33[31;1mcalled from child process function f33[0m')
    15     print('hello', name)
    16 
    17 if __name__ == '__main__':
    18     info('33[32;1mmain process line33[0m')
    19     p = Process(target=f, args=('bob',))
    20     p.start()
    main process line
    module name: __main__
    parent process: 1556#这个进程是pycharm的进程
    process id: 22324#父进程的id
    
    
    
    called from child process function f
    module name: __mp_main__
    parent process: 22324#父进程的id
    process id: 8516#子进程的id
    总结:每个子进程都是由父进程启动的

      2、进程间通讯

    queue

     1 #线程之间的通信。(我们都知道线程之间是数据共享的)
     2 import threading,queue
     3 
     4 def run():
     5     q.put('测试')
     6 
     7 
     8 if __name__ == '__main__':
     9     q = queue.Queue()
    10     p = threading.Thread(target=run,)
    11     p.start()
    12     print(q.get())

     进程之间是不共享数据的(包括父进程和子进程)

     1 from  multiprocessing import Process,Queue
     2 
     3 def run():
     4     q.put('测试')
     5 
     6 
     7 if __name__ == '__main__':
     8     q = Queue()
     9     # p = threading.Thread(target=run,)
    10     p = Process(target= run,)
    11     p.start()
    12     print(q.get())
    13 结果:
    14 NameError: name 'q' is not defined
    15 结果证明进程之间是不共享数据的

    现在我们用线程queue

     1 from  multiprocessing import Process
     2 import queue
     3 def run(qq):
     4     qq.put('测试')
     5 
     6 
     7 if __name__ == '__main__':
     8     q = queue.Queue()
     9     # p = threading.Thread(target=run,)
    10     p = Process(target= run,args=(q,))
    11     p.start()
    12     print(q.get())
    13     p.join()
    14 结果:
    15 TypeError: can't pickle _thread.lock objects
    16 结论:
    17 进程直接是不可用线程queue互传数据的。

    进程queue

     1 from  multiprocessing import Process,Queue
     2 def run(qq):
     3     qq.put('测试')
     4 
     5 
     6 if __name__ == '__main__':
     7     q = Queue()
     8     # p = threading.Thread(target=run,)
     9     p = Process(target= run,args=(q,))
    10     p.start()
    11     print(q.get())
    12     p.join()
    13 结果:
    14     测试
    15 结论:
    16 #总结:两个进程直接内存空间完全独立(包括父进程和子进程),所以不能互相访问数据
    17 #       但是子进程生成是就把父进程当做一个变量传过来。其实就是拿到父进程的q,然后子进程copy一份
    18 #       然后用pickle序列化,再反序列化给父进程,这样子进程就可以访问父进程的数据

     Pipes

     1 from multiprocessing import Process, Pipe
     2 
     3 
     4 def f(conn):
     5     conn.send([42, None, 'hello from child'])#发给父进程的消息
     6     conn.send([42, None, 'hello from child2'])#发给父进程的消息
     7     print("from parent:",conn.recv())#收来自父进程的消息
     8     conn.close()#关闭
     9 
    10 if __name__ == '__main__':
    11     parent_conn, child_conn = Pipe()#变量名前后没有关系。
    12     p = Process(target=f, args=(child_conn,))
    13     p.start()
    14     print(parent_conn.recv())  # prints "[42, None, 'hello']"
    15     print(parent_conn.recv())  # prints "[42, None, 'hello']"#收子进程的消息,如果这里多收一次就会卡住(子发2,父进程收3次,就会卡住)
    16     parent_conn.send("张三可好") # prints "[42, None, 'hello']",发给子进程的消息
    17     p.join()
    18 结果:
    19 [42, None, 'hello from child']
    20 [42, None, 'hello from child2']
    21 from parent: 张三可好
    22 结论
    23 #相当于socket,实现互相通信。管道两头顺序没关系.发送的跟收到的必须一致,否则多发多收会造成阻塞状态

    上面的queue和pipe实现了进程之间的传递,还不是数据的共享。下面我们看看manager实现两个进程之间的数据共享。

    manager

      A manager returned by Manager() will support types list, dict, Namespace, Lock, RLock, Semaphore, BoundedSemaphore, Condition, Event, Barrier, Queue, Value and Array. For example,

      其实就是实现了进程之间的共享,那些东西可以共享呢?列表、字典、命名空间、锁、递归锁、变量等等

     1 #pipe和queue只是实现了进程直接互相通信,但是实际意义上没有实现之间数据共享。manager可以共享
     2 from multiprocessing import  Process,Manager
     3 import  os
     4 
     5 def f(d,l):
     6     d[os.getpid()] = os.getppid()
     7     l.append(os.getppid())
     8     print(l)
     9 
    10 if __name__ == '__main__':
    11     with Manager() as manager:
    12         d  = manager.dict()#生成一个字典,可在多个线程间共享
    13         l = manager.list(range(5))#生成一个列表,可在多个进程间共享,并先生成5个值
    14 
    15         p_list = []#为了等进程执行完成定义一个列表
    16         for i in range(10):
    17             p = Process(target=f,args=(d,l))
    18             p.start()
    19             p_list.append(p)#执行完一个进程往p_list里面添加一次
    20         for res in p_list:#等待进程执行完毕后等待一下
    21             res.join()
    22         print(d)
    23 结果:
    24 [0, 1, 2, 3, 4, 19112]
    25 [0, 1, 2, 3, 4, 19112, 19112]
    26 [0, 1, 2, 3, 4, 19112, 19112, 19112]
    27 [0, 1, 2, 3, 4, 19112, 19112, 19112, 19112]
    28 [0, 1, 2, 3, 4, 19112, 19112, 19112, 19112, 19112]
    29 [0, 1, 2, 3, 4, 19112, 19112, 19112, 19112, 19112, 19112]
    30 [0, 1, 2, 3, 4, 19112, 19112, 19112, 19112, 19112, 19112, 19112]
    31 [0, 1, 2, 3, 4, 19112, 19112, 19112, 19112, 19112, 19112, 19112, 19112]
    32 [0, 1, 2, 3, 4, 19112, 19112, 19112, 19112, 19112, 19112, 19112, 19112, 19112]
    33 [0, 1, 2, 3, 4, 19112, 19112, 19112, 19112, 19112, 19112, 19112, 19112, 19112, 19112]
    34 {9632: 19112, 6800: 19112, 8956: 19112, 11444: 19112, 5220: 19112, 13052: 19112, 18040: 19112, 12452: 19112, 18256: 19112, 6540: 19112}
    35 
    36 结论:
    37 #Queue   Pipe 只是实现进程间数据的传递
    38 #Manager 实现了进程间数据的共享,即多个进程可以修改同一份数据

     进程同步:

     1 from multiprocessing import Process, Lock
     2 
     3 def f(l, i):
     4     l.acquire()
     5     print('hello world', i)
     6     l.release()
     7 
     8 if __name__ == '__main__':
     9     lock = Lock()#
    10 
    11     for num in range(10):
    12         Process(target=f, args=(lock, num)).start()
    13 结果:
    14 hello world 0
    15 hello world 2
    16 hello world 1
    17 hello world 3
    18 hello world 4
    19 hello world 9
    20 hello world 5
    21 hello world 7
    22 hello world 8
    23 hello world 6
    24 结论:
    25 #这里的锁匙屏幕锁,防止打印到屏幕的时候,一行没打完就开一下一个。

      3、进程池

    进程池内部维护一个进程序列,当使用时,则去进程池中获取一个进程,如果进程池序列中没有可供使用的进进程,那么程序就会等待,直到进程池中有可用进程为止。

    进程池中有两个方法:

      1、apply#串行

      2、apply_async#并行

     1 #apply串行运行
     2 #apply_async异步,其实就是并行
     3 
     4 from  multiprocessing import  Process,Pool,freeze_support
     5 import time
     6 import os
     7 
     8 
     9 def Foo(i):
    10     time.sleep(2)
    11     print("Foo",os.getpid())
    12     return i+ 100
    13 
    14 def Bar(arg):
    15     print("--》exec done,Bar:",arg,os.getpid())
    16 
    17 if __name__ == '__main__':
    18     pool = Pool(processes=3)#允许进程池同时放入3个进程
    19     print("主进程",os.getpid())
    20     for i in range(10):
    21         pool.apply_async(func=Foo, args=(i,), callback=Bar) #callback=回调
    22         # pool.apply(func=Foo,args=(i,))#串行
    23         #pool.apply_async(func=Foo,args=(i,))#串行
    24     print('完成')
    25     pool.close()
    26     pool.join()#牢记进程池中执行关闭后在关闭,如果注释,那么程序就直接关闭
    27 
    28 结果:
    29 主进程 6516
    30 完成
    31 Foo 3320
    32 --》exec done,Bar: 100 6516
    33 Foo 21480
    34 --》exec done,Bar: 101 6516
    35 Foo 17944
    36 --》exec done,Bar: 102 6516
    37 Foo 3320
    38 --》exec done,Bar: 103 6516
    39 Foo 21480
    40 --》exec done,Bar: 104 6516
    41 Foo 17944
    42 --》exec done,Bar: 105 6516
    43 Foo 3320
    44 --》exec done,Bar: 106 6516
    45 Foo 21480
    46 --》exec done,Bar: 107 6516
    47 Foo 17944
    48 --》exec done,Bar: 108 6516
    49 Foo 3320
    50 --》exec done,Bar: 109 6516

    二、Gevent协程

    协程

    协程,又称微线程,纤程。英文名Coroutine。一句话说明什么是线程:协程是一种用户态的轻量级线程

    协程拥有自己的寄存器上下文和栈。协程调度切换时,将寄存器上下文和栈保存到其他地方,在切回来的时候,恢复先前保存的寄存器上下文和栈。因此:

    协程能保留上一次调用时的状态(即所有局部状态的一个特定组合),每次过程重入时,就相当于进入上一次调用的状态,换种说法:进入上一次离开时所处逻辑流的位置。

    协程的好处:

    • 无需线程上下文切换的开销
    • 无需原子操作锁定及同步的开销
    • 方便切换控制流,简化编程模型
    • 高并发+高扩展性+低成本:一个CPU支持上万的协程都不是问题。所以很适合用于高并发处理。

    缺点:

    • 无法利用多核资源:协程的本质是个单线程,它不能同时将 单个CPU 的多个核用上,协程需要和进程配合才能运行在多CPU上.当然我们日常所编写的绝大部分应用都没有这个必要,除非是cpu密集型应用。
    • 进行阻塞(Blocking)操作(如IO时)会阻塞掉整个程序
     1 #使用yeild模拟多协程,模拟多并发
     2 import time
     3 import queue
     4 def consumer(name):
     5     print("--->starting eating baozi...")
     6     while True:
     7         new_baozi = yield
     8         print("[%s] is eating baozi %s" % (name,new_baozi))
     9         #time.sleep(1)
    10  
    11 def producer():
    12  
    13     r = con.__next__()
    14     r = con2.__next__()
    15     n = 0
    16     while n < 5:
    17         n +=1
    18         con.send(n)
    19         con2.send(n)
    20         print("33[32;1m[producer]33[0m is making baozi %s" %n )
    21  
    22  
    23 if __name__ == '__main__':
    24     con = consumer("c1")
    25     con2 = consumer("c2")
    26     p = producer()

    Greenlet:(手动切换)

     1 from greenlet import greenlet
     2 
     3 def test1():
     4     print(12)#2
     5     gr2.switch()#3
     6     print(34)#6
     7     gr2.switch()#7
     8 
     9 def test2():
    10     print(56)#4
    11     gr1.switch()#5
    12     print(78)#8
    13 
    14 
    15 gr1 = greenlet(test1)#启动协程
    16 gr2 = greenlet(test2)
    17 gr1.switch()#相当于yeild的__next__(),没有它上面的都不会执行

     Gevent:(实现遇到IO自动切换)

    Gevent 是一个第三方库,可以轻松通过gevent实现并发同步或异步编程,在gevent中用到的主要模式是Greenlet, 它是以C扩展模块形式接入Python的轻量级协程。 Greenlet全部运行在主程序操作系统进程的内部,但它们被协作式地调度。

     1 #自动切换
     2 import gevent
     3 
     4 def foo():
     5     print("Running in foo,foo开始>>>1")
     6     gevent.sleep(2)
     7     print('Explicit context switch to foo again  foo完成>>>6')
     8 
     9 def bar():
    10     print('Explicit精确的 context 内容 to bar   bar开始>>>2')
    11     gevent.sleep(1)
    12     print("Imlicit context sitch back to bar  bar结束>>>5")
    13 
    14 def func3():
    15     print('running func3  func3开始>>>3')
    16     gevent.sleep(0)
    17     print('running func3 again  func3结束>>>4')
    18 
    19 gevent.joinall([
    20     gevent.spawn(foo),
    21     gevent.spawn(bar),
    22     gevent.spawn(func3),
    23 ])
    1 结果:
    2 Running in foo,foo开始>>>1
    3 Explicit精确的 context 内容 to bar   bar开始>>>2
    4 running func3  func3开始>>>3
    5 running func3 again  func3结束>>>4
    6 Imlicit context sitch back to bar  bar结束>>>5
    7 Explicit context switch to foo again  foo完成>>>6
    遇到sleep就自动切换,sleep后面的参数是秒。上面这个小程序最多2秒左右运行完

    通过gevent实现单线程下的多socket并发

    server side 

     1 import sys
     2 import socket
     3 import time
     4 import gevent
     5  
     6 from gevent import socket,monkey
     7 monkey.patch_all()
     8  
     9  
    10 def server(port):
    11     s = socket.socket()
    12     s.bind(('0.0.0.0', port))
    13     s.listen(500)
    14     while True:
    15         cli, addr = s.accept()
    16         gevent.spawn(handle_request, cli)
    17  
    18  
    19  
    20 def handle_request(conn):
    21     try:
    22         while True:
    23             data = conn.recv(1024)
    24             print("recv:", data)
    25             conn.send(data)
    26             if not data:
    27                 conn.shutdown(socket.SHUT_WR)
    28  
    29     except Exception as  ex:
    30         print(ex)
    31     finally:
    32         conn.close()
    33 if __name__ == '__main__':
    34     server(8001)

    client side   

     1 import socket
     2  
     3 HOST = 'localhost'    # The remote host
     4 PORT = 8001           # The same port as used by the server
     5 s = socket.socket(socket.AF_INET, socket.SOCK_STREAM)
     6 s.connect((HOST, PORT))
     7 while True:
     8     msg = bytes(input(">>:"),encoding="utf8")
     9     s.sendall(msg)
    10     data = s.recv(1024)
    11     #print(data)
    12  
    13     print('Received', repr(data))
    14 s.close()

    简单的使用协程写一个爬虫:

    串行

     1 from urllib import request
     2 import time
     3 
     4 
     5 def f(url):
     6     print('GET:%s'%url)
     7     resp = request.urlopen(url)
     8     data = resp.read()
     9     # file = open("data",'wb')#这里可以打开这两步,写入文件
    10     # file.write(data)
    11     print('%d bytes received from %s.'%(len(data),url))
    12 
    13 
    14 
    15 #串性模式
    16 urls = [
    17     'https://www.python.org/',
    18     'https://www.yahoo.com/',
    19     'https://github.com/']
    20 
    21 time_start = time.time()
    22 for url in urls:
    23     f(url)
    24 print("同步cost",time.time()-time_start)

    并行:

     1 #因为gevent检测不到urllib是否进行了io操作,所以需要打补丁
     2 
     3 from urllib import request
     4 import gevent,time
     5 
     6 from gevent import monkey#打补丁(把下面有可能有IO操作的单独做上标记)
     7 monkey.patch_all()#打补丁
     8 
     9 def f(url):
    10     print('GET:%s'%url)
    11     resp = request.urlopen(url)
    12     data = resp.read()
    13     # file = open("data",'wb')#这里可以打开这两步,写入文件
    14     # file.write(data)
    15     print('%d bytes received from %s.'%(len(data),url))
    16 
    17 
    18 #异步模式
    19 async_time_start = time.time()
    20 gevent.joinall([
    21     gevent.spawn(f,'https://www.python.org/'),
    22     gevent.spawn(f, 'https://www.yahoo.com/'),
    23     gevent.spawn(f,'https://github.com/')
    24 ])
    25 print("异步步cost",time.time()-async_time_start)

    论事件驱动与异步IO

    通常,我们写服务器处理模型的程序时,有以下几种模型:
    (1)每收到一个请求,创建一个新的进程,来处理该请求;
    (2)每收到一个请求,创建一个新的线程,来处理该请求;
    (3)每收到一个请求,放入一个事件列表,让主进程通过非阻塞I/O方式来处理请求
    上面的几种方式,各有千秋,
    第(1)中方法,由于创建新的进程的开销比较大,所以,会导致服务器性能比较差,但实现比较简单。
    第(2)种方式,由于要涉及到线程的同步,有可能会面临死锁等问题。
    第(3)种方式,在写应用程序代码时,逻辑比前面两种都复杂。
    综合考虑各方面因素,一般普遍认为第(3)种方式是大多数网络服务器采用的方式
     

    看图说话讲事件驱动模型

    在UI编程中,常常要对鼠标点击进行相应,首先如何获得鼠标点击呢?
    方式一:创建一个线程,该线程一直循环检测是否有鼠标点击,那么这个方式有以下几个缺点
    1. CPU资源浪费,可能鼠标点击的频率非常小,但是扫描线程还是会一直循环检测,这会造成很多的CPU资源浪费;如果扫描鼠标点击的接口是阻塞的呢?
    2. 如果是堵塞的,又会出现下面这样的问题,如果我们不但要扫描鼠标点击,还要扫描键盘是否按下,由于扫描鼠标时被堵塞了,那么可能永远不会去扫描键盘;
    3. 如果一个循环需要扫描的设备非常多,这又会引来响应时间的问题;
    所以,该方式是非常不好的。

    方式二:就是事件驱动模型
    目前大部分的UI编程都是事件驱动模型,如很多UI平台都会提供onClick()事件,这个事件就代表鼠标按下事件。事件驱动模型大体思路如下:
    1. 有一个事件(消息)队列;
    2. 鼠标按下时,往这个队列中增加一个点击事件(消息);
    3. 有个循环,不断从队列取出事件,根据不同的事件,调用不同的函数,如onClick()、onKeyDown()等;
    4. 事件(消息)一般都各自保存各自的处理函数指针,这样,每个消息都有独立的处理函数;

     

    事件驱动编程是一种编程范式,这里程序的执行流由外部事件来决定。它的特点是包含一个事件循环,当外部事件发生时使用回调机制来触发相应的处理。另外两种常见的编程范式是(单线程)同步以及多线程编程。

    让我们用例子来比较和对比一下单线程、多线程以及事件驱动编程模型。下图展示了随着时间的推移,这三种模式下程序所做的工作。这个程序有3个任务需要完成,每个任务都在等待I/O操作时阻塞自身。阻塞在I/O操作上所花费的时间已经用灰色框标示出来了。

     

    在单线程同步模型中,任务按照顺序执行。如果某个任务因为I/O而阻塞,其他所有的任务都必须等待,直到它完成之后它们才能依次执行。这种明确的执行顺序和串行化处理的行为是很容易推断得出的。如果任务之间并没有互相依赖的关系,但仍然需要互相等待的话这就使得程序不必要的降低了运行速度。

    在多线程版本中,这3个任务分别在独立的线程中执行。这些线程由操作系统来管理,在多处理器系统上可以并行处理,或者在单处理器系统上交错执行。这使得当某个线程阻塞在某个资源的同时其他线程得以继续执行。与完成类似功能的同步程序相比,这种方式更有效率,但程序员必须写代码来保护共享资源,防止其被多个线程同时访问。多线程程序更加难以推断,因为这类程序不得不通过线程同步机制如锁、可重入函数、线程局部存储或者其他机制来处理线程安全问题,如果实现不当就会导致出现微妙且令人痛不欲生的bug。

    在事件驱动版本的程序中,3个任务交错执行,但仍然在一个单独的线程控制中。当处理I/O或者其他昂贵的操作时,注册一个回调到事件循环中,然后当I/O操作完成时继续执行。回调描述了该如何处理某个事件。事件循环轮询所有的事件,当事件到来时将它们分配给等待处理事件的回调函数。这种方式让程序尽可能的得以执行而不需要用到额外的线程。事件驱动型程序比多线程程序更容易推断出行为,因为程序员不需要关心线程安全问题。

    当我们面对如下的环境时,事件驱动模型通常是一个好的选择:

    1. 程序中有许多任务,而且…
    2. 任务之间高度独立(因此它们不需要互相通信,或者等待彼此)而且…
    3. 在等待事件到来时,某些任务会阻塞。

    当应用程序需要在任务间共享可变的数据时,这也是一个不错的选择,因为这里不需要采用同步处理。

    网络应用程序通常都有上述这些特点,这使得它们能够很好的契合事件驱动编程模型。

    三、SelectPollEpoll异步IO与事件驱动

    一 概念说明

    在进行解释之前,首先要说明几个概念:
    - 用户空间和内核空间
    - 进程切换
    - 进程的阻塞
    - 文件描述符
    - 缓存 I/O

    用户空间与内核空间

    现在操作系统都是采用虚拟存储器,那么对32位操作系统而言,它的寻址空间(虚拟存储空间)为4G(2的32次方)。操作系统的核心是内核,独立于普通的应用程序,可以访问受保护的内存空间,也有访问底层硬件设备的所有权限。为了保证用户进程不能直接操作内核(kernel),保证内核的安全,操心系统将虚拟空间划分为两部分,一部分为内核空间,一部分为用户空间。针对linux操作系统而言,将最高的1G字节(从虚拟地址0xC0000000到0xFFFFFFFF),供内核使用,称为内核空间,而将较低的3G字节(从虚拟地址0x00000000到0xBFFFFFFF),供各个进程使用,称为用户空间。

    进程切换

    为了控制进程的执行,内核必须有能力挂起正在CPU上运行的进程,并恢复以前挂起的某个进程的执行。这种行为被称为进程切换。因此可以说,任何进程都是在操作系统内核的支持下运行的,是与内核紧密相关的。

    从一个进程的运行转到另一个进程上运行,这个过程中经过下面这些变化:
    1. 保存处理机上下文,包括程序计数器和其他寄存器。
    2. 更新PCB信息。
    3. 把进程的PCB移入相应的队列,如就绪、在某事件阻塞等队列。
    4. 选择另一个进程执行,并更新其PCB。
    5. 更新内存管理的数据结构。
    6. 恢复处理机上下文。

    注:总而言之就是很耗资源,具体的可以参考这篇文章:进程切换

    进程的阻塞

    正在执行的进程,由于期待的某些事件未发生,如请求系统资源失败、等待某种操作的完成、新数据尚未到达或无新工作做等,则由系统自动执行阻塞原语(Block),使自己由运行状态变为阻塞状态。可见,进程的阻塞是进程自身的一种主动行为,也因此只有处于运行态的进程(获得CPU),才可能将其转为阻塞状态。当进程进入阻塞状态,是不占用CPU资源的

    文件描述符fd

    文件描述符(File descriptor)是计算机科学中的一个术语,是一个用于表述指向文件的引用的抽象化概念。

    文件描述符在形式上是一个非负整数。实际上,它是一个索引值,指向内核为每一个进程所维护的该进程打开文件的记录表。当程序打开一个现有文件或者创建一个新文件时,内核向进程返回一个文件描述符。在程序设计中,一些涉及底层的程序编写往往会围绕着文件描述符展开。但是文件描述符这一概念往往只适用于UNIX、Linux这样的操作系统。

    缓存 I/O

    缓存 I/O 又被称作标准 I/O,大多数文件系统的默认 I/O 操作都是缓存 I/O。在 Linux 的缓存 I/O 机制中,操作系统会将 I/O 的数据缓存在文件系统的页缓存( page cache )中,也就是说,数据会先被拷贝到操作系统内核的缓冲区中,然后才会从操作系统内核的缓冲区拷贝到应用程序的地址空间。

    缓存 I/O 的缺点:
    数据在传输过程中需要在应用程序地址空间和内核进行多次数据拷贝操作,这些数据拷贝操作所带来的 CPU 以及内存开销是非常大的。

    二 IO模式

    刚才说了,对于一次IO访问(以read举例),数据会先被拷贝到操作系统内核的缓冲区中,然后才会从操作系统内核的缓冲区拷贝到应用程序的地址空间。所以说,当一个read操作发生时,它会经历两个阶段:
    1. 等待数据准备 (Waiting for the data to be ready)
    2. 将数据从内核拷贝到进程中 (Copying the data from the kernel to the process)

    正式因为这两个阶段,linux系统产生了下面五种网络模式的方案。
    - 阻塞 I/O(blocking IO)
    - 非阻塞 I/O(nonblocking IO)
    - I/O 多路复用( IO multiplexing)
    - 信号驱动 I/O( signal driven IO)
    - 异步 I/O(asynchronous IO)

    注:由于signal driven IO在实际中并不常用,所以我这只提及剩下的四种IO Model。

    阻塞 I/O(blocking IO)

    在linux中,默认情况下所有的socket都是blocking,一个典型的读操作流程大概是这样:

     

    当用户进程调用了recvfrom这个系统调用,kernel就开始了IO的第一个阶段:准备数据(对于网络IO来说,很多时候数据在一开始还没有到达。比如,还没有收到一个完整的UDP包。这个时候kernel就要等待足够的数据到来)。这个过程需要等待,也就是说数据被拷贝到操作系统内核的缓冲区中是需要一个过程的。而在用户进程这边,整个进程会被阻塞(当然,是进程自己选择的阻塞)。当kernel一直等到数据准备好了,它就会将数据从kernel中拷贝到用户内存,然后kernel返回结果,用户进程才解除block的状态,重新运行起来。

    所以,blocking IO的特点就是在IO执行的两个阶段都被block了。

    非阻塞 I/O(nonblocking IO)

    linux下,可以通过设置socket使其变为non-blocking。当对一个non-blocking socket执行读操作时,流程是这个样子:

    当用户进程发出read操作时,如果kernel中的数据还没有准备好,那么它并不会block用户进程,而是立刻返回一个error。从用户进程角度讲 ,它发起一个read操作后,并不需要等待,而是马上就得到了一个结果。用户进程判断结果是一个error时,它就知道数据还没有准备好,于是它可以再次发送read操作。一旦kernel中的数据准备好了,并且又再次收到了用户进程的system call,那么它马上就将数据拷贝到了用户内存,然后返回。

    所以,nonblocking IO的特点是用户进程需要不断的主动询问kernel数据好了没有。

    I/O 多路复用( IO multiplexing)

    IO multiplexing就是我们说的select,poll,epoll,有些地方也称这种IO方式为event driven IO。select/epoll的好处就在于单个process就可以同时处理多个网络连接的IO。它的基本原理就是select,poll,epoll这个function会不断的轮询所负责的所有socket,当某个socket有数据到达了,就通知用户进程。

    当用户进程调用了select,那么整个进程会被block,而同时,kernel会“监视”所有select负责的socket,当任何一个socket中的数据准备好了,select就会返回。这个时候用户进程再调用read操作,将数据从kernel拷贝到用户进程。

    所以,I/O 多路复用的特点是通过一种机制一个进程能同时等待多个文件描述符,而这些文件描述符(套接字描述符)其中的任意一个进入读就绪状态,select()函数就可以返回。

    这个图和blocking IO的图其实并没有太大的不同,事实上,还更差一些。因为这里需要使用两个system call (select 和 recvfrom),而blocking IO只调用了一个system call (recvfrom)。但是,用select的优势在于它可以同时处理多个connection。

    所以,如果处理的连接数不是很高的话,使用select/epoll的web server不一定比使用multi-threading + blocking IO的web server性能更好,可能延迟还更大。select/epoll的优势并不是对于单个连接能处理得更快,而是在于能处理更多的连接。)

    在IO multiplexing Model中,实际中,对于每一个socket,一般都设置成为non-blocking,但是,如上图所示,整个用户的process其实是一直被block的。只不过process是被select这个函数block,而不是被socket IO给block。

    异步 I/O(asynchronous IO)

    inux下的asynchronous IO其实用得很少。先看一下它的流程:

    用户进程发起read操作之后,立刻就可以开始去做其它的事。而另一方面,从kernel的角度,当它受到一个asynchronous read之后,首先它会立刻返回,所以不会对用户进程产生任何block。然后,kernel会等待数据准备完成,然后将数据拷贝到用户内存,当这一切都完成之后,kernel会给用户进程发送一个signal,告诉它read操作完成了。

    总结

    blocking和non-blocking的区别

    调用blocking IO会一直block住对应的进程直到操作完成,而non-blocking IO在kernel还准备数据的情况下会立刻返回。

    synchronous IO和asynchronous IO的区别

    在说明synchronous IO和asynchronous IO的区别之前,需要先给出两者的定义。POSIX的定义是这样子的:
    - A synchronous I/O operation causes the requesting process to be blocked until that I/O operation completes;
    - An asynchronous I/O operation does not cause the requesting process to be blocked;

    两者的区别就在于synchronous IO做”IO operation”的时候会将process阻塞。按照这个定义,之前所述的blocking IO,non-blocking IO,IO multiplexing都属于synchronous IO。

    有人会说,non-blocking IO并没有被block啊。这里有个非常“狡猾”的地方,定义中所指的”IO operation”是指真实的IO操作,就是例子中的recvfrom这个system call。non-blocking IO在执行recvfrom这个system call的时候,如果kernel的数据没有准备好,这时候不会block进程。但是,当kernel中数据准备好的时候,recvfrom会将数据从kernel拷贝到用户内存中,这个时候进程是被block了,在这段时间内,进程是被block的。

    而asynchronous IO则不一样,当进程发起IO 操作之后,就直接返回再也不理睬了,直到kernel发送一个信号,告诉进程说IO完成。在这整个过程中,进程完全没有被block。

    各个IO Model的比较如图所示:

    通过上面的图片,可以发现non-blocking IO和asynchronous IO的区别还是很明显的。在non-blocking IO中,虽然进程大部分时间都不会被block,但是它仍然要求进程去主动的check,并且当数据准备完成以后,也需要进程主动的再次调用recvfrom来将数据拷贝到用户内存。而asynchronous IO则完全不同。它就像是用户进程将整个IO操作交给了他人(kernel)完成,然后他人做完后发信号通知。在此期间,用户进程不需要去检查IO操作的状态,也不需要主动的去拷贝数据。

  • 相关阅读:
    SecureCRT
    MySQL
    流式计算概述
    WEB加密算法
    drop、truncate和delete的区别
    JVM参数
    HTTP1.0与HTTP1.1区别
    HTTP请求方法
    Java查看JVM转态的命令总结
    go二次更新
  • 原文地址:https://www.cnblogs.com/lei0213/p/5908243.html
Copyright © 2011-2022 走看看