zoukankan      html  css  js  c++  java
  • python全栈学习--day43(引子,协程介绍,Greenlet模块,Gevent模块,Gevent之同步与异步)

    I/O操作,不占用CPU。它内部有一个专门的处理I/O模块。
    print和写log 属于I/O操作,它不占用CPU

    线程

    GIL锁保证一个进程中的多个线程在同一时刻只有一个可以被CPU执行

    实例化一个LOCK( ),它就是一个互斥锁

    lock 和 rlock 

    互斥锁LOCK

    死锁

    rlock 递归锁

    递归锁不会发送死锁现象

    2个进程中的线程,不会受到GIL影响

    GIL 是针对一个进程中的多个线程,同一时间,只能有一个线程访问CPU

    针对GIL的CPU利用率问题

    起多个进程,就可以解决CPU利用率问题。

    科学家吃面的例子,它不能用一把锁,必须2个锁。

    def eat1(noodle_lock,fork_lock,name):
        noodle_lock.acquire()
        print('%s抢到了面'%name)
        fork_lock.acquire()
        print('%s抢到了叉子'%name)
        print('%s正在吃面'%name)
        fork_lock.release()
        print('%s归还了叉子' % name)
        noodle_lock.release()
        print('%s归还了面' % name)
    

      

    假设有三个人,

    A要面和叉子

    B只要面

    C只要叉子

    如果只有一个锁,那么就无法处理这3个人的需求,会发生数据不安全的情况。

    semaphore 在开始固定一个线程的流量

    condition 通过信号控制线程的流量

    event 通过一个信号控制所有线程

    timer 定时器

    队列 线程数据安全

    线程池

    能够在多线程的基础上进一步节省内存和时间开销

    semaphore 在一开始固定一个线程的流量

    condition 通过一个信号控制线程的流量

    event 通过一个信号控制所有线程

    timer 定时器

    队列 线程数据安全

    线程池
    能够在多线程的基础上进一步节省内存和时间开销

     一、引子                                                                         

    之前我们学习了线程、进程的概念,了解了在操作系统中进程是资源分配的最小单位,线程是CPU调度的最小单位。按道理来说我们已经算是把cpu的利用率提高很多了。但是我们知道无论是创建多进程还是创建多线程来解决问题,都要消耗一定的时间来创建进程、创建线程、以及管理他们之间的切换。

      随着我们对于效率的追求不断提高,基于单线程来实现并发又成为一个新的课题,即只用一个主线程(很明显可利用的cpu只有一个)情况下实现并发。这样就可以节省创建线进程所消耗的时间。

      为此我们需要先回顾下并发的本质:切换+保存状态

       cpu正在运行一个任务,会在两种情况下切走去执行其他的任务(切换由操作系统强制控制),一种情况是该任务发生了阻塞,另外一种情况是该任务计算的时间过长

    ps:在介绍进程理论时,提及进程的三种执行状态,而线程才是执行单位,所以也可以将上图理解为线程的三种状态 

    一:其中第二种情况并不能提升效率,只是为了让cpu能够雨露均沾,实现看起来所有任务都被“同时”执行的效果,如果多个任务都是纯计算的,这种切换反而会降低效率。

    为此我们可以基于yield来验证。yield本身就是一种在单线程下可以保存任务运行状态的方法,我们来简单复习一下:

    #1 yiled可以保存状态,yield的状态保存与操作系统的保存线程状态很像,但是yield是代码级别控制的,更轻量级
    #2 send可以把一个函数的结果传给另外一个函数,以此实现单线程内程序之间的切换
    import time
    def consumer(res):
        '''任务1:接收数据,处理数据'''
        pass
    
    def producer():
        '''任务2:生产数据'''
        res=[]
        for i in range(10000000):
            res.append(i)
        return res
    
    start=time.time()
    #串行执行
    res=producer()
    consumer(res) #写成consumer(producer())会降低执行效率
    stop=time.time()
    print(stop-start) #1.1190457344055176
    
    #基于yield并发执行
    import time
    def consumer():
        while True:
            x = yield
    
    def producer():
        g = consumer()
        next(g)
        for i in range(1000000):
            g.send(i)
    
    start=time.time()
    
    producer()
    
    stop = time.time()
    print(stop-start)    #0.10477948188781738
    

    二: 第一种情况的切换。在任务一遇到IO情况下,切换到任务二去执行,这样就可以利用任务----阻塞的时间完成任务二的计算,效率的提升就在于此。

    import time
    def consumer():
        '''任务1:接收数据,处理数据'''
        while True:
            x=yield
    
    def producer():
        '''任务2:生产数据'''
        g=consumer()
        next(g)
        for i in range(10000000):
            g.send(i)
            time.sleep(2)
    
    start=time.time()
    producer() #并发执行,但是任务producer遇到io就会阻塞住,并不会切到该线程内的其他任务去执行
    
    stop=time.time()
    print(stop-start)

    对于单线程下,我们不可避免程序中出现IO操作,但如果我们能在自己的程序中(即用户程序级别,而非操作系统级别)控制单线程下的多个任务能在一个任务遇到IO阻塞时就切换到另外一个任务去计算,这样就保证了改线程能够最大限度的处于就绪状态。即随时可都可以被CPU执行的状态,相当于我们在用户程序级别将自己的IO操作最大限度的隐藏起来,从而可以迷惑操作系统,让其看到: 该线程好像一直是计算,io 比较少,从而更多的将CPU执行权限分配给我们的线程。

      协成的本质就是在单线程下,由用户自己控制一个任务遇到io阻塞了就切换另外一个任务去执行,以此来提升效率。为了实现它,我们需要寻找一种可以同时满足以下条件的解决方案:

    1.可以控制多个任务之间的切换,切换之前将任务的状态保存下来,以便重新运行时,可以基于暂停的位置继续执行。

    2.作为1的补充:可以监测IO操作,在遇到io遇到的情况下才发生切换。

    二,协程介绍

    协程:是单线程下的并发,又称微线程,纤程。一句话说明什么是线程: 协程是一种用户态的轻量级线程,即协程是由用户程序自己控制调度的。

    需要强调的是:

    1.python的线程属于内核级别的,即由操作系统控制调度 (如单线程遇到IO或执行时间就会被迫交出CPI执行权限,切换其他线程运行)

    2.单线程内核开启协程,一旦遇到IO,就会从应用程序级别(而非操作系统)控制切换,以此来提升效率(!!!非io操作的切换与效率无关)

    对比操作系统控制线程的切换,用户在单线程内控制协程的切换

    优点如下:

    #1. 协程的切换开销更小,属于程序级别的切换,操作系统完全感知不到,因而更加轻量级
    #2. 单线程内就可以实现并发的效果,最大限度地利用cpu

    缺点如下:

    #1. 协程的本质是单线程下,无法利用多核,可以是一个程序开启多个进程,每个进程内开启多个线程,每个线程内开启协程
    #2. 协程指的是单个线程,因而一旦协程出现阻塞,将会阻塞整个线程

    总结协程特点:

    1. 必须在只有一个单线程里实现并发
    2. 修改共享数据不需加锁
    3. 用户程序里自己保存多个控制流的上下文栈
    4. 附加:一个协程遇到IO操作自动切换到其它协程(如何实现检测IO,yield、greenlet都无法实现,就用到了gevent模块(select机制))

    三、Greenlet模块

    安装 :pip3 install greenlet

    from greenlet import greenlet
    
    def eat(name):
        print('%s eat 1'%name)
        g2.switch('egon')
        print('%s eat 2'%name)
        g2.switch()
    def play(name):
        print('%s play 1'%name)
        g1.switch()
        print('%s play 2'%name)
    
    g1=greenlet(eat)
    g2=greenlet(play)
    
    g1.switch('egon')
    

    单纯的切换(在没有IO的情况下或者没有重复内存空间的操作),反而会降低程序的执行速度

    #顺序执行
    import time
    def f1():
        res=1
        for i in range(100000000):
            res+=i
    
    def f2():
        res=1
        for i in range(100000000):
            res*=i
    
    start=time.time()
    f1()
    f2()
    stop=time.time()
    print('run time is %s' %(stop-start)) #10.985628366470337
    
    #切换
    from greenlet import greenlet
    import time
    def f1():
        res=1
        for i in range(100000000):
            res+=i
            g2.switch()
    
    def f2():
        res=1
        for i in range(100000000):
            res*=i
            g1.switch()
    
    start=time.time()
    g1=greenlet(f1)
    g2=greenlet(f2)
    g1.switch()
    stop=time.time()
    print('run time is %s' %(stop-start)) # 52.763017892837524
    
    效率对比
    

     

    greenlet只是提供了一种比generator更加便捷的切换方式,当切到一个任务执行时如果遇到io,那就原地阻塞,仍然是没有解决遇到IO自动切换来提升效率的问题。

    单线程里的这20个任务的代码通常会既有计算操作又有阻塞操作,我们完全可以在执行任务1时遇到阻塞,就利用阻塞的时间去执行任务2。。。。如此,才能提高效率,这就用到了Gevent模块。

    四、Gevent模块                                                              

    安装:pip3 install gevent

    Gevent 是一个第三方库,可以轻松通过gevent实现并发同步或异步编程,在gevent中用到的主要模式是Greenlet, 它是以C扩展模块形式接入Python的轻量级协程。 Greenlet全部运行在主程序操作系统进程的内部,但它们被协作式地调度。

    g1=gevent.spawn(func,1,,2,3,x=4,y=5)创建一个协程对象g1,spawn括号内第一个参数是函数名,如eat,后面可以有多个参数,可以是位置实参或关键字实参,都是传给函数eat的
    
    g2=gevent.spawn(func2)
    
    g1.join() #等待g1结束
    
    g2.join() #等待g2结束
    
    #或者上述两步合作一步:gevent.joinall([g1,g2])
    
    g1.value#拿到func1的返回值
    from gevent import monkey;monkey.patch_all()
    
    import gevent
    import time
    def eat():
        print('eat food 1')
        time.sleep(2)
        print('eat food 2')
    
    def play():
        print('play 1')
        time.sleep(1)
        print('play 2')
    
    g1=gevent.spawn(eat)
    g2=gevent.spawn(play)
    gevent.joinall([g1,g2])
    print('')

     threading.current_thread().getName()来查看每个g1和g2,查看的结果为DummyThread-n,即假线程

     

    from gevent import monkey;monkey.patch_all()
    import threading
    import gevent
    import time
    def eat():
        print(threading.current_thread().getName())
        print('eat food 1')
        time.sleep(2)
        print('eat food 2')
    
    def play():
        print(threading.current_thread().getName())
        print('play 1')
        time.sleep(1)
        print('play 2')
    
    g1 = gevent.spawn(eat)
    g2 = gevent.spawn(play)
    gevent.joinall([g1,g2])
    print('')

    五、Gevent之同步与异步         

    from gevent import spawn,joinall,monkey;monkey.patch_all()
    
    import time
    def task(pid):
        time.sleep(0.5)
        print('Task %s done'% pid)
    
    def synchronous():
        for i in range(10):
            task(i)
    
    def asynchronous():
        g_1 = [spawn(task,i)for i in range(10)]
        joinall(g_1)
        print('DONE')
    
    if __name__ == '__main__':
        print('Synchronous:')
        synchronous()
        print('Asynchronous:')
        asynchronous()
    #  上面程序的重要部分是将task函数封装到Greenlet内部线程的gevent.spawn。
    #  初始化的greenlet列表存放在数组threads中,此数组被传给gevent.joinall 函数,

    对比使用普通函数和使用协程,谁更快一点

    由于操作系统,访问一次网页后,会有缓存。

    所以测试时,先访问一遍网页。再分别测试协程和普通函数。

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    23
    24
    25
    26
    27
    from gevent import monkey;monkey.patch_all()
    from urllib.request import urlopen
    import gevent
    import time
     
    def get_page(url):
        res = urlopen(url)
        #print(len(res.read()))
     
    url_lst = [
        'http://www.baidu.com',
        'http://www.sogou.com',
        'http://www.sohu.com',
        'http://www.qq.com',
        'http://www.cnblogs.com',
    ]
    start = time.time()
    gevent.joinall([gevent.spawn(get_page,url) for url in url_lst])
    print('先执行一次',time.time() - start)
     
    start = time.time()
    gevent.joinall([gevent.spawn(get_page,url) for url in url_lst])
    print('协程',time.time() - start)
     
    start = time.time()
    for url in url_lst:get_page(url)
    print('普通',time.time() - start)

    执行输出:

    先执行一次 0.6465449333190918
    协程 0.34525322914123535
    普通 0.570899486541748

     结论
    以后用爬虫,可以使用协程,它的速度更快。

     

    Gevent 之应用举例二

    通过gevent实现单线程下的socket并发

    注意:from gevent import monkey;monkey.patch_all( ) 一定要放到导入socket模块之前,否则gevent无法识别socket的阻塞

      

     

     

  • 相关阅读:
    C语言调试示例
    Tiff格式详解(转载)
    指纹
    twitter
    baidu
    NoSuchMethodError随记
    IllegalArgumentException异常
    Springboot2.2.9接入阿里云ES(带高亮查询)
    阿里云ECS安装cnpm
    阿里云ECS安装docker
  • 原文地址:https://www.cnblogs.com/haowen980/p/9057283.html
Copyright © 2011-2022 走看看