zoukankan      html  css  js  c++  java
  • python学习笔记之线程、进程和协程(第八天)

         参考文档: 

              金角大王博客:http://www.cnblogs.com/alex3714/articles/5230609.html

              银角大王博客:http://www.cnblogs.com/wupeiqi/articles/5040827.html

    线程是操作系统能够进行运算调度的最小单位。它被包含在进程之中,是进程中的实际运作单位。一条线程指的是进程中一个单一顺序的控制流,一个进程中可以并发多个线程,每条线程并行执行不同的任务

    Threading用于提供线程相关的操作,线程是应用程序中工作的最小单元。

    更多方法:

    start            线程准备就绪,等待CPU调度

    setName      为线程设置名称

    getName      获取线程名称

    setDaemon      设置为后台线程或前台线程(默认)

                   如果是后台线程,主线程执行过程中,后台线程也在进行,主线程执行完毕后,后台线程不论成功与否,均停止

                   如果是前台线程,主线程执行过程中,前台线程也在进行,主线程执行完毕后,等待前台线程也执行完成后,程序停

    join           逐个执行每个线程,执行完毕后继续往下执行,该方法使得多线程变得无意义

    run                     线程被cpu调度后自动执行线程对象的run方法

    一、线程有2种调用方式:

          1、直接调用

          2、继承式调用

    具体实例如下:

    直接调用

    import threading,time
    import os,sys
    
    
    
    def sayhi(num):
        print("running on number:%s" % num)
        time.sleep(3)
    
    if __name__ == '__main__':
        #t1 = threading.Thread(target=sayhi,name='abcd',args=(1,),daemon=True)
        #t2 = threading.Thread(target=sayhi,name='1234',args=(2,),daemon=True)
        '''
        t1 = threading.Thread(target=sayhi,name='abcd',args=(1,))
        t2 = threading.Thread(target=sayhi,name='1234',args=(2,))
    
    
        t1.start()
        t2.start()
    
    
        print(t1.getName())
        print(t2.getName())
    直接调用

    继承式调用

    import threading,time
    import os,sys
    
    
    
    
    class MyThread(threading.Thread):
        def __init__(self,num):
            threading.Thread.__init__(self)
            self.num = num
    
        def run(self):
            print("running on number:%s" % self.num)
            time.sleep(3)
    
    
    if __name__ == '__main__':
        t1 = MyThread(1)
        t2 = MyThread(2)
        t1.start()
        t2.start()
    
        print(t1.getName())
        print(t2.getName())
    继承式调用

    二、线程之join和 setDaemon

    import threading,time
    
    def run(n):
        print('[%s]------running-----
    ' % n)
        time.sleep(5)
        print('----done----')
    
    def main():
        for i in range(5):
            t = threading.Thread(target=run,args=(i,))
            t.start()
            #t.join()    #阻塞变串行
            #t.join(2)    #设置等待超时时间,和time.sleep等待时间,谁先到谁继续
            #t.join(timeout=9)  #超时时间大于sleep时间,没有啥意义
            print('start threading %s' % i,t.getName())
    
    #main()
    
    m = threading.Thread(target=main,args=())
    m.setDaemon(True)  #将main线程设置为Daemon线程,它做为程序主线程的守护线程,当主线程退出时,m线程也会退出,由m启动的其它子线程会同时退出,不管是否执行完任务
    m.start()
    m.join()    #变为不阻塞,但run中sleep后的输出不会执行
    print("----------main thread done------------")

    三、线程之锁:

    Python GIL(Global Interpreter Lock)  

    In CPython, the global interpreter lock, or GIL, is a mutex that prevents multiple native threads from executing Python bytecodes at once. This lock is necessary mainly because CPython’s memory management is not thread-safe. (However, since the GIL exists, other features have grown to depend on the guarantees that it enforces.)

    上面的核心意思就是,无论你启多少个线程,你有多少个cpu, Python在执行的时候会淡定的在同一时刻只允许一个线程运行,擦。。。,那这还叫什么多线程呀?莫如此早的下结结论,听我现场讲。

     

    首先需要明确的一点是GIL并不是Python的特性,它是在实现Python解析器(CPython)时所引入的一个概念。就好比C++是一套语言(语法)标准,但是可以用不同的编译器来编译成可执行代码。有名的编译器例如GCCINTEL C++Visual C++等。Python也一样,同样一段代码可以通过CPythonPyPyPsyco等不同的Python执行环境来执行。像其中的JPython就没有GIL。然而因为CPython是大部分环境下默认的Python执行环境。所以在很多人的概念里CPython就是Python,也就想当然的把GIL归结为Python语言的缺陷。所以这里要先明确一点:GIL并不是Python的特性,Python完全可以不依赖于GIL

    这篇文章透彻的剖析了GILpython多线程的影响,强烈推荐看一下:http://www.dabeaz.com/python/UnderstandingGIL.pdf 

     

    线程锁(互斥锁Mutex)

    由于线程之间是进行随机调度,并且每个线程可能只执行n条执行之后,当多个线程同时修改同一条数据时可能会出现脏数据,所以,出现了线程锁 - 同一时刻允许一个线程执行操作。

    一个进程下可以启动多个线程,多个线程共享父进程的内存空间,也就意味着每个线程可以访问同一份数据,此时,如果2个线程同时要修改同一份数据,会出现什么状况?

    未加锁状态

    import time
    import threading
     
    def addNum():
        global num #在每个线程中都获取这个全局变量
        print('--get num:',num )
        time.sleep(1)
        num  -=1 #对此公共变量进行-1操作
     
    num = 100  #设定一个共享变量
    thread_list = []
    for i in range(100):
        t = threading.Thread(target=addNum)
        t.start()
        thread_list.append(t)
     
    for t in thread_list: #等待所有线程执行完毕
        t.join()
     
     
    print('final num:', num )
    未加锁

    正常来讲,这个num结果应该是0, 但在python 2.7上多运行几次,会发现,最后打印出来的num结果不总是0,为什么每次运行的结果不一样呢? 哈,很简单,假设你有A,B两个线程,此时都 要对num 进行减1操作, 由于2个线程是并发同时运行的,所以2个线程很有可能同时拿走了num=100这个初始变量交给cpu去运算,当A线程去处完的结果是99,但此时B线程运算完的结果也是99,两个线程同时CPU运算的结果再赋值给num变量后,结果就都是99。那怎么办呢? 很简单,每个线程在要修改公共数据时,为了避免自己在还没改完的时候别人也来修改此数据,可以给这个数据加一把锁, 这样其它线程想修改此数据时就必须等待你修改完毕并把锁释放掉后才能再访问此数据。 

    *注:不要在3.x上运行,不知为什么,3.x上的结果总是正确的,可能是自动加了锁

    加锁状态

    import time
    import threading
    def addNum(i):
        global num #在每个线程中都获取这个全局变量
        print("---get num:",i,num)
        time.sleep(1)
        lock.acquire()  #修改数据前加锁
        num -= 1 #对此公共变量进行-1操作
        lock.release()  # 修改后释放
    
    num = 100
    thread_list = []
    lock = threading.Lock()  #生成全局锁
    for i in range(100):
        t = threading.Thread(target=addNum,args=(i,))
        t.start()
        thread_list.append(t)
    
    for t in thread_list:
        t.join()
    
    print('final num:',num)
    加锁

    GIL VS Lock 

    机智的同学可能会问到这个问题,就是既然你之前说过了,Python已经有一个GIL来保证同一时间只能有一个线程来执行了,为什么这里还需要lock? 注意啦,这里的lock是用户级的lock,跟那个GIL没关系

    那你又问了, 既然用户程序已经自己有锁了,那为什么C python还需要GIL呢?加入GIL主要的原因是为了降低程序的开发的复杂度,比如现在的你写python不需要关心内存回收的问题,因为Python解释器帮你自动定期进行内存回收,你可以理解为python解释器里有一个独立的线程,每过一段时间它起wake up做一次全局轮询看看哪些内存数据是可以被清空的,此时你自己的程序里的线程和 py解释器自己的线程是并发运行的,假设你的线程删除了一个变量,py解释器的垃圾回收线程在清空这个变量的过程中的clearing时刻,可能一个其它线程正好又重新给这个还没来及得清空的内存空间赋值了,结果就有可能新赋值的数据被删除了,为了解决类似的问题,python解释器简单粗暴的加了锁,即当一个线程运行时,其它人都不能动,这样就解决了上述的问题,  这可以说是Python早期版本的遗留问题。

     

     

    RLock(递归锁)

    说白了就是在一个大锁中还要再包含子锁

    #!/Library/Frameworks/Python.framework/Versions/3.6/bin/python3
    # -*- coding: utf-8 -*-
    
    import threading, time
    
    
    def run1():
        print("grab the first part data")
        lock.acquire()
        global num
        num += 1
        lock.release()
        return num
    
    
    def run2():
        print("grab the second part data")
        lock.acquire()
        global num2
        num2 += 1
        lock.release()
        return num2
    
    
    def run3():
        lock.acquire()
        res = run1()
        print('--------between run1 and run2-----')  #为防止运行run1和run2时被打断,让二者作为一个整体,所以加把锁
        res2 = run2()
        lock.release()
        print(res, res2)
    
    
    if __name__ == '__main__':
    
        num, num2 = 0, 0
        lock = threading.RLock()
        for i in range(10):
            t = threading.Thread(target=run3)
            t.start()
    
    while threading.active_count() != 1:
        print(threading.active_count())
    else:
        print('----all threads done---')
        print(num, num2)
    递归锁

    Semaphore(信号量)

    互斥锁 同时只允许一个线程更改数据,而Semaphore是同时允许一定数量的线程更改数据 ,比如厕所有3个坑,那最多只允许3个人上厕所,后面的人只能等里面有人出来了才能再进去。

    import threading,time
     
    def run(n):
        semaphore.acquire()
        time.sleep(1)
        print("run the thread: %s
    " %n)
        semaphore.release()
     
    if __name__ == '__main__':
     
        num= 0
        semaphore  = threading.BoundedSemaphore(5) #最多允许5个线程同时运行
        for i in range(20):
            t = threading.Thread(target=run,args=(i,))
            t.start()
     
    while threading.active_count() != 1:
        pass #print threading.active_count()
    else:
        print('----all threads done---')
        print(num)
    semaphore
  • 相关阅读:
    SQL中利用脚本恢复数据库
    SQL中如何检查死锁
    三个有用的SQL辅助工具
    企业报销系统完整设计方案(三)
    企业报销系统完整设计方案(二)
    企业报销系统完整设计方案
    Crystal Report在.net中的两种显示方式
    cacti 流量图合并
    Centos 7 配置邮件发送
    Centos 7 Ntop 流量分析 安装
  • 原文地址:https://www.cnblogs.com/wushank/p/9420574.html
Copyright © 2011-2022 走看看