zoukankan      html  css  js  c++  java
  • Python开发【第九篇】:进程、线程

    什么是进程(process)?

    程序并不能单独运行,只有将程序装载到内存中,系统为它分配资源才能运行,而这种执行的程序就称之为进程。程序和进程的区别就在于,程序是指令的集合,它是进程运行的静态描述文本;进程是程序的一次执行活动,属于动态概念。

    什么是线程(thread)?

    线程是操作系统能够进行运算调度的最小单位。它被包含在进程中,是进程中的实际运作单位。一条线程指的是进程中一个单一顺序的控制流,一个进程中可以并发多个线程,每条线程并行执行不同的任务。

    进程与线程的区别?

    线程共享内存空间,进程的内存是独立的。

    同一个进程的线程之间可以直接交流,但两个进程相互通信必须通过一个中间代理。

    创建一个新的线程很简单,创建一个新的进程需要对其父进程进行一次克隆。

    一个线程可以控制和操作同一进程里的其他线程,但是进程只能操作子进程。

    Python GIL(Global Interpreter Lock)

    无论开启多少个线程,有多少个CPU,python在执行的时候在同一时刻只允许一个线程允许。

    Python threading模块

    直接调用

    1. import threading,time
    2.  
    3. def run_num(num):
    4.     """
    5.     定义线程要运行的函数
    6.     :param num:
    7.     :return:
    8.     """
    9.     print("running on number:%s"%num)
    10.     time.sleep(3)
    11.  
    12. if __name__ == '__main__':
    13.     # 生成一个线程实例t1
    14.     t1 = threading.Thread(target=run_num,args=(1,))
    15.     # 生成一个线程实例t2
    16.     t2 = threading.Thread(target=run_num,args=(2,))
    17.     # 启动线程t1
    18.     t1.start()
    19.     # 启动线程t2
    20.     t2.start()
    21.     # 获取线程名
    22.     print(t1.getName())
    23.     print(t2.getName())
    24. 输出:
    25. running on number:1
    26. running on number:2
    27. Thread-1
    28. Thread-2

    继承式调用

    1. import threading,time
    2.  
    3. class MyThread(threading.Thread):
    4.     def __init__(self,num):
    5.         threading.Thread.__init__(self)
    6.         self.num = num
    7.     # 定义每个线程要运行的函数,函数名必须是run
    8.     def run(self):
    9.         print("running on number:%s"%self.num)
    10.         time.sleep(3)
    11.  
    12. if __name__ == '__main__':
    13.     t1 = MyThread(1)
    14.     t2 = MyThread(2)
    15.     t1.start()
    16.     t2.start()
    17. 输出:
    18. running on number:1
    19. running on number:2

    Join and Daemon

    Join

    Join的作用是阻塞主进程,无法执行join后面的程序。

    多线程多join的情况下,依次执行各线程的join方法,前面一个线程执行结束才能执行后面一个线程。

    无参数时,则等待该线程结束,才执行后续的程序。

    设置参数后,则等待该线程设定的时间后就执行后面的主进程,而不管该线程是否结束。

    1. import threading,time
    2.  
    3. class MyThread(threading.Thread):
    4.     def __init__(self,num):
    5.         threading.Thread.__init__(self)
    6.         self.num = num
    7.     # 定义每个线程要运行的函数,函数名必须是run
    8.     def run(self):
    9.         print("running on number:%s"%self.num)
    10.         time.sleep(3)
    11.         print("thread:%s"%self.num)
    12.  
    13. if __name__ == '__main__':
    14.     t1 = MyThread(1)
    15.     t2 = MyThread(2)
    16.     t1.start()
    17.     t1.join()
    18.     t2.start()
    19.     t2.join()
    20. 输出:
    21. running on number:1
    22. thread:1
    23. running on number:2
    24. thread:2

    设置参数效果如下:

    1. if __name__ == '__main__':
    2.     t1 = MyThread(1)
    3.     t2 = MyThread(2)
    4.     t1.start()
    5.     t1.join(2)
    6.     t2.start()
    7.     t2.join()
    8. 输出:
    9. running on number:1
    10. running on number:2
    11. thread:1
    12. thread:2

    Daemon

    默认情况下,主线程在退出时会等待所有子线程的结束。如果希望主线程不等待子线程,而是在退出时自动结束所有的子线程,就需要设置子线程为后台线程(daemon)。方法是通过调用线程类的setDaemon()方法。

    1. import time,threading
    2.  
    3. def run(n):
    4.     print("%s".center(20,"*")%n)
    5.     time.sleep(2)
    6.     print("done".center(20,"*"))
    7.  
    8. def main():
    9.     for i in range(5):
    10.         t = threading.Thread(target=run,args=(i,))
    11.         t.start()
    12.         t.join(1)
    13.         print("starting thread",t.getName())
    14.  
    15. m = threading.Thread(target=main,args=())
    16. # 将main线程设置位Daemon线程,它作为程序主线程的守护线程,当主线程退出时,m线程也会退出,由m启动的其它子线程会同时退出,不管是否执行完成
    17. m.setDaemon(True)
    18. m.start()
    19. m.join(3)
    20. print("main thread done".center(20,"*"))
    21. 输出:
    22. *********0*********
    23. starting thread Thread-2
    24. *********1*********
    25. ********done********
    26. starting thread Thread-3
    27. *********2*********
    28. **main thread done**

    线程锁(互斥锁Mutex)

    一个进程下可以启动多个线程,多个线程共享父进程的内存空间,也就意味着每个线程可以访问同一份数据,此时,如果2个线程同时要修改同一份数据就需要线程锁。

    1. import time,threading
    2.  
    3. def addNum():
    4.     # 在每个线程中都获取这个全局变量
    5.     global num
    6.     print("--get num:",num)
    7.     time.sleep(1)
    8.     # 对此公共变量进行-1操作
    9.     num -= 1
    10. # 设置一个共享变量
    11. num = 100
    12. thread_list = []
    13. for i in range(100):
    14.     t = threading.Thread(target=addNum)
    15.     t.start()
    16.     thread_list.append(t)
    17. # 等待所有线程执行完毕
    18. for t in thread_list:
    19.     t.join()
    20.  
    21. print("final num:",num)

    加锁版本

    Lock时阻塞其他线程对共享资源的访问,且同一线程只能acquire一次,如多于一次就出现了死锁,程序无法继续执行。

    1. import time,threading
    2.  
    3. def addNum():
    4.     # 在每个线程中都获取这个全局变量
    5.     global num
    6.     print("--get num:",num)
    7.     time.sleep(1)
    8.     # 修改数据前加锁
    9.     lock.acquire()
    10.     # 对此公共变量进行-1操作
    11.     num -= 1
    12.     # 修改后释放
    13.     lock.release()
    14. # 设置一个共享变量
    15. num = 100
    16. thread_list = []
    17. # 生成全局锁
    18. lock = threading.Lock()
    19. for i in range(100):
    20.     t = threading.Thread(target=addNum)
    21.     t.start()
    22.     thread_list.append(t)
    23. # 等待所有线程执行完毕
    24. for t in thread_list:
    25.     t.join()
    26.  
    27. print("final num:",num)

    GIL VS Lock

    GIL保证同一时间只能有一个线程来执行。lock是用户级的lock,与GIL没有关系。

    RLock(递归锁)

    Rlock允许在同一线程中被多次acquire,线程对共享资源的释放需要把所有锁都release。即n次acquire,需要n次release。

    1. def run1():
    2.     print("grab the first part data")
    3.     lock.acquire()
    4.     global num
    5.     num += 1
    6.     lock.release()
    7.     return num
    8.  
    9. def run2():
    10.     print("grab the second part data")
    11.     lock.acquire()
    12.     global num2
    13.     num2 += 1
    14.     lock.release()
    15.     return num2
    16.  
    17. def run3():
    18.     lock.acquire()
    19.     res = run1()
    20.     print("between run1 and run2".center(50,"*"))
    21.     res2 = run2()
    22.     lock.release()
    23.     print(res,res2)
    24.  
    25. if __name__ == '__main__':
    26.     num,num2 = 0,0
    27.     lock = threading.RLock()
    28.     for i in range(10):
    29.         t = threading.Thread(target=run3)
    30.         t.start()
    31.  
    32. while threading.active_count() != 1:
    33.     print(threading.active_count())
    34. else:
    35.     print("all threads done".center(50,"*"))
    36.     print(num,num2)

    这两种锁的主要区别是,RLock允许在同一线程中被多次acquire。而Lock却不允许这种情况。注意,如果使用RLock,那么acquire和release必须成对出现,即调用了n次acquire,必须调用n次的release才能真正释放所占用的锁。

    Semaphore(信号量)

    互斥锁同时只允许一个线程更改数据,而Semaphore是同时允许一定数量的线程更改数据,比如售票处有3个窗口,那最多只允许3个人同时买票,后面的人只能等前面任意窗口的人离开才能买票。

    1. import threading,time
    2.  
    3. def run(n):
    4.     semaphore.acquire()
    5.     time.sleep(1)
    6.     print("run the thread:%s"%n)
    7.     semaphore.release()
    8.  
    9. if __name__ == '__main__':
    10.     # 最多允许5个线程同时运行
    11.     semaphore = threading.BoundedSemaphore(5)
    12.     for i in range(20):
    13.         t = threading.Thread(target=run,args=(i,))
    14.         t.start()
    15.  
    16. while threading.active_count() != 1:
    17.     # print(threading.active_count())
    18.     pass
    19. else:
    20.     print("all threads done".center(50,"*"))

    Timer(定时器)

    Timer隔一定时间调用一个函数,如果想实现每隔一段时间就调用一个函数,就要在Timer调用的函数中,再次设置Timer。Timer是Thread的一个派生类。

    1. import threading
    2.  
    3. def hello():
    4.     print("hello,world!")
    5. # delay 5秒之后执行hello函数
    6. t = threading.Timer(5,hello)
    7. t.start()

    Event

    Python提供了Event对象用于线程间通信,它是有线程设置的信号标志,如果信号标志位为假,则线程等待指导信号被其他线程设置为真。Event对象实现了简单的线程通信机制,它提供了设置信号、清除信号、等待等用于实现线程间的通信。

    1. 设置信号

    使用Event的set()方法可以设置Event对象内部的信号标志为真。Event对象提供了isSet()方法来判断其内部信号标志的转态,当使用event对象的set()方法后,isSet()方法返回真。

    1. 清除信号

    使用Event的clear()方法可以清除Event对象内部的信号标志,即将其设为假,当使用Event的clear()方法后,isSet()方法返回假。

    1. 等待

    Event的wait()方法只有在内部信号为真的时候才会很快的执行并完成返回。当Event对象的内部信号标志为假时,则wait()方法一直等待其为真时才返回。

    通过Event来实现两个或多个线程间的交互,下面以红绿灯为例,即启动一个线程做交通指挥灯,生成几个线程做车辆,车辆行驶按红停绿行的规则。

    1. import threading,time,random
    2.  
    3. def light():
    4.     if not event.isSet():
    5.         event.set()
    6.     count = 0
    7.     while True:
    8.         if count < 5:
    9.             print("33[42;1m--green light on--33[0m".center(50,"*"))
    10.         elif count < 8:
    11.             print("33[43;1m--yellow light on--33[0m".center(50,"*"))
    12.         elif count < 13:
    13.             if event.isSet():
    14.                 event.clear()
    15.             print("33[41;1m--red light on--33[0m".center(50,"*"))
    16.         else:
    17.             count = 0
    18.             event.set()
    19.         time.sleep(1)
    20.         count += 1
    21.  
    22.  
    23. def car(n):
    24.     while 1:
    25.         time.sleep(random.randrange(10))
    26.         if event.isSet():
    27.             print("car %s is running..."%n)
    28.         else:
    29.             print("car %s is waiting for the red light..."%n)
    30.  
    31. if __name__ == "__main__":
    32.     event = threading.Event()
    33.     Light = threading.Thread(target=light,)
    34.     Light.start()
    35.  
    36.     for i in range(3):
    37.         t = threading.Thread(target=car,args=(i,))
    38.         t.start()

    queue队列

    Python中队列是线程间最常用的交换数据的形式。Queue模块是提供队列操作的模块。

    创建一个队列对象

    1. import queue
    2.  
    3. q = queue.Queue(maxsize = 10)

    queue.Queue类是一个队列的同步实现。队列长度可以无限或者有限。可以通过Queue的构造函数的可选参数maxsize来设定队列长度。如果maxsize小于1表示队列长度无限。

    将一个值放入队列中

    1. q.put("a")

    调用队列对象的put()方法在队尾插入一个项目。put()有两个参数,第一个item为必需的,为插入项目的值;第二个block为可选参数,默认为1。如果队列当前为空且block为1,put()方法就使调用线程暂停,直到空出一个数据单元。如果block为0,put()方法将引发Full异常。

    将一个值从队列中取出

    1. q.get()

    调用队列对象的get()方法从队头删除并返回一个项目。可选参数为block,默认为True。如果队列为空且block为True,get()就使调用线程暂停,直到有项目可用。如果队列为空且block为False,队列将引发Empty异常。

    Python Queue模块有三种队列及构造函数

    1. # 先进先出
    2. class queue.Queue(maxsize=0)
    3. # 先进后出
    4. class queue.LifoQueue(maxsize=0)
    5. # 优先级队列级别越低越先出
    6. class queue.PriorityQueue(maxsize=0)

    常用方法

    1. q = queue.Queue()
    2. # 返回队列的大小
    3. q.qsize()
    4. # 如果队列为空,返回True,反之False
    5. q.empty()
    6. # 如果队列满了,返回True,反之False
    7. q.full()
    8. # 获取队列,timeout等待时间
    9. q.get([block[,timeout]])
    10. # 相当于q.get(False)
    11. q.get_nowait()
    12. # 等到队列为空再执行别的操作
    13. q.join()

    生产者消费者模型

    在开发编程中使用生产者和消费者模式能够解决绝大多数并发问题。该模式通过平衡生产线程和消费线程的工作能力来提高程序的整体处理数据的速度。

    为什么要使用生产者和消费者模式

    在线程世界里,生产者就是生产数据的线程,消费者就是消费数据的线程。在多线程开发当中,如果生产者处理速度很快,而消费者处理速度很慢,那么生产者就必须等待消费者处理完,才能继续生产数据。同样的道理,如果消费者的处理能力大于生产者,那么消费者就必须等待生产者。为了解决这个问题于是引入了生产者和消费者模式。

    什么是生产者消费者模式

    生产者消费者模式是通过一个容器来解决生产者和消费者的强耦合问题。生产者和消费彼此之间不直接通讯,而通过阻塞队列来进行通讯,所以生产者生产完数据之后不再等待消费者处理,直接扔给阻塞队列,消费者不找生产者要数据,而是直接从阻塞队列里取,阻塞队列就相当于一个缓冲区,平衡了生产者和消费者的处理能力。

    最基本的生产者消费者模型的例子。

    1. import queue,threading,time
    2.  
    3. q = queue.Queue(maxsize=10)
    4.  
    5. def Producer():
    6.     count = 1
    7.     while True:
    8.         q.put("骨头%s"%count)
    9.         print("生产了骨头",count)
    10.         count += 1
    11.  
    12. def Consumer(name):
    13.     while q.qsize() > 0:
    14.         print("[%s] 取到[%s]并且吃了它..."%(name,q.get()))
    15.         time.sleep(1)
    16.  
    17. p = threading.Thread(target=Producer,)
    18. c1 = threading.Thread(target=Consumer,args=("旺财",))
    19. c2 = threading.Thread(target=Consumer,args=("来福",))
    20. p.start()
    21. c1.start()
    22. c2.start()

    多线程multiprocessing

    multiprocessing包是Python中的多进程管理包。与threading.Thread类似,它可以利用multiprocessing.Process对象来创建一个进程。该进程可以运行在Python程序内部编写的函数。该Process对象与Thread对象的用法相同,也有start()、run()、join()的方法。此外multiprocessing包中也有Lock、Event、Semaphore、Condition类(这些对象可以像多线程那样,通过参数传递各个进程),用以同步进程,其用法与threading包中的同名类一致。所以,multiprocessing的很大一部分与threading使用同一套API,只不过换到了多进程的情景。

    注意:

    在UNIX平台上,当某个进程结束以后,该进程需要被父进程调用wait,否则进程成为僵尸进程(Zombie)。所以,有必要对每个Process对象调用join()方法(实际上等同于wait)。对于多线程来说,由于只有一个进程,所以不存在此必要性。

    multiprocessing提供了threading包中没有的IPC(比如Pipe和Queue),效率上更高。应优先考虑Pipe和Queue,避免使用Lock、Event、Semaphore、Condition等同步方式(因为它们占据的不是用户进程的资源)。

    多进程应该避免共享资源。在多线程中,我们可以比较容易地共享资源,比如使用全局变量或传递参数。在多进程情况下,由于每个进程有自己独立的内存空间,以上方法并不合适。此时我们可以通过共享内存和Manager的方法来共享资源。但这样做提高了程序的复杂度,并因为同步的需要而降低了程序的效率。

    Process.PID中保存有PID,如果进程还没有start(),则PID为None。

    下面各个线程和进程都做同一件事——打印PID。但是,所有的任务在打印的时候都会向同一个标准输出(stdout)输出,这样输出的字符会混合在一起无法阅读。使用Lock同步,在一个任务输出完成之后,在允许另一个任务输出,可以避免多个任务同时向终端输出。

    1. import os,threading,multiprocessing
    2.  
    3. def info(sign,lock):
    4.     lock.acquire()
    5.     print(sign,os.getpid())
    6.     lock.release()
    7.  
    8. print("Main:",os.getpid())
    9.  
    10. if __name__ == "__main__":
    11.     record = []
    12.     lock = threading.Lock()
    13.     for i in range(5):
    14.         thread = threading.Thread(target=info,args=("thread",lock))
    15.         thread.start()
    16.         record.append(thread)
    17.  
    18.     for i in record:
    19.         i.join()
    20.     print("---------------")
    21.     record2 = []
    22.     lock2 = multiprocessing.Lock()
    23.     for i in range(5):
    24.         process = multiprocessing.Process(target=info,args=("process",lock2))
    25.         process.start()
    26.         record.append(process)
    27.  
    28.     for i in record2:
    29.         i.join()

    所有的Thread的PID都与主程序相同,而每个Process都有一个不同的PID。

    进程间通讯

    不同进程间内存是不共享的,要想实现两个进程间的数据交换,可以使用Queue和 Pipe。

    Pipe

    Pipe可以是单向(half-duplex),也可以是双向(duplex)。通过mutiprocessing.Pipe(duplex=False)创建单向管道(默认为双向)。一个进程从pipe一端输入对象,然后被pipe另一端的进程接收,单向管道只允许管道一端的进程输入,而双向管道则允许从两端输入。

    1. from multiprocessing import Process,Pipe
    2.  
    3. def f(conn):
    4.     conn.send([42,None,"Hello"])
    5.     conn.close()
    6.  
    7. if __name__ == "__main__":
    8.     parent_conn,child_conn = Pipe()
    9.     p = Process(target=f,args=(child_conn,))
    10.     p.start()
    11.     print(parent_conn.recv())
    12.     p.join()

    Pipe对象建立的时候,返回一个含有两个元素的表,每个元素代表Pipe的一端(Connection对象)。对Pipe的某一端调用send()方法来传送对象,在另一端使用recv()来接收。

    Queue

    使用方法跟threading里的queue差不多。

    Queue与Pipe相类似,都是先进先出的结构。但Queue允许多进程放入,多个进程从队列取出对象。Queue使用multiprocessing.Queue(maxsize)创建,maxsize表示队列中可以存放对象的最大数量。

    一些进程使用put()在Queue中放入字符串,这个字符串中包含PID和时间。另一个进程从Queue中取出,并打印自己的PID以及get()的字符串。

    1. from multiprocessing import Process,Queue
    2.  
    3. def f(q):
    4.     q.put([44,None,"Hello"])
    5.  
    6. if __name__ == "__main__":
    7.     q = Queue()
    8.     p = Process(target=f,args=(q,))
    9.     p.start()
    10.     print(q.get())
    11.     p.join()

    共享变量Managers

    Python中进程间共享数据,处理基本的Queue和Pipe外,还提供了更高层次的封装。使用multiprocessing.Managers可以简单地使用这些高级接口。

    Manager()返回的manager对象控制了一个server进程,此进程包含的python对象可以被其他的进程通过proxies来访问,从而达到多进程数据通信且安全。

    Manager支持的类型有list、dict、Namespace、Lock、RLock、Semaphore、BoundedSemaphore、Condition、Event、Queue、Value和Array。

    1. from multiprocessing import Manager,Process
    2. import os
    3.  
    4. def f(d,l):
    5.     d[os.getpid()] = os.getpid()
    6.     l.append(os.getpid())
    7.     print(l)
    8.  
    9. if __name__ == "__main__":
    10.     with Manager() as manager:
    11.         d = manager.dict()
    12.         l = manager.list(range(5))
    13.         p_list = []
    14.         for i in range(10):
    15.             p = Process(target=f,args=(d,l,))
    16.             p.start()
    17.             p_list.append(p)
    18.         for res in p_list:
    19.             res.join()
    20.  
    21.         print(d)
    22.         print(l)

    进程同步

    当多个进程需要访问共享资源的时候,Lock可以用来避免访问的冲突。

    1. from multiprocessing import Process,Lock
    2.  
    3. def f(l,i):
    4.     l.acquire()
    5.     try:
    6.         print("hello word",i)
    7.     finally:
    8.         l.release()
    9.  
    10. if __name__ == "__main__":
    11.     lock = Lock()
    12.     for i in range(10):
    13.         Process(target=f,args=(lock,i)).start()

    进程池

    进程池内部维护一个进程序列,当使用时,则去进程池中获取一个进程,如果进程池序列中没有可供使用的进程,那么程序就会等待,直到进程池中有可用的进程为止。

    进程池中有两个方法:apply(阻塞)和apply_async(非阻塞)。

    apply(func[,args[,kwds]])

    apply用于传递不定参数,主进程会阻塞与函数。主进程的执行流程同单进程一致。

    apply_async(func[,args[,kwds[,callback]]])

    与apply用法一致,但它是非阻塞的且支持结果返回后进行回调。主进程循环运行过程中不等待apply_async的返回结果,在主进程结束后,即使子进程还未返回整个程序也会退出。虽然apply_async是非阻塞的,但其返回结果的get方法却是阻塞的,如使用result.get()会阻塞主进程。如果对返回结果不感兴趣,那么可以在主进程中使用pool.close与pool.join来防止主进程退出。注意join方法一定要close或terminate之后调用。

    1. from multiprocessing import Process,Pool,freeze_support
    2. import time,os
    3.  
    4. def Foo(i):
    5.     time.sleep(2)
    6.     print("in process",os.getpid())
    7.     return i + 100
    8.  
    9. def Bar(arg):
    10.     print("-->exec done:",arg,os.getpid())
    11.  
    12. if __name__ == "__main__":
    13.     # freeze_support()
    14.     # 允许进程池同时放入3个进程
    15.     pool = Pool(processes=3)
    16.     print("主进程",os.getpid())
    17.     for i in range(10):
    18.         # callback回调函数,每个进程结束的时候调用
    19.         pool.apply_async(func=Foo,args=(i,),callback=Bar)
    20.         # 串行
    21.         # pool.apply(func=Foo,args=(i,))
    22.     print('end')
    23.     pool.close()
    24.     # 进程池中进程执行完毕后再关闭,如果注释程序直接关闭
    25.     pool.join()

    close()

    关闭pool,使其不再接受新的任务。

    terminate()

    结束工作进程,不再处理未处理的任务。

    join()

    主进程阻塞等待子进程的退出,join方法要在close或terminate之后使用。

  • 相关阅读:
    从零教你在Linux环境下(ubuntu)如何编译hadoop2.4
    springboot集成redis
    缓存穿透
    关于HashMap,HashTable,HashSet浅析
    关于多线程的几点总结
    java设计模式--工厂模式
    java设计模式--单例模式
    初识Linux(五)--VI/VIM编辑器
    初识Linux(四)--系统常用命令
    初识Linux(三)--文件系统基本结构
  • 原文地址:https://www.cnblogs.com/yinshoucheng-golden/p/7083280.html
Copyright © 2011-2022 走看看