一、python并发编程之多进程
1.1 multiprocessing模块介绍
由于GIL的存在,python中的多线程其实并不是真正的多线程,如果想要充分地使用多核CPU的资源,在python中大部分情况需要使用多进程。
multiprocessing包是Python中的多进程管理包。与threading.Thread类似,它可以利用multiprocessing.Process对象来创建一个进程。该进程可以运行在Python程序内部编写的函数。
该Process对象与Thread对象的用法相同,也有start(), run(), join()的方法。此外multiprocessing包中也有Lock/Event/Semaphore/Condition类 (这些对象可以像多线程那样,通过参数传递给各个进程),用以同步进程,其用法与threading包中的同名类一致。所以,multiprocessing的很大一部份与threading使用同一套API,只不过换到了多进程的情境。
构造方法:
Process([group [, target [, name [, args [, kwargs]]]]])
group: 线程组,目前还没有实现,库引用中提示必须是None;
target: 要执行的方法;
name: 进程名;
args/kwargs: 要传入方法的参数。
实例方法:
is_alive():返回进程是否在运行。
join([timeout]):阻塞当前上下文环境的进程程,直到调用此方法的进程终止或到达指定的timeout(可选参数)。
start():进程准备就绪,等待CPU调度
run():strat()调用run方法,如果实例进程时未制定传入target,这star执行t默认run()方法。
terminate():不管任务是否完成,立即停止工作进程
属性:
daemon:和线程的setDeamon功能一样
name:进程名字。
pid:进程号。
方法介绍:
p1=Process(target=foo,args=('p1',)) 开启子进程 p.start():启动进程,并调用该子进程中的p.run() p.run():进程启动时运行的方法,正是它去调用target指定的函数,我们自定义类的类中一定要实现该方法 p.terminate():强制终止进程p,不会进行任何清理操作,如果p创建了子进程,该子进程就成了僵尸进程,使用该方法需要特别小心这种情况。如果p还保存了一个锁那么也将不会被释放,进而导致死锁 p.is_alive():如果p仍然运行,返回True p.join([timeout]):主线程等待p终止(强调:是主线程处于等的状态,而p是处于运行的状态)。timeout是可选的超时时间,需要强调的是,p.join只能join住start开启的进程,而不能join住run开启的进程
在linux中,主进程的全局变量,子进程能用
在window中,主进程的全局变量,子进程不能用能用
1.2 创建并开启子进程的两种方式
通过函数:
#函数方式 def foo(name): print('%s starting'%name) time.sleep(random.randrange(1,5)) print('%s is end'%name) if __name__ == '__main__': print('主进程starting') p1=Process(target=foo,args=('p1',)) p2=Process(target=foo,args=('p2',)) p3=Process(target=foo,args=('p3',)) # p1.daemon = True # p2.daemon = True # p3.daemon = True p1.start() p2.start() p3.start() # p1.join() # p2.join() # p3.join() # time.sleep(1) print('主进程ending')
通过类的方式:
#用类的方式创建子进程 class MyProcess(Process): def __init__(self,name): super().__init__() # self.name=name def run(self): print('%s starting' % self.name) time.sleep(random.randrange(1, 5)) print('%s id is %s' % (self.name,self.pid)) print('%s is end'%self.name) if __name__ == '__main__': print('主进程starting') for i in range(4): p = MyProcess(str(i)) p.start() print('主进程ending')
1.3 Process对象的其他方法或属性
#进程对象的其他方法一:terminate,is_alive from multiprocessing import Process import time import random class Piao(Process): def __init__(self,name): self.name=name super().__init__() def run(self): print('%s is piaoing' %self.name) time.sleep(random.randrange(1,5)) print('%s is piao end' %self.name) p1=Piao('egon1') p1.start() p1.terminate()#关闭进程,不会立即关闭,所以is_alive立刻查看的结果可能还是存活 print(p1.is_alive()) #结果为True print('开始') print(p1.is_alive()) #结果为False
#进程对象的其他方法二:p.daemon=True,p.join from multiprocessing import Process import time import random class Piao(Process): def __init__(self,name): self.name=name super().__init__() def run(self): print('%s is piaoing' %self.name) time.sleep(random.randrange(1,3)) print('%s is piao end' %self.name) p=Piao('egon') p.daemon=True #一定要在p.start()前设置,设置p为守护进程,禁止p创建子进程,并且父进程死,p跟着一起死 p.start() p.join(0.0001) #等待p停止,等0.0001秒就不再等了 print('开始')
注:p.join(),是父进程在等p的结束,是父进程阻塞在原地,而p仍然在后台运行
#进程对象的其他属性:name,pid from multiprocessing import Process import time import random class Piao(Process): def __init__(self,name): # self.name=name # super().__init__() #Process的__init__方法会执行self.name=Piao-1, # #所以加到这里,会覆盖我们的self.name=name #为我们开启的进程设置名字的做法 super().__init__() self.name=name def run(self): print('%s is piaoing' %self.name) time.sleep(random.randrange(1,3)) print('%s is piao end' %self.name) p=Piao('egon') p.start() print('开始') print(p.pid) #查看pid
1.2 进程间通讯
1.2.1进程间通信(IPC)方式一:队列(推荐使用)
from multiprocessing import Process import queue def f(q,n): q.put(n*n+1) print("son process",id(q)) if __name__ == '__main__': q = queue.Queue() print("main process",id(q)) for i in range(3): p = Process(target=f, args=(q,i)) p.start() print(q.get()) print(q.get()) print(q.get())
1.2.2进程间通信(IPC)方式二:管道(不推荐使用,了解即可)
from multiprocessing import Pipe,Process def foo(sk): sk.send("hello world") print(sk.recv()) if __name__ == '__main__': sock, conn = Pipe() p=Process(target=foo,args=(sock,)) p.start() print(conn.recv()) conn.send("hi son") >>:hello world hi son
Pipe()返回的两个连接对象代表管道的两端。 每个连接对象都有send()和recv()方法(等等)。 请注意,如果两个进程(或线程)尝试同时读取或写入管道的同一端,管道中的数据可能会损坏。
1.2.3进程间通信方式三:共享数据(不推荐使用,了解即可)
Queue和pipe只是实现了数据交互,并没实现数据共享,即一个进程去更改另一个进程的数据。可以通过Manager实现数据共享,
从数据安全角度看,进程间通信应该尽量避免使用本节所讲的共享数据的方式
用manager实现进程共享数据
from multiprocessing import Process,Manager def foo(d,l,i): d[i] = i d['egon'] = 'egon' l.append(i**2) if __name__ == '__main__': # manager = Manager() dic = Manager().dict() Mlist = Manager().list([11,22,33]) l=[] for i in range(5): p=Process(target=foo,args=(dic,Mlist,i)) p.start() l.append(p) for j in l: j.join() print(dic) print(Mlist)
1.3 进程池(重点学习)
开多进程的目的是为了并发,如果有多核,通常有几个核就开几个进程,进程开启过多,效率反而会下降(开启进程是需要占用系统资源的,而且开启多余核数目的进程也无法做到并行),但很明显需要并发执行的任务要远大于核数,这时我们就可以通过维护一个进程池来控制进程数目,比如httpd的进程模式,规定最小进程数和最大进程数...
进程池(Pool)可以提供指定数量的进程,供用户调用,当有新的请求提交到pool中时,如果池还没有满,那么就会创建一个新的进程用来执行该请求;但如果池中的进程数已经达到规定最大值,那么该请求就会等待,直到池中有进程结束,就重用进程池中的进程。
在利用Python进行系统管理的时候,特别是同时操作多个文件目录,或者远程控制多台主机,并行操作可以节约大量的时间。
进程池实例:
from multiprocessing import Pool import time def foo(n): print(n) time.sleep(1) if __name__ == '__main__': pool_obj=Pool(5) for i in range(100): pool_obj.apply_async(func=foo,args=(i,)) pool_obj.close() pool_obj.join() print("ending")