理论知识
操作系统背景知识
顾名思义,进程即程序正在执行的一个过程,进程是对正在运行的程序的一个抽象.
进程的概念起源于操作系统,是操作系统最核心的概念,也是操作系统提供的最古老也是最总要的抽象概念之一.操作系统的其他所有内容都是围绕进程概念展开的.
所以想要真正了解进程,必须事先了解操作系统
PS:即使可以利用cpu只有一个(早期的计算机确实如此),也能保证支持(伪)并发的能力,将一个单独的cpu变成多个虚拟的cup(多道技术:时间多路复用和空间多路复用+硬件上支持隔离),没有进程的抽象,现代计算机将不复存在.
必备的理论基础:
一 操作系统的作用:
1:隐藏丑陋复杂的硬件接口,提供良好的抽象接口
2:管理,调度进程,并且将多个进程对硬件的竞争变的有序
二 多道技术:
1.产生背景:针对单核,实现开发
ps:
现在的主机一般是多核,那么每个核都会利用多道技术
有4个cpu,运行于cpu1的某个程序遇到io阻塞,会等到io结束再重新调度,会被调度到4个cpu中的任意一个,具体由操作系统调度算法决定.
2.空间上的复用:如内存中同时有多道程序
3.时间上的复用:复用一个cpu的时间片
强调:遇到io切,占用cpu时间过长也切,核心在于切之前将进程的状态保存下来,这样才能保证下次切换回来时,能基于上次切走的位置继续运行
什么是进程
进程(Process)是计算机中程序关于某数据集合上的一次运行活动,是系统进行资源分配好调度的基本单位,是操作系统结构的基础.在早期面向进程设计的计算机结构中,进程是程序 基本执行实体;在当代面向线程设计的计算机结构中,进程是线程的容器,线程是程序的基本执行实体.程序是指令,数据以及其组织形式的描述,进程是程序的实体.
狭义的定义:进程是正在运行的程序的实例(an instance of a computer program that exected)
广义定义:进程是一个具有一定独立功能的程序关于某个数据集合的一次运行活动。它是操作系统动态执行的基本单元,在传统的操作系统中,进程既是基本的分配单元,也是基本的执行单元。
进程的概念
第一,进程是一个实体。每一个进程都有它自己的地址空间,一般情况下,包括文本区域(text region)、数据区域(data region)和堆栈(stack region)。文本区域存储处理器执行的代码;数据区域存储变量和进程执行期间使用的动态分配的内存;堆栈区域存储着活动过程调用的指令和本地变量。
第二,进程是一个“执行中的程序”。程序是一个没有生命的实体,只有处理器赋予程序生命时(操作系统执行之),它才能成为一个活动的实体,我们称其为进程。[3]
进程是操作系统中最基本、重要的概念。是多道程序系统出现后,为了刻画系统内部出现的动态情况,描述系统内部各道程序的活动规律引进的一个概念,所有多道程序设计操作系统都建立在进程的基础上。
操作系统引入进程的概念的原因
从理论角度看,是对正在运行的程序过程的抽象;
从实现角度看,是一种数据结构,目的在于清晰地刻画动态系统的内在规律,有效管理和调度进入计算机系统主存储器运行的程序.
进程的特征
动态性:进程的实质是程序 在多道程序系统中的一次执行过程,进程是动态产生,动态消亡的.
并发性:任何进程都可以同其他进程一起并发执行
独立性:进程是一个独立运行的基本单位,同时也是系统分配资源和调度的独立单位;
异步性:由于进程间的相互制约,使进程具有执行的间断性,即进程按各自独立的,不可预知的速度向前推进
结构特征:进程由程序,数据和进程控制块三部分组成.
多个不同的进程可以包含相同的程序:一个程序在不同的数据集里就构成不同的进程,嫩得到不同的结果;但是执行过程中,程序不能发生改变.
进程与程序中的区别
程序是指令和数据的有序集合,其本身没有任何运行的含义,是一个静态的概念.
而进程是程序在处理机上的一次执行过程,它是一个动态的概念.
程序可以作为一种软件资料长期存在,而进程是有一定生命期的.
程序是永久的,进程是暂时的.
注意:同一个程序执行两次,就会在操作系统中出现两个进程,所以我们可以同时运行一个软件,分别做不同的事情也不会混乱.
进程调度
想要多个进程交替运行,操作系统必须对这些进程进行调度,这个调度也不是随机进行的,而是需要遵循一定的原则,由此就有了进程的调度算法.
先来先服务调度算法:
先来先服务(FCFS)调度算法是一种最简单的调度算法,该算法即可以用于作业调度,也可用于进程调度,FCFS算法比较有利于长作业(进程),而不利于短作业(进程).由此可知,本算法适合于CPU繁忙型作业,而不利于I/O繁忙型的作业(进程)
短作业优先调度算法
短作业(进程)优先调度算法(SJ/PF)是指对短作业或者短进程优先调度的算法,该算法即可用于作业调度,也可用于进程调度,但其对长作业不利;不能保证紧迫性作业(进程)被及时处理;作业长短只是被估算出来的.
时间片轮转法
时间片轮转(Round Robin,RR)法的基本思路是让每个进程在就绪队列中的等待时间与享受服务的时间成比例。在时间片轮转法中,需要将CPU的处理时间分成固定大小的时间片,例如,几十毫秒至几百毫秒。如果一个进程在被调度选中之后用完了系统规定的时间片,但又未完成要求的任务,则它自行释放自己所占有的CPU而排到就绪队列的末尾,等待下一次调度。同时,进程调度程序又去调度当前就绪队列中的第一个进程。
显然,轮转法只能用来调度分配一些可以抢占的资源。这些可以抢占的资源可以随时被剥夺,而且可以将它们再分配给别的进程。CPU是可抢占资源的一种。但打印机等资源是不可抢占的。由于作业调度是对除了CPU之外的所有系统硬件资源的分配,其中包含有不可抢占资源,所以作业调度不使用轮转法。
在轮转法中,时间片长度的选取非常重要。首先,时间片长度的选择会直接影响到系统的开销和响应时间。如果时间片长度过短,则调度程序抢占处理机的次数增多。这将使进程上下文切换次数也大大增加,从而加重系统开销。反过来,如果时间片长度选择过长,例如,一个时间片能保证就绪队列中所需执行时间最长的进程能执行完毕,则轮转法变成了先来先服务法。时间片长度的选择是根据系统对响应时间的要求和就绪队列中所允许最大的进程数来确定的。
在轮转法中,加入到就绪队列的进程有3种情况:
一种是分给它的时间片用完,但进程还未完成,回到就绪队列的末尾等待下次调度去继续执行。
另一种情况是分给该进程的时间片并未用完,只是因为请求I/O或由于进程的互斥与同步关系而被阻塞。当阻塞解除之后再回到就绪队列。
第三种情况就是新创建进程进入就绪队列。
如果对这些进程区别对待,给予不同的优先级和时间片从直观上看,可以进一步改善系统服务质量和效率。例如,我们可把就绪队列按照进程到达就绪队列的类型和进程被阻塞时的阻塞原因分成不同的就绪队列,每个队列按FCFS原则排列,各队列之间的进程享有不同的优先级,但同一队列内优先级相同。这样,当一个进程在执行完它的时间片之后,或从睡眠中被唤醒以及被创建之后,将进入不同的就绪队列。
多级反馈队列
前面介绍的各种用作进程调度的算法都有一定的局限性,如短进程优先的调度算法,仅照顾了短进程而忽略了长进程,而且如果并未指明进程的长度,则短进程优先和基于进程长度的抢占式调度算法都将无法使用.
而多级反馈队列调度算法则不必事先知道各种进程所需的执行时间,而且还可以满足各种类型进程的需要,因而它是目前被公认的一种较好的进程调度算法,在采用多级反馈队列调度算法的系统中,掉度算法的实施过程如下所述.
(1)应设置多个就绪队列,并为各个队列赋予不同的优先级,第一个队列的优先级最高,第二个队列次之,其余各队列的优先权逐个降低.该算法赋予各个队列中进程执行时间片的大小也各不相同,在优先权愈高的队列中,为每个进程所规定的执行时间片愈小.例如,第二个队列的时间片要比第一个队列的时间片长一杯,......,第i+1个队列的时间片要比第i个列队的时间片长一倍.
(2) 当一个新进程进入内存后,首先将它放入第一队列的末尾,按FCFS原则排队等待调度。当轮到该进程执行时,如它能在该时间片内完成,便可准备撤离系统;如果它在一个时间片结束时尚未完成,调度程序便将该进程转入第二队列的末尾,再同样地按FCFS原则等待调度执行;如果它在第二队列中运行一个时间片后仍未完成,再依次将它放入第三队列,……,如此下去,当一个长作业(进程)从第一队列依次降到第n队列后,在第n 队列便采取按时间片轮转的方式运行。
(3) 仅当第一队列空闲时,调度程序才调度第二队列中的进程运行;仅当第1~(i-1)队列均空时,才会调度第i队列中的进程运行。如果处理机正在第i队列中为某进程服务时,又有新进程进入优先权较高的队列(第1~(i-1)中的任何一个队列),则此时新进程将抢占正在运行进程的处理机,即由调度程序把正在运行的进程放回到第i队列的末尾,把处理机分配给新到的高优先权进程
进程的并行与并发
并行:并行是指两者同时执行,比如有两条车道,在某一个时间点,两条车道上都有车在跑;(资源够用,比如三个线程,四核的cpu)
并发:并发是指资源有限的情况下,两者交替轮流使用资源,比如只有一条车道(单核cpu资源),那么就是A车先走,在某个时刻A车退出把道路让给B走,B走完了继续给A,交替使用,目的是提高效率.
区别:
并行是从微观上,也就是一个精确的时间片刻,有不同的程序在执行,这就要求必须有多个处理器.
并发是从宏观上,在一个时间段上可以看出是同时执行的,比如一个服务器同时处理多个session.
注意:早期单核cpu时候,对于进程也是微观上串行,(站在cpu角度看),宏观上并行(站在人的角度看就是同时有很多程序在执行).
同步异步阻塞非阻塞
状态介绍
在了解其他概念之前,我们首先了解进程的几个状态,在程序运行的过程中,由于被操作系统的调度算法控制,程序会进入几个状态:就绪,运行,阻塞.
(1)就绪(Ready)状态
在进程已经分配到除cpu以外的所有必要的资源,只要获得处理机便立即执行,这时的进程状态称为就绪状态.
(2)执行/运行(Running)状态当进程已获得处理机,其程序正在处理机上执行,此时的进程状态称为执行状态.
(3)阻塞(Blocked)状态正在执行的过程,由于等待某个事件发生而无法执行时,便放弃处理机而处于阻塞状态.引起进程的时间可能有多种,例如,等待I/O完成,(input),申请缓冲区不能满足,等待信件(信号)等.
同步和异步
所谓同步就是一个任务的完成需要依赖另外一个任务时,只有等待被依赖的任务完成后,依赖的任务才能算完成,这是一种可靠的任务序列
。要么成功都成功,失败都失败,两个任务的状态可以保持一致。
所谓异步是不需要等待被依赖的任务完成,只是通知被依赖的任务要完成什么工作,依赖的任务也立即执行,只要自己完成了整个任务就算完成了
。至于被依赖的任务最终是否真正完成,依赖它的任务无法确定,所以它是不可靠的任务序列
。
例如:
比如我去银行办理业务,可能会有两种方式:
第一种:选择排队等候;
第二种:选择取一个小纸条上面有我的号码,等到排到我这一号时由柜台的人通知我轮到我去办理业务了;
第一种:前者(排队等候)就是同步等待消息通知,也就是我要一直在等待银行办理业务情况;
第二种:后者(等待别人通知)就是异步等待消息通知.在异步消息处理中,等待消息通知者(在这个例子中就是等待办理业务的人)往往注册一个回调机制,在所等待的时间被触发时由触发机制(在这里是柜台的人)通过某种机制(在这里是写在小纸条上的号码,喊号)找到等待该事件的人
阻塞与非阻塞
阻塞和非阻塞这两个概念与程序(线程)等待消息通知(无所谓同步或者异步)时的状态有关.也就是说阻塞与非阻塞主要程序(线程)等待消息通知时的状态角度来说的
例子:
继续上面的那个例子,不论是排队还是使用号码等待通知,如果在这个等待的过程中,等待者除了等待消息通知之外不能做其它的事情,那么该机制就是阻塞的,表现在程序中,也就是该程序一直阻塞在该函数调用处不能继续往下执行。
相反,有的人喜欢在银行办理这些业务的时候一边打打电话发发短信一边等待,这样的状态就是非阻塞的,因为他(等待者)没有阻塞在这个消息通知上,而是一边做自己的事情一边等待。
注意:同步非阻塞形式实际上是效率低下的,想象一下你一边打着电话一边还需要抬头看到底队伍排到你了没有。如果把打电话和观察排队的位置看成是程序的两个操作的话,这个程序需要在这两种不同的行为之间来回的切换,效率可想而知是低下的;而异步非阻塞形式却没有这样的问题,因为打电话是你(等待者)的事情,而通知你则是柜台(消息触发机制)的事情,程序没有在两种不同的操作中来回切换。
同步/异步与阻塞/非阻塞
1.同步阻塞形式
效率最低,拿上面的例子来说,就是你专心排队,什么别的事都不做.
2.异步阻塞形式
如果在银行等待办理业务的人采用的是异步的方式去等待消息被触发(通知)
,也就是领了一张小纸条,假如在这段时间里他不能离开银行做其它的事情,那么很显然,这个人被阻塞在了这个等待的操作上面;
异步操作是可以被阻塞住的,只不过它不是在处理消息时阻塞,而是在等待消息通知时被阻塞。
- 同步非阻塞形式
实际上是效率低下的。
想象一下你一边打着电话一边还需要抬头看到底队伍排到你了没有(两个操作不能同时执行,因为是同步),如果把打电话和观察排队的位置看成是程序的两个操作的话,这个程序需要在这两种不同的行为之间来回的切换
,效率可想而知是低下的。
- 异步非阻塞形式
效率更高,
因为打电话是你(等待者)的事情,而通知你则是柜台(消息触发机制)的事情,程序没有在两种不同的操作中来回切换
。
比如说,这个人突然发觉自己烟瘾犯了,需要出去抽根烟,于是他告诉大堂经理说,排到我这个号码的时候麻烦到外面通知我一下,那么他就没有被阻塞在这个等待的操作上面,自然这个就是异步+非阻塞的方式了。
很多人会把同步和阻塞混淆,是因为很多时候同步操作会以阻塞的形式表现出来
,同样的,很多人也会把异步和非阻塞混淆,因为异步操作一般都不会在真正的IO操作处被阻塞
。
进程的创建与结束
进程的创建
但凡是硬件,都需要有操作系统去管理,只要有操作系统,就有进程的概念,就需要有创建进程的方式,一些操作系统只为一个应用程序设计,比如微波炉中的控制器,一旦启动微波炉,所有的进程都已经存在。
而对于通用系统(跑很多应用程序),需要有系统运行过程中创建或撤销进程的能力,主要分为4中形式创建新的进程:
1. 系统初始化(查看进程linux中用ps命令,windows中用任务管理器,前台进程负责与用户交互,后台运行的进程与用户无关,运行在后台并且只在需要时才唤醒的进程,称为守护进程,如电子邮件、web页面、新闻、打印)
2. 一个进程在运行过程中开启了子进程(如nginx开启多进程,os.fork,subprocess.Popen等)
3. 用户的交互式请求,而创建一个新进程(如用户双击暴风影音)
4. 一个批处理作业的初始化(只在大型机的批处理系统中应用)
无论哪一种,新进程的创建都是由一个已经存在的进程执行了一个用于创建进程的系统调用而创建的。
1. 在UNIX中该系统调用是:fork,fork会创建一个与父进程一模一样的副本,二者有相同的存储映像、同样的环境字符串和同样的打开文件(在shell解释器进程中,执行一个命令就会创建一个子进程) 2. 在windows中该系统调用是:CreateProcess,CreateProcess既处理进程的创建,也负责把正确的程序装入新进程。 关于创建子进程,UNIX和windows 1.相同的是:进程创建后,父进程和子进程有各自不同的地址空间(多道技术要求物理层面实现进程之间内存的隔离),任何一个进程的在其地址空间中的修改都不会影响到另外一个进程。 2.不同的是:在UNIX中,子进程的初始地址空间是父进程的一个副本,提示:子进程和父进程是可以有只读的共享内存区的。但是对于windows系统来说,从一开始父进程与子进程的地址空间就是不同的。
进程的结束
1. 正常退出(自愿,如用户点击交互式页面的叉号,或程序执行完毕调用发起系统调用正常退出,在linux中用exit,在windows中用ExitProcess)
2. 出错退出(自愿,python a.py中a.py不存在)
3. 严重错误(非自愿,执行非法指令,如引用不存在的内存,1/0等,可以捕捉异常,try...except...)
4. 被其他进程杀死(非自愿,如kill -9)
在python程序中的进程操作
之前我们已经了解了很多进程相关的理论知识,了解进程是什么应该不再困难了,刚刚我们已经了解了,运行中的程序就是一个进程。所有的进程都是通过它的父进程来创建的。因此,运行起来的python程序也是一个进程,那么我们也可以在程序中再创建进程。多个进程可以实现并发效果,也就是说,当我们的程序中存在多个进程的时候,在某些时候,就会让程序的执行速度变快。以我们之前所学的知识,并不能实现创建进程这个功能,所以我们就需要借助python中强大的模块。
multiprocessing模块
仔细说来,multiprocessing不是一个模块而是python中一个操作、管理进程的包。 之所以叫multi是取自multiple的多功能的意思,在这个包中几乎包含了和进程有关的所有子模块。由于提供的子模块非常多,为了方便大家归类记忆,我将这部分大致分为四个部分:创建进程部分,进程同步部分,进程池部分,进程之间数据共享。
multiprocessing.process模块
process模块介绍
process模块是一个创建进程的模块,借助这个模块,就可以完成进程的创建。
Process([group [, target [, name [, args [, kwargs]]]]]),由该类实例化得到的对象,表示一个子进程中的任务(尚未启动) 强调: 1. 需要使用关键字的方式来指定参数 2. args指定的为传给target函数的位置参数,是一个元组形式,必须有逗号 参数介绍: group参数未使用,值始终为None target表示调用对象,即子进程要执行的任务 args表示调用对象的位置参数元组,args=(1,2,'egon',) kwargs表示调用对象的字典,kwargs={'name':'egon','age':18} name为子进程的名称
p.start():启动进程,并调用该子进程中的p.run()
p.run():进程启动时运行的方法,正是它去调用target指定的函数,我们自定义类的类中一定要实现该方法
p.terminate():强制终止进程p,不会进行任何清理操作,如果p创建了子进程,该子进程就成了僵尸进程,使用该方法需要特别小心这种情况。如果p还保存了一个锁那么也将不会被释放,进而导致死锁
p.is_alive():如果p仍然运行,返回True
p.join([timeout]):主线程等待p终止(强调:是主线程处于等的状态,而p是处于运行的状态)。timeout是可选的超时时间,需要强调的是,p.join只能join住start开启的进程,而不能join住run开启的进程
方法介绍
p.daemon:默认值为False,如果设为True,代表p为后台运行的守护进程,当p的父进程终止时,p也随之终止,并且设定为True后,p不能创建自己的新进程,必须在p.start()之前设置
p.name:进程的名称
p.pid:进程的pid
p.exitcode:进程在运行时为None、如果为–N,表示被信号N结束(了解即可)
p.authkey:进程的身份验证键,默认是由os.urandom()随机生成的32字符的字符串。这个键的用途是为涉及网络连接的底层进程间通信提供安全性,这类连接只有在具有相同的身份验证键时才能成功(了解即可)
属性介绍
在Windows操作系统中由于没有fork(linux操作系统中创建进程的机制),在创建子进程的时候会自动
import 启动它的这个文件,而在 import 的时候又执行了整个文件。因此如果将process()
直接写在文件中就会无限递归创建子进程报错。所以必须把创建子进程的部分使用if __name__ ==‘__main__’
判断保护起来,import 的时候 ,就不会递归运行了。
使用process模块创建进程
在一个python进程中开启子进程,start方法和并发的效果.
from multiprocessing import Process import time def func(): time.sleep(1) print('这里是son') if __name__ == '__main__': p = Process(target = func) p.start() time.sleep(2) print('这里是father')
from multiprocessing import Process import time def func(name): print('son 的名字是 %s '%name) time.sleep(5) print('这里是son') if __name__ == '__main__': p = Process(target = func,args=('Alex',)) p.start() time.sleep(2) p.join()# 代码执行到这里,主进程main会停止等待子进程执行完毕才继续 print('这里是father')
from multiprocessing import Process import os def func(): print('我是子进程,我的进程id是%s,我爸爸的id是%s'%(os.getpid(),os.getppid())) if __name__ == '__main__': print('我是main爸爸,我的进程id是%s' % os.getpid()) for i in range(5): p = Process(target = func,args=()) p.start()
进阶,多个进程同时执行(注意:子进程的执行顺序并不受开启子进程的顺序影响)
from multiprocessing import Process import time def func(i): print('这里是第%s个子进程'%(i)) time.sleep(1) if __name__ == '__main__': print('这里是main爸爸') for i in range(5): p = Process(target = func,args=(i,)) p.start()
from multiprocessing import Process import time def func(i): print('这里是第%s个子进程'%(i)) time.sleep(1) if __name__ == '__main__': for i in range(5): p = Process(target = func,args=(i,)) p.start() p.join()# main会停在这一句,等子进程执行完,再继续走,也就是才再走下一次for循环 print('这里是main爸爸')
from multiprocessing import Process import time def func(i): print('这里是第%s个子进程'%(i)) time.sleep(1) if __name__ == '__main__': p_l = [] for i in range(5): p = Process(target = func,args=(i,)) p.start() p_l.append(p) [i.join() for i in p_l] print('这里是main爸爸')
上边是直接开启多进程,接下来介绍一个高大上的方法 -- 继承Process类的方式
from multiprocessing import Process import os class MyProcess(Process): def __init__(self,name): super().__init__() self.name = name def run(self): print('我是%s,我正在和苍老师谈人生,我的id是%s'%(self.name,os.getpid())) if __name__ == '__main__': p1 = MyProcess('WuSir') p2 = MyProcess('邱老板') p3 = MyProcess('金老板') p1.start()# 调用start方法,start方法内自动调用run方法 p2.start() # p2.run() p3.start() p1.join() p2.join()# 注意,如果调用run方法,就不能再调用join方法 p3.join() print('我是main爸爸') 继承那些事(Process)
多进程之间关于数据隔离的那些年那些事儿
from multiprocessing import Process def func(): global n n = 0 print('子进程内 n = %s'%n) if __name__ == '__main__': n = 100 p = Process(target=func) p.start() print('主进程内 n = %s'%n)
守护进程
会随着父进程的结束而结束。
父进程创建守护进程
其一:守护进程会在父进程代码执行结束后就终止
其二:守护进程内无法再开启子进程,否则抛出异常:AssertionError: daemonic processes are not allowed to have children
注意:进程之间是互相独立的,父进程代码运行结束,守护进程随即终止
from multiprocessing import Process import time def func(): print('子进程开始执行') time.sleep(2) print('子进程结束执行') if __name__ == '__main__': print('主进程开始执行') p = Process(target=func1,) p.daemon = True# 将p 设置为守护进程,此代码一定要在start之前设置。 p.start() time.sleep(1) print('主进程结束执行')
from multiprocessing import Process import time def func2(): print('子进程2开始执行') time.sleep(2) print('子进程2结束执行') def func1(): print('子进程开始执行') time.sleep(2) print('子进程结束执行') if __name__ == '__main__': print('主进程开始执行') p1 = Process(target=func1,) p2 = Process(target=func2) p1.daemon = True# 将p1 设置为守护进程,此代码一定要在start之前设置。 p1.start() p2.start() time.sleep(1)# 此时p1 p2 和main 都已经开始执行 print('主进程结束执行')# 当主进程打印完这句话,代表主进程结束,守护进程p1肯定随之结束 # 但是p2 不是守护进程,不会结束,所以此时程序(也就是主进程)会等待p2结束之后才结束。
socket tcp协议并发实现聊天
from multiprocessing import Process import socket from socket import SOL_SOCKET,SO_REUSEADDR SERVER_ADDR = ('127.0.0.1',8080) sk = socket.socket() sk.setsockopt(SOL_SOCKET,SO_REUSEADDR,1) sk.bind(SERVER_ADDR) sk.listen(5) def func(conn): while 1: try: msg_r = conn.recv(1024).decode('utf-8') print(msg_r) if not msg_r:break conn.send(msg_r.upper().encode('utf-8')) except: break if __name__ == '__main__': while 1: conn,addr = sk.accept() p = Process(target=func,args=(conn,)) p.start() sk.close() socket-tcp协议并发实现_server
import socket sk = socket.socket() sk.connect(('127.0.0.1',8080)) while 1: msg_s = input('>>>') if not msg_s:continue sk.send(msg_s.encode('utf-8')) print(sk.recv(1024).decode('utf-8')) sk.close()
多进程中其他方法
from multiprocessing import Process import random import time class MyProcess(Process): def __init__(self,name): super(MyProcess, self).__init__() self.name = name# name是父类Process中的属性,这里相当于给子进程命名 def run(self): print('%s 正在撩小姐姐'%self.name) time.sleep(random.randint(1,3)) print('%s 还在撩小姐姐'%self.name) if __name__ == '__main__': p = MyProcess('Alex') p.start() time.sleep(0.1) p.terminate()# 将p进程杀死的命令。 将任务提交给操作系统,操作系统什么时候执行不受用户决定 print(p.is_alive())# 判断p进程是否还存在 time.sleep(1) print(p.is_alive())# 判断p进程是否还存在 进程的terminate和is_alive方法
from multiprocessing import Process import random import time class MyProcess(Process): def __init__(self,name): super(MyProcess, self).__init__() self.name = name# name是父类Process中的属性,这里相当于给子进程命名 def run(self): print('%s 正在撩小姐姐'%self.name) time.sleep(random.randint(1,3)) print('%s 还在撩小姐姐'%self.name) if __name__ == '__main__': p = MyProcess('Alex') p.start() print(p.name,p.pid)# 打印进程名字,进程id号 进程的name和pid属性
进程同步(multiprocessing.Lock、multiprocessing.Semaphore、multiprocessing.Event)
在计算机中,有一些硬件和软件,例如处理器、打印机等,都属于竞争类资源,当有需求时,很多进程都要争抢这些资源,而对于这类资源,就属于临界资源。当多进程共同处理某一个数据时,这个数据也就属于一个临界资源。操作系统对计算机内各种资源都使其在竞争中有序化,但是对于数据来说,尤其是用户动态产生的数据,当处理时就变成了临界资源,所以我们作为程序猿来说,需要对临界资源加以保护,否则就会出现数据混乱现象。这是在提高程序效率的优势下,带来的一个隐患。小伙伴们,加油吧!
锁 —— multiprocessing.Lock
通过刚刚的学习,我们千方百计实现了程序的异步,让多个任务可以同时在几个进程中并发处理,他们之间的运行没有顺序(或者说由操作系统调度决定他们的顺序),一旦开启也不受我们控制。尽管并发编程让我们能更加充分的利用IO资源,但是也给我们带来了新的问题。
当多个进程使用同一份数据资源的时候,就会引发数据安全或顺序混乱问题。
from multiprocessing import Process import random import time def func(addr): print('我是%s'%addr) time.sleep(random.random()) print('谢谢!') if __name__ == '__main__': l = ['四川的','湖南的','河南的','江苏的'] for addr in l: p = Process(target=func,args=(addr,)) p.start() time.sleep(2) print(' 我选%s'%random.choice(l)) # 关于抢占输出资源的事情,是指多进程并发执行时,并不是一个进程执行完任务后其他进程再执行。 # 比如 此程序会输出:我是四川的 我是河南的 我是江苏的 谢谢!谢谢!我是湖南的 谢谢! 谢谢! # 而不是 : 我是四川的 谢谢! 我是河南的 谢谢! ... 多进程关于抢占输出资源的事情
from multiprocessing import Process import random import time from multiprocessing import Lock def func(addr,lock): lock.acquire() print('我是%s'%addr) time.sleep(random.random()) print('谢谢!') lock.release() if __name__ == '__main__': lock = Lock() l = ['四川的','湖南的','河南的','江苏的'] for addr in l: p = Process(target=func,args=(addr,lock)) p.start() time.sleep(4) print(' 我选%s'%random.choice(l))
上面这种情况,使用了加锁的形式确保了程序的顺序执行,但是执行又变成了串行,降低了效率,但是不得不说,它确保了数据的安全性。
下面举例来说锁的重要性:模拟12306抢票问题。模拟银行账户的存取款问题
# 注意,文件中存储需要以{'c':1}这种形式,c的引号一定要带 # 否则json识别不出来 # 此代码的效果,并发执行,但是多进程同时读写同一个文件数据,造成数据混乱 from multiprocessing import Process,Lock import json import time def check(i,l): with open('a.txt','r',encoding='utf-8') as f: dic = json.load(f) print('第%s个人在查票,余票为%s' % (i, dic['c'])) pay(i,l) def pay(i,l): with open('a.txt','r',encoding='utf-8') as f: dic = json.load(f) time.sleep(0.5)# 模拟网络延迟,当购买过程中也会有网络延迟 if dic['c']: print('第%s个人买到票了 '%i) dic['c'] -= 1 else: print('第%s个人没买到票'%i) with open('a.txt','w') as f: json.dump(dic,f) if __name__ == '__main__': l = Lock() for i in range(10): p = Process(target=check,args=(i+1,l)) p.start() 多个人同时抢票
很明显,上述例子中,因为多进程同时对一个临界资源(a.txt文件)进行了读写操作,使文件内数据混乱,也造成了余票为1张,但是很多人都抢到票的假象。那就加锁来解决它吧
from multiprocessing import Process,Lock import json import time def check(i,l): with open('a.txt','r',encoding='utf-8') as f: dic = json.load(f) print('第%s个人在查票,余票为%s' % (i, dic['c'])) l.acquire() pay(i,l)# 为什么在这里加锁? 因为每个人都可以查票,读取数据,不会造成数据混乱,但是当买票的时候,就需要对临界资源的写入,所以对写操作加锁,使某一个进程在写文件时候,其他进程不能碰此文件。 l.release() def pay(i,l): with open('a.txt','r',encoding='utf-8') as f: dic = json.load(f) time.sleep(0.5)# 模拟网络延迟,当购买过程中也会有网络延迟 if dic['c']: print('第%s个人买到票了 '%i) dic['c'] -= 1 else: print('第%s个人没买到票'%i) with open('a.txt','w') as f: json.dump(dic,f) if __name__ == '__main__': l = Lock() for i in range(10): p = Process(target=check,args=(i+1,l)) p.start() 加锁解决买票问题
关于银行存取款的问题。同一个账户,某个人一直存,某个人在同一时间一直取,如果不对数据进行保护起来,就会造成的一种数据混乱问题。
from multiprocessing import Process, Lock,Value def save_money(num): for i in range(100): time.sleep(0.05) num.value += 1 def draw_money(num): for i in range(100): time.sleep(0.05) num.value -= 1 if __name__ == '__main__': num = Value('i',1000)# 多进程中共享数据,一个int类型的数据,1000 man = Process(target=save_money,args=(num,)) woman = Process(target=draw_money,args=(num,)) man.start() woman.start() time.sleep(6) print(num.value) 钱多钱少怪谁?
from multiprocessing import Process, Lock,Value def save_money(num,l): for i in range(100): time.sleep(0.05) l.acquire() num.value += 1 l.release() def draw_money(num,l): for i in range(100): time.sleep(0.05) l.acquire()# 在操作存取款的数据时,先将数据锁住,不允许其他人更改此数据 num.value -= 1 l.release() if __name__ == '__main__': l = Lock() num = Value('i',1000)# 多进程中共享数据,一个int类型的数据,1000 man = Process(target=save_money,args=(num,l)) woman = Process(target=draw_money,args=(num,l)) man.start() woman.start() time.sleep(6) print(num.value) 这样才对!!!
信号量 —— multiprocessing.Semaphore(了解)
# 上述讲的Lock,属于互斥锁,也就是一把钥匙配备一把锁,同时只允许锁住某一个数据。而信号量则是多把钥匙配备多把锁,也就是说同时允许锁住多个数据。
比如在一个粉红发廊,里边有5位服务人员,那么这个发廊最多就同时允许进入5位客人,当又有第6位客人来的时候,就需要在门外等待;当服务人员服务完某位客人后,才允许后续的人再进来一个,换句话说,这个发廊最多同时接待5位客人,多的客人必须等待。
信号量同步基于内部计数器,用户初始化一个计数器初值(比如上述例子中就初始化为5),每调用一次acquire(),计数器减1;每调用一次release(),计数器加1。当计数器为0时,acquire()调用被阻塞。这是迪科斯彻(Dijkstra)信号量概念P()和V()的Python实现。信号量同步机制适用于访问像服务器这样的有限资源。信号量与进程池的概念很像,但是要区分开,信号量涉及到加锁的概念
from multiprocessing import Semaphore from multiprocessing import Process import time import random def sing(i,se): se.acquire()# 每次进来一位客人,信号量内部计数器减1 print('%s进入小黑屋'%i) time.sleep(random.randint(1,3)) print('%s交钱走人'%i) se.release()# 每次离开一位客人,信号量内部计数器加1 if __name__ == '__main__': se = Semaphore(5)# 初始化5把钥匙配备5把锁 for i in range(10): # 模拟10个人要进入小黑屋子 p = Process(target=sing,args=(i,se)) p.start() 信号量机制举个栗子
事件 —— multiprocessing.Event(了解)
python中的事件机制,主要用于主进程控制其他进程的执行,事件主要提供了三个方法 set、wait、clear。 事件处理的机制:全局定义了一个“Flag”(event.is_set()),如果“Flag”值为 False,那么当程序执行 event.wait 方法时就会阻塞,如果“Flag”值为True,那么event.wait 方法时便不再阻塞。 clear:将“Flag”设置为False set:将“Flag”设置为True is_set:返回全局‘Flag’的bool值 事件 Event
def traffic_lights(e): while 1: if e.is_set():# 如果True,代表e.wait() 不阻塞 time.sleep(5)# 这段时间代表绿灯亮的时间,可以过车 print('