zoukankan      html  css  js  c++  java
  • 进程锁,队列,JoinableQueue

    内容梗概:
    1.进程同步(锁)
    2.队列(重点)
    3.生产者消费者模式
    4.JoinableQueue([maxsize])
    5.信号量(了解)
    6.事件



    1.进程同步(锁)
    并发编程让我们能更加充分的利用IO资源,但是也给我们带来了新的问题:
    进程之间数据不共享,但是共享同一套文件系统,所以访问同一个文件,或同一个打印终端,是没有问题的,而共享带来的是竞争,竞争带来的结果就是错乱,如何控制,就是加锁处理。
    实例:
    由并发变成了串行,牺牲了运行效率,但避免了竞争
    注意:首先在当前文件目录下创建一个名为db的文件
    文件db的内容为:{"count":1},只有这一行数据,并且注意,每次运行完了之后,文件中的1变成了0,你需要手动将0改为1,然后在去运行代码。
    注意一定要用双引号,不然json无法识别
    加锁保证数据安全,不出现混乱
    from multiprocessing import Process,Lock
    import time,json,random

    #查看剩余票数
    def search():
    dic=json.load(open('db')) #打开文件,直接load文件中的内容,拿到文件中的包含剩余票数的字典
    print('33[43m剩余票数%s33[0m' %dic['count'])

    #抢票
    def get():
    dic=json.load(open('db'))
    time.sleep(0.1) #模拟读数据的网络延迟,那么进程之间的切换,导致所有人拿到的字典都是{"count": 1},也就是每个人都拿到了这一票。
    if dic['count'] >0:
    dic['count']-=1
    time.sleep(0.2) #模拟写数据的网络延迟
    json.dump(dic,open('db','w'))
    #最终结果导致,每个人显示都抢到了票,这就出现了问题~
    print('33[43m购票成功33[0m')
    else:
    print('sorry,没票了亲!')
    def task(lock):
    search()
    #因为抢票的时候是发生数据变化的时候,所有我们将锁加加到这里
    lock.acquire()
    get()
    lock.release()
    if __name__ == '__main__':
    lock = Lock() #创建一个锁
    for i in range(3): #模拟并发100个客户端抢票
    p=Process(target=task,args=(lock,)) #将锁作为参数传给task函数
    p.start()

    进程锁总结: 
    加锁可以保证多个进程修改同一块数据时,同一时间只能有一个任务可以进行修改,即串行的修改,没错,速度是慢了,但牺牲了速度却保证了数据安全。
    虽然可以用文件共享数据实现进程间通信,但问题是:
    1.效率低(共享数据基于文件,而文件是硬盘上的数据)
    2.需要自己加锁处理

    因此我们最好找寻一种解决方案能够兼顾:1、效率高(多个进程共享一块内存的数据)2、帮我们处理好锁问题。这就是mutiprocessing模块为我们提供的基于消息的IPC通信机制:队列和管道。
    队列和管道都是将数据存放于内存中
    队列又是基于(管道+锁)实现的,可以让我们从复杂的锁问题中解脱出来,
    我们应该尽量避免使用共享数据,尽可能使用消息传递和队列,避免处理复杂的同步和锁问题,而且在进程数目增多时,往往可以获得更好的可获展性。


    2.队列(重点)
    进程彼此之间互相隔离,要实现进程间通信(IPC),multiprocessing模块支持两种形式:队列和管道,这两种方式都是使用消息传递的。队列就像一个特殊的列表,但是可以设置固定长度,并且从前面插入数据,从后面取出数据,先进先出。

    队列的一些方法:
    q = Queue([maxsize])
    创建共享的进程队列。maxsize是队列中允许的最大项数。如果省略此参数,则无大小限制。底层队列使用管道和锁定实现。另外,还需要运行支持线程以便队列中的数据传输到底层管道中。
    Queue的实例q具有以下方法:

    q.get( [ block [ ,timeout ] ] )
    返回q中的一个项目。如果q为空,此方法将阻塞,直到队列中有项目可用为止。block用于控制阻塞行为,默认为True. 如果设置为False,将引发Queue.Empty异常(定义在Queue模块中)。timeout是可选超时时间,用在阻塞模式中。如果在制定的时间间隔内没有项目变为可用,将引发Queue.Empty异常。

    q.get_nowait( )
    同q.get(False)方法。

    q.put(item [, block [,timeout ] ] )
    将item放入队列。如果队列已满,此方法将阻塞至有空间可用为止。block控制阻塞行为,默认为True。如果设置为False,将引发Queue.Empty异常(定义在Queue库模块中)。timeout指定在阻塞模式中等待可用空间的时间长短。超时后将引发Queue.Full异常。

    q.qsize()
    返回队列中目前项目的正确数量。此函数的结果并不可靠,因为在返回结果和在稍后程序中使用结果之间,队列中可能添加或删除了项目。在某些系统上,此方法可能引发NotImplementedError异常。

    q.empty()
    如果调用此方法时 q为空,返回True。如果其他进程或线程正在往队列中添加项目,结果是不可靠的。也就是说,在返回和使用结果之间,队列中可能已经加入新的项目。

    q.full()
    如果q已满,返回为True. 由于线程的存在,结果也可能是不可靠的(参考q.empty()方法)。。

    具体实例:
    from multiprocessing import Queue
    q=Queue(3) #创建一个队列对象,队列长度为3

    #put ,get ,put_nowait,get_nowait,full,empty
    q.put(3) #往队列中添加数据
    q.put(2)
    q.put(1)
    # q.put(4) # 如果队列已经满了,程序就会停在这里,等待数据被别人取走,再将数据放入队列。
    # 如果队列中的数据一直不被取走,程序就会永远停在这里。
    try:
    q.put_nowait(4) # 可以使用put_nowait,如果队列满了不会阻塞,但是会因为队列满了而报错。
    except: # 因此我们可以用一个try语句来处理这个错误。这样程序不会一直阻塞下去,但是会丢掉这个消息。
    print('队列已经满了')

    # 因此,我们再放入数据之前,可以先看一下队列的状态,如果已经满了,就不继续put了。
    print(q.full()) #查看是否满了,满了返回True,不满返回False

    print(q.get()) #取出数据
    print(q.get())
    print(q.get())
    # print(q.get()) # 同put方法一样,如果队列已经空了,那么继续取就会出现阻塞。
    try:
    q.get_nowait(3) # 可以使用get_nowait,如果队列满了不会阻塞,但是会因为没取到值而报错。
    except: # 因此我们可以用一个try语句来处理这个错误。这样程序不会一直阻塞下去。
    print('队列已经空了')

    print(q.empty()) #空了

    队列是进程安全的:同一时间只能一个进程拿到队列中的一个数据,你拿到了一个数据,这个数据别人就拿不到了。

    3.生产者消费者模式
    生产者消费者模式是通过一个容器来解决生产者和消费者的强耦合问题。
    生产者和消费者彼此之间不直接通讯,而通过阻塞队列来进行通讯,所以生产者生产完数据之后不用等待消费者处理,
    直接扔给阻塞队列,消费者不找生产者要数据,而是直接从阻塞队列里取,阻塞队列就相当于一个缓冲区,平衡了生产者和消费者的处理能力,
    并且我可以根据生产速度和消费速度来均衡一下多少个生产者可以为多少个消费者提供足够的服务,就可以开多进程等等,而这些进程都是到阻塞队列或者说是缓冲区中去获取或者添加数据。

    简单实例:
    import time
    from multiprocessing import Process,Queue

    def make(q):
    for i in range(10):
    time.sleep(0.5)
    q.put("包子%s号"%(i+1))
    print("包子%s号做好了"%(i+1))
    q.put("None")

    def eat(q):
    while 1:
    time.sleep(0.2)
    i = q.get()
    if i == "None":
    print("包子已售罄")
    else:
    print("%s被吃掉了"%i)

    if __name__ == '__main__':
    q = Queue(10)
    p1 = Process(target=make,args=(q,))
    p2 = Process(target=eat,args=(q,))
    p1.start()
    p2.start()

    上诉例子中仅有一个进程,而在有多个生产者和多个消费者时,由于队列我们说了是进程安全的,我一个进程拿走了结束信号,另外一个进程就拿不到了,
    还需要多发送一个结束信号,有几个取数据的进程就要发送几个结束信号,我们则需要用一个很low的方式去解决

    另外一种队列提供了这种机制 JoinableQueue([maxsize])


    4.JoinableQueue([maxsize])

    JoinableQueue([maxsize]):这就像是一个Queue对象,但队列允许项目的使用者通知生成者项目已经被成功处理。通知进程是使用共享的信号和条件变量来实现的。
    参数介绍:
    maxsize是队列中允许最大项数,省略则无大小限制。
    #方法介绍:
    JoinableQueue的实例p除了与Queue对象相同的方法之外还具有:
    q.task_done():使用者使用此方法发出信号,表示q.get()的返回项目已经被处理。如果调用此方法的次数大于从队列中删除项目的数量,将引发ValueError异常
    q.join():生产者调用此方法进行阻塞,直到队列中所有的项目均被处理。阻塞将持续到队列中的每个项目均调用q.task_done()方法为止,也就是队列中的数据全部被get拿走了。
    实例:
    from multiprocessing import Process, JoinableQueue
    import time, random, os

    def consumer(q):
    while True:
    res = q.get()
    time.sleep(0.5)
    print('%s 吃 %s' % (os.getpid(), res))
    q.task_done() # 向q.join()发送一次信号,证明一个数据已经被取走并执行完了

    def producer(name, q):
    for i in range(10):
    time.sleep(0.22)
    res = '%s%s' % (name, i)
    q.put(res)
    print('%s 生产了 %s' % (os.getpid(), res))
    print('%s生产结束' % name)
    q.join() # 生产完毕,使用此方法进行阻塞,直到队列中所有项目均被处理。
    print('%s生产结束~~~~~~' % name)

    if __name__ == '__main__':
    q = JoinableQueue()
    # 生产者们:即厨师们
    p1 = Process(target=producer, args=('叉烧包', q))
    p2 = Process(target=producer, args=('糯米鸡', q))
    p3 = Process(target=producer, args=('凤爪', q))

    # 消费者们:即吃货们
    c1 = Process(target=consumer, args=(q,))
    c2 = Process(target=consumer, args=(q,))
    c1.daemon = True # 如果不加守护,那么主进程结束不了,但是加了守护之后,必须确保生产者的内容生产完并且被处理完了,所有必须还要在主进程给生产者设置join,才能确保生产者生产的任务被执行完了,并且能够确保守护进程在所有任务执行完成之后才随着主进程的结束而结束。
    c2.daemon = True

    # 开始
    p_l = [p1, p2, p3, c1, c2]
    for p in p_l:
    p.start()

    p1.join() # 我要确保你的生产者进程结束了,生产者进程的结束标志着你生产的所有的人任务都已经被处理完了
    p2.join()
    p3.join()
    print('主程序跑完啦')
    #
    # 主进程等--->p1,p2,p3等---->c1,c2
    # p1,p2,p3结束了,证明c1,c2肯定全都收完了p1,p2,p3发到队列的数据
    # 因而c1,c2也没有存在的价值了,不需要继续阻塞在进程中影响主进程了。应该随着主进程的结束而结束,所以设置成守护进程就可以了。


    5.信号量(了解)
    互斥锁同时只允许一个线程更改数据,而信号量Semaphore是同时允许一定数量的线程更改数据 。
    假设商场里有4个迷你唱吧,所以同时可以进去4个人,如果来了第五个人就要在外面等待,等到有人出来才能再进去玩。

    实现:
    信号量同步基于内部计数器,每调用一次acquire(),计数器减1;每调用一次release(),计数器加1.当计数器为0时,acquire()调用被阻塞。
    这是迪科斯彻(Dijkstra)信号量概念P()和V()的Python实现。信号量同步机制适用于访问像服务器这样的有限资源。
    信号量与进程池的概念很像,但是要区分开,信号量涉及到加锁的概念


    6.事件
    python线程的事件用于主线程控制其他线程的执行,事件主要提供了三个方法 set、wait、clear。
    事件处理的机制:全局定义了一个“Flag”,如果“Flag”值为 False,那么当程序执行 event.wait 方法时就会阻塞,如果“Flag”值为True,那么event.wait 方法时便不再阻塞。
    clear:将“Flag”设置为False
    set:将“Flag”设置为True

    实例:

    from multiprocessing import Process,Semaphore,Event
    import time,random

    e = Event() #创建一个事件对象
    print(e.is_set()) #is_set()查看一个事件的状态,默认为False,可通过set方法改为True
    print('look here!')
    # e.set() #将is_set()的状态改为True。
    # print(e.is_set())#is_set()查看一个事件的状态,默认为False,可通过set方法改为Tr
    # e.clear() #将is_set()的状态改为False
    # print(e.is_set())#is_set()查看一个事件的状态,默认为False,可通过set方法改为Tr
    e.wait() #根据is_set()的状态结果来决定是否在这阻塞住,is_set()=False那么就阻塞,is_set()=True就不阻塞
    print('give me!!')

    set和clear 修改事件的状态 set-->True clear-->False
    is_set 用来查看一个事件的状态
    wait 依据事件的状态来决定是否阻塞 False-->阻塞 True-->不阻塞
  • 相关阅读:
    DbEntry——学习笔记(二)
    新的开始
    Jquery Dialog的使用
    使用System.Net.Mail.MailMessage 来发送邮件
    三层架构中的"业务逻辑层"
    Ajax请求中的async:false/true的作用
    1
    招聘会项目的开发
    操作全角与半角(C#)
    sqlserver把数据库中的表完整的复制到另一个数据库
  • 原文地址:https://www.cnblogs.com/Mixtea/p/10033379.html
Copyright © 2011-2022 走看看