zoukankan      html  css  js  c++  java
  • python并发编程

    目录

    • 多道技术
    • 进程理论
    • 开启进程的两种方式
    • 进程对象的join方法
    • 进程之间数据相互隔离
    • 进程对象的其他方法
    • 僵尸进程与孤儿进程
    • 守护进程
    • 互斥锁
    • 进程对象及其他方法
    • 僵尸进程与孤儿进程
    • 守护进程
    • 互斥锁
    • 队列介绍
    • 进程间通信IPC机制
    • 生产者消费者模型
    • 线程相关知识点
    • 死锁与递归锁(了解)
    • 信号量(了解)
    • Event事件(了解)
    • 线程q(了解)
    • 进程池与线程池(掌握)
    • 协程(了解)
    • 协程实现TCP服务端的并发效果(了解)
    
    

    进程理论

    必备知识点

    程序与进程的区别

    """
    程序就是一堆躺在硬盘上的代码,是“死”的
    进程则表示程序正在执行的过程,是“活”的
    """
    

    进程调度

    • 先来先服务调度算法

      """对长作业有利,对短作业无益"""
      
    • 短作业优先调度算法

      """对短作业有利,多长作业无益"""
      
    • 时间片轮转法+多级反馈队列

    进程运行的三状态图

    两对重要概念

    • 同步和异步

      """描述的是任务的提交方式"""
      同步:任务提交之后,原地等待任务的返回结果,等待的过程中不做任何事(干等)
        	程序层面上表现出来的感觉就是卡住了
      
      异步:任务提交之后,不原地等待任务的返回结果,直接去做其他事情
        	我提交的任务结果如何获取?
          任务的返回结果会有一个异步回调机制自动处理
      
    • 阻塞非阻塞

      """描述的程序的运行状态"""
      阻塞:阻塞态
      非阻塞:就绪态、运行态
      
      理想状态:我们应该让我们的写的代码永远处于就绪态和运行态之间切换
      

    上述概念的组合:最高效的一种组合就是异步非阻塞

    开启进程的两种方式

    from multiprocessing import Process
    import time
    
    
    def task(name):
        print('%s is running'%name)
        time.sleep(3)
        print('%s is over'%name)
    
    
    if __name__ == '__main__':
        # 1 创建一个对象
        p = Process(target=task, args=('jason',))
        # 容器类型哪怕里面只有1个元素 建议要用逗号隔开
        # 2 开启进程
        p.start()  # 告诉操作系统帮你创建一个进程  异步
        print('主')
        
        
    # 第二种方式 类的继承
    from multiprocessing import Process
    import time
    class MyProcess(Process):
        def run(self):
            print('hello bf girl')
            time.sleep(1)
            print('get out!')
    
    
    if __name__ == '__main__':
        p = MyProcess()
        p.start()
        print('主')
    

    总结

    """
    创建进程就是在内存中申请一块内存空间将需要运行的代码丢进去
    一个进程对应在内存中就是一块独立的内存空间
    多个进程对应在内存中就是多块独立的内存空间
    进程与进程之间数据默认情况下是无法直接交互,如果想交互可以借助于第三方工具、模块
    """
    

    join方法

    join是让主进程等待子进程代码运行结束之后,再继续运行。不影响其他子进程的执行

    from multiprocessing import Process
    import time
    
    
    def task(name, n):
        print('%s is running'%name)
        time.sleep(n)
        print('%s is over'%name)
    
    
    if __name__ == '__main__':
        # p1 = Process(target=task, args=('jason', 1))
        # p2 = Process(target=task, args=('egon', 2))
        # p3 = Process(target=task, args=('tank', 3))
        # start_time = time.time()
        # p1.start()
        # p2.start()
        # p3.start()  # 仅仅是告诉操作系统要创建进程
        # # time.sleep(50000000000000000000)
        # # p.join()  # 主进程等待子进程p运行结束之后再继续往后执行
        # p1.join()
        # p2.join()
        # p3.join()
        start_time = time.time()
        p_list = []
        for i in range(1, 4):
            p = Process(target=task, args=('子进程%s'%i, i))
            p.start()
            p_list.append(p)
        for p in p_list:
            p.join()
        print('主', time.time() - start_time)
    

    进程之间数据相互隔离

    from multiprocessing import Process
    
    
    money = 100
    
    
    def task():
        global money  # 局部修改全局
        money = 666
        print('子',money)
    
    
    if __name__ == '__main__':
        p = Process(target=task)
        p.start()
        p.join()
        print(money)
    

    进程对象及其他方法

    """
    一台计算机上面运行着很多进程,那么计算机是如何区分并管理这些进程服务端的呢?
    计算机会给每一个运行的进程分配一个PID号 
    如何查看
    	windows电脑 
    		进入cmd输入tasklist即可查看
    		tasklist |findstr PID查看具体的进程
    	mac电脑 
    		进入终端之后输入ps aux
    		ps aux|grep PID查看具体的进程 
    """
    from multiprocessing import Process, current_process
    current_process().pid  # 查看当前进程的进程号
    
    import os
    os.getpid()  # 查看当前进程进程号
    os.getppid()  # 查看当前进程的父进程进程号
    
    
    p.terminate()  # 杀死当前进程
    # 是告诉操作系统帮你去杀死当前进程 但是需要一定的时间 而代码的运行速度极快
    time.sleep(0.1)
    print(p.is_alive())  # 判断当前进程是否存活
    

    僵尸进程与孤儿进程(了解)

    # 僵尸进程
    """
    死了但是没有死透
    当你开设了子进程之后 该进程死后不会立刻释放占用的进程号
    因为我要让父进程能够查看到它开设的子进程的一些基本信息 占用的pid号 运行时间。。。
    所有的进程都会步入僵尸进程
    	父进程不死并且在无限制的创建子进程并且子进程也不结束
    	回收子进程占用的pid号
    		父进程等待子进程运行结束
    		父进程调用join方法
    """
    
    # 孤儿进程
    """
    子进程存活,父进程意外死亡
    操作系统会开设一个“儿童福利院”专门管理孤儿进程回收相关资源
    """
    

    守护进程

    from multiprocessing import Process
    import time
    
    
    def task(name):
        print('%s总管正在活着'% name)
        time.sleep(3)
        print('%s总管正在死亡' % name)
    
    if __name__ == '__main__':
        p = Process(target=task,args=('egon',))
        # p = Process(target=task,kwargs={'name':'egon'})
        p.daemon = True  # 将进程p设置成守护进程  这一句一定要放在start方法上面才有效否则会直接报错
        p.start()
        print('皇帝jason寿终正寝')
    

    互斥锁

    多个进程操作同一份数据的时候,会出现数据错乱的问题

    针对上述问题,解决方式就是加锁处理:将并发变成串行,牺牲效率但是保证了数据的安全

    from multiprocessing import Process, Lock
    import json
    import time
    import random
    # 查票
    def search(i):
        # 文件操作读取票数
        with open('data','r',encoding='utf8') as f:
            dic = json.load(f)
        print('用户%s查询余票:%s'%(i, dic.get('ticket_num')))
        # 字典取值不要用[]的形式 推荐使用get  你写的代码打死都不能报错!!!
    
    
    # 买票  1.先查 2.再买
    def buy(i):
        # 先查票
        with open('data','r',encoding='utf8') as f:
            dic = json.load(f)
        # 模拟网络延迟
        time.sleep(random.randint(1,3))
        # 判断当前是否有票
        if dic.get('ticket_num') > 0:
            # 修改数据库 买票
            dic['ticket_num'] -= 1
            # 写入数据库
            with open('data','w',encoding='utf8') as f:
                json.dump(dic,f)
            print('用户%s买票成功'%i)
        else:
            print('用户%s买票失败'%i)
    
    
    # 整合上面两个函数
    def run(i, mutex):
        search(i)
        # 给买票环节加锁处理
        # 抢锁
        mutex.acquire()
    
        buy(i)
        # 释放锁
        mutex.release()
    
    
    if __name__ == '__main__':
        # 在主进程中生成一把锁 让所有的子进程抢 谁先抢到谁先买票
        mutex = Lock()
        for i in range(1,11):
            p = Process(target=run, args=(i, mutex))
            p.start()
    """
    扩展 行锁 表锁
    
    注意:
    	1.锁不要轻易的使用,容易造成死锁现象(我们写代码一般不会用到,都是内部封装好的)
    	2.锁只在处理数据的部分加来保证数据安全(只在争抢数据的环节加锁处理即可) 
    """
    

    进程间通信

    队列Queue模块

    """
    管道:subprocess 
    	stdin stdout stderr
    队列:管道+锁
    
    队列:先进先出
    堆栈:先进后出
    """
    from multiprocessing import Queue
    
    # 创建一个队列
    q = Queue(5)  # 括号内可以传数字 标示生成的队列最大可以同时存放的数据量
    
    # 往队列中存数据
    q.put(111)
    q.put(222)
    q.put(333)
    # print(q.full())  # 判断当前队列是否满了
    # print(q.empty())  # 判断当前队列是否空了
    q.put(444)
    q.put(555)
    # print(q.full())  # 判断当前队列是否满了
    
    # q.put(666)  # 当队列数据放满了之后 如果还有数据要放程序会阻塞 直到有位置让出来 不会报错
    
    """
    存取数据 存是为了更好的取
    千方百计的存、简单快捷的取
    
    同在一个屋檐下
    差距为何那么大
    """
    
    # 去队列中取数据
    v1 = q.get()
    v2 = q.get()
    v3 = q.get()
    v4 = q.get()
    v5 = q.get()
    # print(q.empty())
    # V6 = q.get_nowait()  # 没有数据直接报错queue.Empty
    # v6 = q.get(timeout=3)  # 没有数据之后原地等待三秒之后再报错  queue.Empty
    try:
        v6 = q.get(timeout=3)
        print(v6)
    except Exception as e:
        print('一滴都没有了!')
    
    # # v6 = q.get()  # 队列中如果已经没有数据的话 get方法会原地阻塞
    # print(v1, v2, v3, v4, v5, v6)
    
    """
    q.full()
    q.empty()
    q.get_nowait()
    在多进程的情况下是不精确
    """
    

    IPC机制

    from multiprocessing import Queue, Process
    
    """
    研究思路
        1.主进程跟子进程借助于队列通信
        2.子进程跟子进程借助于队列通信
    """
    def producer(q):
        q.put('我是23号技师 很高兴为您服务')
    
    
    def consumer(q):
        print(q.get())
    
    
    if __name__ == '__main__':
        q = Queue()
        p = Process(target=producer,args=(q,))
        p1 = Process(target=consumer,args=(q,))
        p.start()
        p1.start()
    

    生产者消费者模型

    """
    生产者:生产/制造东西的
    消费者:消费/处理东西的
    该模型除了上述两个之外还需要一个媒介
    	生活中的例子做包子的将包子做好后放在蒸笼(媒介)里面,买包子的取蒸笼里面拿
    	厨师做菜做完之后用盘子装着给你消费者端过去
    	生产者和消费者之间不是直接做交互的,而是借助于媒介做交互
    	
    生产者(做包子的) + 消息队列(蒸笼) + 消费者(吃包子的)
    """
    

    线程理论

    • 什么是线程

      """
      进程:资源单位
      线程:执行单位
      
      将操作系统比喻成一个大的工厂
      那么进程就相当于工厂里面的车间
      而线程就是车间里面的流水线
      
      每一个进程肯定自带一个线程
      
      再次总结:
      	进程:资源单位(起一个进程仅仅只是在内存空间中开辟一块独立的空间)
      	线程:执行单位(真正被cpu执行的其实是进程里面的线程,线程指的就是代码的执行过程,执行代码中所需要使用到的资源都找所在的进程索要)
      	
      进程和线程都是虚拟单位,只是为了我们更加方便的描述问题
      """
      
    • 为何要有线程

      """
      开设进程
      	1.申请内存空间	耗资源
      	2.“拷贝代码”   耗资源
      开线程
      	一个进程内可以开设多个线程,在用一个进程内开设多个线程无需再次申请内存空间操作
      
      总结:
      	开设线程的开销要远远的小于进程的开销
      	同一个进程下的多个线程数据是共享的!!!
      """
      

    死锁与递归锁(了解)

    当你知道锁的使用抢锁必须要释放锁,其实你在操作锁的时候也极其容易产生死锁现象(整个程序卡死 阻塞)

    from threading import Thread, Lock
    import time
    
    
    mutexA = Lock()
    mutexB = Lock()
    # 类只要加括号多次 产生的肯定是不同的对象
    # 如果你想要实现多次加括号等到的是相同的对象 单例模式
    
    
    class MyThead(Thread):
        def run(self):
            self.func1()
            self.func2()
    
        def func1(self):
            mutexA.acquire()
            print('%s 抢到A锁'% self.name)  # 获取当前线程名
            mutexB.acquire()
            print('%s 抢到B锁'% self.name)
            mutexB.release()
            mutexA.release()
            
        def func2(self):
            mutexB.acquire()
            print('%s 抢到B锁'% self.name)
            time.sleep(2)
            mutexA.acquire()
            print('%s 抢到A锁'% self.name)  # 获取当前线程名
            mutexA.release()
            mutexB.release()
    
    
    if __name__ == '__main__':
        for i in range(10):
            t = MyThead()
            t.start()
    

    递归锁(了解)

    """
    递归锁的特点	
    	可以被连续的acquire和release
    	但是只能被第一个抢到这把锁执行上述操作
    	它的内部有一个计数器 每acquire一次计数加一 每realse一次计数减一
    	只要计数不为0 那么其他人都无法抢到该锁
    """
    # 将上述的
    mutexA = Lock()
    mutexB = Lock()
    # 换成
    mutexA = mutexB = RLock()
    

    信号量(资源量)

    信号量在不同的阶段可能对应不同的技术点

    在并发编程中信号量指的是锁!!!

    """
    如果我们将互斥锁比喻成一个厕所的话
    那么信号量就相当于多个厕所
    """
    from threading import Thread, Semaphore
    import time
    import random
    
    """
    利用random模块实现打印随机验证码(搜狗的一道笔试题)
    """
    sm = Semaphore(5)  # 括号内写数字 写几就表示开设几个坑位
    
    
    def task(name):
        sm.acquire()
        print('%s 正在蹲坑'% name)
        time.sleep(random.randint(1, 5))
        sm.release()
    
    
    if __name__ == '__main__':
        for i in range(20):
            t = Thread(target=task, args=('伞兵%s号'%i, ))
            t.start()
    

    Event事件(了解)

    一些进程/线程需要等待另外一些进程/线程运行完毕之后才能运行,类似于发射信号一样

    from threading import Thread, Event
    import time
    event = Event()  # 造了一个红绿灯
    def light():
        print('红灯亮着的')
        time.sleep(3)
        print('绿灯亮了')
        # 告诉等待红灯的人可以走了
        event.set()
    
    
    def car(name):
        print('%s 车正在灯红灯'%name)
        event.wait()  # 等待别人给你发信号
        print('%s 车加油门飙车走了'%name)
    
    
    if __name__ == '__main__':
        t = Thread(target=light)
        t.start()
    
        for i in range(20):
            t = Thread(target=car, args=('%s'%i, ))
            t.start()
    

    线程q(了解)

    """
    同一个进程下多个线程数据是共享的
    为什么先同一个进程下还会去使用队列呢
    因为队列是
        管道 + 锁
    所以用队列还是为了保证数据的安全
    """
    import queue
    
    # 我们现在使用的队列都是只能在本地测试使用
    
    # 1 队列q  先进先出
    # q = queue.Queue(3)
    # q.put(1)
    # q.get()
    # q.get_nowait()
    # q.get(timeout=3)
    # q.full()
    # q.empty()
    
    
    # 后进先出q
    # q = queue.LifoQueue(3)  # last in first out
    # q.put(1)
    # q.put(2)
    # q.put(3)
    # print(q.get())  # 3
    
    # 优先级q   你可以给放入队列中的数据设置进出的优先级
    q = queue.PriorityQueue(4)
    q.put((10, '111'))
    q.put((100, '222'))
    q.put((0, '333'))
    q.put((-5, '444'))
    print(q.get())  # (-5, '444')
    # put括号内放一个元祖  第一个放数字表示优先级
    # 需要注意的是 数字越小优先级越高!!!
    

    进程池与线程池(掌握)

    先回顾之前TCP服务端实现并发的效果是怎么玩的

    每来一个人就开设一个进程或者线程去处理

    """
    无论是开设进程也好还是开设线程也好 是不是都需要消耗资源
    只不过开设线程的消耗比开设进程的稍微小一点而已
    
    我们是不可能做到无限制的开设进程和线程的 因为计算机硬件的资源更不上!!!
    硬件的开发速度远远赶不上软件呐
    
    我们的宗旨应该是在保证计算机硬件能够正常工作的情况下最大限度的利用它
    """
    # 池的概念
    """
    什么是池?
    	池是用来保证计算机硬件安全的情况下最大限度的利用计算机
    	它降低了程序的运行效率但是保证了计算机硬件的安全 从而让你写的程序能够正常运行
    """
    

    基本使用

    from concurrent.futures import ThreadPoolExecutor, ProcessPoolExecutor
    import time
    import os
    
    
    # pool = ThreadPoolExecutor(5)  # 池子里面固定只有五个线程
    # 括号内可以传数字 不传的话默认会开设当前计算机cpu个数五倍的线程
    pool = ProcessPoolExecutor(5)
    # 括号内可以传数字 不传的话默认会开设当前计算机cpu个数进程
    """
    池子造出来之后 里面会固定存在五个线程
    这个五个线程不会出现重复创建和销毁的过程
    池子造出来之后 里面会固定的几个进程
    这个几个进程不会出现重复创建和销毁的过程
    
    池子的使用非常的简单
    你只需要将需要做的任务往池子中提交即可 自动会有人来服务你
    """
    
    
    def task(n):
        print(n,os.getpid())
        time.sleep(2)
        return n**n
    
    def call_back(n):
        print('call_back>>>:',n.result())
    """
    任务的提交方式
        同步:提交任务之后原地等待任务的返回结果 期间不做任何事
        异步:提交任务之后不等待任务的返回结果 执行继续往下执行
            返回结果如何获取???
            异步提交任务的返回结果 应该通过回调机制来获取
            回调机制
                就相当于给每个异步任务绑定了一个定时炸弹
                一旦该任务有结果立刻触发爆炸
    """
    if __name__ == '__main__':
        # pool.submit(task, 1)  # 朝池子中提交任务  异步提交
        # print('主')
        t_list = []
        for i in range(20):  # 朝池子中提交20个任务
            # res = pool.submit(task, i)  # <Future at 0x100f97b38 state=running>
            res = pool.submit(task, i).add_done_callback(call_back)
            # print(res.result())  # result方法   同步提交
            # t_list.append(res)
        # 等待线程池中所有的任务执行完毕之后再继续往下执行
        # pool.shutdown()  # 关闭线程池  等待线程池中所有的任务运行完毕
        # for t in t_list:
        #     print('>>>:',t.result())  # 肯定是有序的
    """
    程序有并发变成了串行
    任务的为什么打印的是None
    res.result() 拿到的就是异步提交的任务的返回结果
    """
    

    总结

    from concurrent.futures import ThreadPoolExecutor, ProcessPoolExecutor
    pool = ProcessPoolExecutor(5)
    pool.submit(task, i).add_done_callback(call_back)
    

    协程

    """
    进程:资源单位
    线程:执行单位
    协程:这个概念完全是程序员自己意淫出来的 根本不存在
    		单线程下实现并发
    		我们程序员自己再代码层面上检测我们所有的IO操作
    		一旦遇到IO了 我们在代码级别完成切换
    		这样给CPU的感觉是你这个程序一直在运行 没有IO
    		从而提升程序的运行效率
    	
    多道技术
    	切换+保存状态
    	CPU两种切换
    		1.程序遇到IO
    		2.程序长时间占用
    
    TCP服务端 
    	accept
    	recv
    	
    代码如何做到
    	切换+保存状态
    
    切换
    	切换不一定是提升效率 也有可能是降低效率
    	IO切			提升
    	没有IO切 降低
    		
    保存状态
    	保存上一次我执行的状态 下一次来接着上一次的操作继续往后执行
    	yield
    """
    

    验证切换是否就一定提升效率

    # import time
    #
    # # 串行执行计算密集型的任务   1.2372429370880127
    # def func1():
    #     for i in range(10000000):
    #         i + 1
    #
    # def func2():
    #     for i in range(10000000):
    #         i + 1
    #
    # start_time = time.time()
    # func1()
    # func2()
    # print(time.time() - start_time)
    
    # 切换 + yield  2.1247239112854004
    # import time
    #
    #
    # def func1():
    #     while True:
    #         10000000 + 1
    #         yield
    #
    #
    # def func2():
    #     g = func1()  # 先初始化出生成器
    #     for i in range(10000000):
    #         i + 1
    #         next(g)
    #
    # start_time = time.time()
    # func2()
    # print(time.time() - start_time)
    

    gevent模块(了解)

    安装

    pip3 install gevent
    
    from gevent import monkey;monkey.patch_all()
    import time
    from gevent import spawn
    
    """
    gevent模块本身无法检测常见的一些io操作
    在使用的时候需要你额外的导入一句话
    from gevent import monkey
    monkey.patch_all()
    又由于上面的两句话在使用gevent模块的时候是肯定要导入的
    所以还支持简写
    from gevent import monkey;monkey.patch_all()
    """
    
    
    def heng():
        print('哼')
        time.sleep(2)
        print('哼')
    
    
    def ha():
        print('哈')
        time.sleep(3)
        print('哈')
    
    def heiheihei():
        print('heiheihei')
        time.sleep(5)
        print('heiheihei')
    
    
    start_time = time.time()
    g1 = spawn(heng)
    g2 = spawn(ha)
    g3 = spawn(heiheihei)
    g1.join()
    g2.join()  # 等待被检测的任务执行完毕 再往后继续执行
    g3.join()
    # heng()
    # ha()
    # print(time.time() - start_time)  # 5.005702018737793
    print(time.time() - start_time)  # 3.004199981689453   5.005439043045044
    

    协程实现TCP服务端的并发

    # 服务端
    from gevent import monkey;monkey.patch_all()
    import socket
    from gevent import spawn
    
    
    def communication(conn):
        while True:
            try:
                data = conn.recv(1024)
                if len(data) == 0: break
                conn.send(data.upper())
            except ConnectionResetError as e:
                print(e)
                break
        conn.close()
    
    
    def server(ip, port):
        server = socket.socket()
        server.bind((ip, port))
        server.listen(5)
        while True:
            conn, addr = server.accept()
            spawn(communication, conn)
    
    
    if __name__ == '__main__':
        g1 = spawn(server, '127.0.0.1', 8080)
        g1.join()
    
        
    # 客户端
    from threading import Thread, current_thread
    import socket
    
    
    def x_client():
        client = socket.socket()
        client.connect(('127.0.0.1',8080))
        n = 0
        while True:
            msg = '%s say hello %s'%(current_thread().name,n)
            n += 1
            client.send(msg.encode('utf-8'))
            data = client.recv(1024)
            print(data.decode('utf-8'))
    
    
    if __name__ == '__main__':
        for i in range(500):
            t = Thread(target=x_client)
            t.start()
    

    总结

    """
    理想状态:
    	我们可以通过
    	多进程下面开设多线程
    	多线程下面再开设协程序
    	从而使我们的程序执行效率提升
    """
    
    永远不要高估自己
  • 相关阅读:
    svn 巧用,如果遇到问题解决不了,而上一个版本可以正常使用,则可以查记录
    Fastadmin 后台编辑,或者添加的时候,出现的问题
    Fastadmin 写关联命名时,最好前后台用同一个model,方便管理(会出现命名空间问题)
    python笔记(一)基础一
    服务器端解决跨域
    支付宝的pc端配置
    解决svn update 产生Node remains in conflict的问题
    CentOS7使用firewalld打开关闭防火墙与端口
    腾讯云Centos7下启用端口防火墙
    Centos查看端口占用情况和开启端口命令
  • 原文地址:https://www.cnblogs.com/liqiangwei/p/14526960.html
Copyright © 2011-2022 走看看