# coding:utf-8
import time
import json
from multiprocessing import Process, Lock
def func(n, loc):
dic = json.load(open('db.py'))
print("用户[%s]你好!目前剩余票数:" % n, dic['count'])
# with loc:
# dic = json.load(open('db.py'))
# time.sleep(0.1)
# if dic['count'] > 0:
# dic['count'] -= 1
# time.sleep(0.1)
# json.dump(dic, open('db.py', 'w'))
# print("恭喜您[%s]抢到票了." % n)
# else:
# print("非常抱歉[%s]抢票失败." % n)
loc.acquire()
dic = json.load(open('db.py'))
time.sleep(0.1)
if dic['count'] > 0:
dic['count'] -= 1
time.sleep(0.1)
json.dump(dic, open('db.py', 'w'))
print("恭喜您[%s]抢到票了." % n)
else:
print("非常抱歉[%s]抢票失败." % n)
loc.release()
if __name__ == '__main__':
lock = Lock()
for i in range(10):
p = Process(target=func, args=(i, lock))
p.start()
# 用户[1]你好!目前剩余票数: 6
# 用户[2]你好!目前剩余票数: 6
# 用户[0]你好!目前剩余票数: 6
# 用户[3]你好!目前剩余票数: 6
# 用户[6]你好!目前剩余票数: 6
# 用户[4]你好!目前剩余票数: 6
# 用户[5]你好!目前剩余票数: 6
# 用户[7]你好!目前剩余票数: 6
# 恭喜您[1]抢到票了.
# 用户[8]你好!目前剩余票数: 5
# 用户[9]你好!目前剩余票数: 5
# 恭喜您[2]抢到票了.
# 恭喜您[0]抢到票了.
# 恭喜您[3]抢到票了.
# 恭喜您[6]抢到票了.
# 恭喜您[4]抢到票了.
# 非常抱歉[5]抢票失败.
# 非常抱歉[7]抢票失败.
# 非常抱歉[8]抢票失败.
# 非常抱歉[9]抢票失败.
db.py
{"count": 6}
#加锁可以保证多个进程修改同一块数据时,同一时间只能有一个任务可以进行修改,即串行的修改,没错,速度是慢了,但牺牲了速度却保证了数据安全。
虽然可以用文件共享数据实现进程间通信,但问题是:
1.效率低(共享数据基于文件,而文件是硬盘上的数据)
2.需要自己加锁处理
#因此我们最好找寻一种解决方案能够兼顾:1、效率高(多个进程共享一块内存的数据)2、帮我们处理好锁问题。
这就是mutiprocessing模块为我们提供的基于消息的IPC通信机制:队列和管道。