本节目录:
1.进程的其他方法
2.验证进程之间是空间隔离的
3.守护进程
4.互斥锁
5.编写一个伪抢票程序
6.数据共享
7.for循环,join
8.队列
9.用队列完成一个生产者消费者模型
10.数据共享详解
一、进程的其他方法:
1.os.getpid():
查找子进程的pid(进程id)
2.os.getppid()
查找子进程父进程的pid
3.is_alive()
判断子进程是否还活着,是否还在运行
4.terminate()
给操作系统发送一个结束进程的信号
具体代码如下:
1 from multiprocessing import Process 2 import os 3 def f1(): 4 print("子进程的ID",os.getpid()) 5 print("子进程的父进程ID",os.getppid()) 6 print("xxxxxxx") 7 8 def f2(): 9 print("aaaaaaa") 10 11 if __name__ == '__main__': 12 p1 = Process(target=f1,name = "给子进程命名") 13 p2 = Process(target=f2,) 14 p1.start() 15 p2.start() 16 print(p1.name) 17 print("子进程的ID",p1.pid) 18 print("父进程的ID",os.getppid())
1 from multiprocessing import Process 2 import os 3 import time 4 def f1(): 5 time.sleep(5) 6 print("子进程1号") 7 8 if __name__ == '__main__': 9 p = Process(target=f1,) 10 p.start() 11 print(p.is_alive()) #查看进程是否存活 12 p.terminate() #结束进程 13 time.sleep(0.5) 14 print(p.is_alive())
二、验证进程之间是空间隔离的
1 from multiprocessing import Process 2 num = 100 3 def f1(): 4 global num 5 num = 50 6 print("子进程中的num",num) 7 8 if __name__ == '__main__': 9 p = Process(target=f1,) 10 p.start() 11 p.join() 12 print("主进程中的num",num)
三、守护进程
之前我们讲的子进程是不会随着主进程的结束而结束,子进程全部执行完之后,程序才结束,那么如果有一天我们的需求是我的主进程结束了,由我主进程创建的那些子进程必须跟着结束,怎么办?守护进程就来了!
主进程创建守护进程
其一:守护进程会在主进程代码执行结束后就终止
其二:守护进程内无法再开启子进程,否则抛出异常:AssertionError: daemonic processes are not allowed to have children
注意:进程之间是互相独立的,主进程代码运行结束,守护进程随即终止
1 import time 2 from multiprocessing import Process 3 def f1(): 4 time.sleep(2) 5 print("守护进程") 6 7 def f2(): 8 time.sleep(3) 9 print("普通子进程") 10 11 if __name__ == '__main__': 12 p1 = Process(target=f1,) 13 p1.daemon = True #将该进程设置成守护进程,必须写在start之前,意思如果 我的主进程代码运行结束了,你这个子进程不管运行到什么地方,都直接结束 14 p1.start() 15 16 #开启一个普通的子进程来验证一下守护进程的结束只和主进程的代码运行结束有关系,而整个程序的结束需要主进程和普通的子进程的代码都运行结束才结束 17 p2 = Process(target=f2,) 18 p2.start() 19 #等待2号普通进程的结束,才继续执行下面主进程中的代码 20 # p2.join() 21 #守护进程会跟跟着父进程的代码运行结束,就结束 22 print('主进程结束')
四、互斥锁/进程锁/同步锁
我们千方百计实现了程序的异步,让多个任务可以同时在几个进程中并发处理,他们之间的运行没有顺序,一旦开启也不受我们控制。尽管并发编程让我们能更加充分的利用IO资源,但是也给我们带来了新的问题:进程之间数据不共享,但是共享同一套文件系统,所以访问同一个文件,或同一个打印终端,是没有问题的,而共享带来的是竞争,竞争带来的结果就是错乱,如何控制,就是加锁处理。
1 import os 2 import time 3 import random 4 from multiprocessing import Process 5 6 def work(n): 7 print('%s: %s is running' %(n,os.getpid())) 8 time.sleep(random.random()) 9 print('%s:%s is done' %(n,os.getpid())) 10 11 if __name__ == '__main__': 12 for i in range(5): 13 p=Process(target=work,args=(i,)) 14 p.start() 15 16 # 看结果:通过结果可以看出两个问题:问题一:每个进程中work函数的第一个打印就不是按照我们for循环的0-4的顺序来打印的 17 #问题二:我们发现,每个work进程中有两个打印,但是我们看到所有进程中第一个打印的顺序为0-2-1-4-3,但是第二个打印没有按照这个顺序,变成了2-1-0-3-4,说明我们一个进程中的程序的执行顺序都混乱了。 18 #问题的解决方法,第二个问题加锁来解决,第一个问题是没有办法解决的,因为进程开到了内核,有操作系统来决定进程的调度,我们自己控制不了 19 # 0: 9560 is running 20 # 2: 13824 is running 21 # 1: 7476 is running 22 # 4: 11296 is running 23 # 3: 14364 is running 24 25 # 2:13824 is done 26 # 1:7476 is done 27 # 0:9560 is done 28 # 3:14364 is done 29 # 4:11296 is done
加锁处理:
from multiprocessing import Lock 导入Lock类 l = Lock() #创建一个Lock类对象 l.acquire() #加锁 l.release() #释放锁
1 #由并发变成了串行,牺牲了运行效率,但避免了竞争 2 from multiprocessing import Process,Lock 3 import os,time 4 def work(n,lock): 5 #加锁,保证每次只有一个进程在执行锁里面的程序,这一段程序对于所有写上这个锁的进程,大家都变成了串行 6 lock.acquire() 7 print('%s: %s is running' %(n,os.getpid())) 8 time.sleep(1) 9 print('%s:%s is done' %(n,os.getpid())) 10 #解锁,解锁之后其他进程才能去执行自己的程序 11 lock.release() 12 if __name__ == '__main__': 13 lock=Lock() 14 for i in range(5): 15 p=Process(target=work,args=(i,lock)) 16 p.start() 17 18 #打印结果: 19 # 2: 10968 is running 20 # 2:10968 is done 21 # 0: 7932 is running 22 # 0:7932 is done 23 # 4: 4404 is running 24 # 4:4404 is done 25 # 1: 12852 is running 26 # 1:12852 is done 27 # 3: 980 is running 28 # 3:980 is done 29 30 #结果分析:(自己去多次运行一下,看看结果,我拿出其中一个结果来看)通过结果我们可以看出,多进程刚开始去执行的时候,每次运行,首先打印出来哪个进程的程序是不固定的,但是我们解决了上面打印混乱示例代码的第二个问题,那就是同一个进程中的两次打印都是先完成的,然后才切换到下一个进程去,打印下一个进程中的两个打印结果,说明我们控制住了同一进程中的代码执行顺序,如果涉及到多个进程去操作同一个数据或者文件的时候,就不担心数据算错或者文件中的内容写入混乱了。
上面这种情况虽然使用加锁的形式实现了顺序的执行,但是程序又重新变成串行了,这样确实会浪费了时间,却保证了数据的安全。
接下来,我们以模拟抢票为例,来看看数据安全的重要性。
五、编写一个伪抢票程序
并发运行,效率高。但是竞争同一个文件,导致数据混乱
加锁:购票行为由并发变成了串行,牺牲了效率,但是保证了数据安全
#注意:首先在当前文件目录下创建一个名为db的文件 #文件db的内容为:{"count":1},只有这一行数据,并且注意,每次运行完了之后,文件中的1变成了0,你需要手动将0改为1,然后在去运行代码。 #注意一定要用双引号,不然json无法识别 #加锁保证数据安全,不出现混乱 from multiprocessing import Process,Lock import time,json,random #查看剩余票数 def search(): dic=json.load(open('db')) #打开文件,直接load文件中的内容,拿到文件中的包含剩余票数的字典 print(' 33[43m剩余票数%s 33[0m' %dic['count']) #抢票 def get(): dic=json.load(open('db')) time.sleep(0.1) #模拟读数据的网络延迟,那么进程之间的切换,导致所有人拿到的字典都是{"count": 1},也就是每个人都拿到了这一票。 if dic['count'] >0: dic['count']-=1 time.sleep(0.2) #模拟写数据的网络延迟 json.dump(dic,open('db','w')) #最终结果导致,每个人显示都抢到了票,这就出现了问题~ print(' 33[43m购票成功 33[0m') else: print('sorry,没票了亲!') def task(lock): search() #因为抢票的时候是发生数据变化的时候,所有我们将锁加加到这里 lock.acquire() get() lock.release() if __name__ == '__main__': lock = Lock() #创建一个锁 for i in range(3): #模拟并发100个客户端抢票 p=Process(target=task,args=(lock,)) #将锁作为参数传给task函数 p.start()
进程锁总结
#加锁可以保证多个进程修改同一块数据时,同一时间只能有一个任务可以进行修改,即串行的修改,没错,速度是慢了,但牺牲了速度却保证了数据安全。 虽然可以用文件共享数据实现进程间通信,但问题是: 1.效率低(共享数据基于文件,而文件是硬盘上的数据) 2.需要自己加锁处理 #因此我们最好找寻一种解决方案能够兼顾:1、效率高(多个进程共享一块内存的数据)2、帮我们处理好锁问题。这就是mutiprocessing模块为我们提供的基于消息的IPC通信机制:队列和管道。 队列和管道都是将数据存放于内存中 队列又是基于(管道+锁)实现的,可以让我们从复杂的锁问题中解脱出来, 我们应该尽量避免使用共享数据,尽可能使用消息传递和队列,避免处理复杂的同步和锁问题,而且在进程数目增多时,往往可以获得更好的可获展性。 IPC通信机制(了解):IPC是intent-Process Communication的缩写,含义为进程间通信或者跨进程通信,是指两个进程之间进行数据交换的过程。IPC不是某个系统所独有的,任何一个操作系统都需要有相应的IPC机制, 比如Windows上可以通过剪贴板、管道和邮槽等来进行进程间通信,而Linux上可以通过命名共享内容、信号量等来进行进程间通信。Android它也有自己的进程间通信方式,Android建构在Linux基础上,继承了一 部分Linux的通信方式。
六、数据共享
在本篇最后有详细讲解
import time from multiprocessing import Process,Manager,Lock # a = 10 # # tmp = a # # tmp -= 1 # # a = tmp # a -= 1 # a = a - 1 def f1(m_d,l2): m_d['num'] -= 1 # with l2: l2.acquire() tmp = m_d['num'] tmp -= 1 time.sleep(0.1) m_d['num'] = tmp l2.release() if __name__ == '__main__': m = Manager() l2 = Lock() m_d = m.dict({'num':100}) p_list = [] for i in range(10): p = Process(target=f1,args=(m_d,l2)) p.start() p_list.append(p) [pp.join() for pp in p_list] print(m_d['num'])
七、for循环和join
for循环创建子进程,并且完成主进程等待所有子进程执行结束,才继续执行
import time from multiprocessing import Process def f1(): time.sleep(0.5) print('xxx') if __name__ == '__main__': p_list = [] #for循环创建子进程,并且完成主进程等待所有子进程执行结束,才继续执行 for i in range(10): p = Process(target=f1,) p.start() p_list.append(p) p.join() # for pp in p_list: # pp.join() print('主进程结束')
八、队列(推荐使用)
进程彼此之间互相隔离,要实现进程间通信(IPC),multiprocessing模块支持两种形式:队列和管道,这两种方式都是使用消息传递的。队列就像一个特殊的列表,但是可以设置固定长度,并且从前面插入数据,从后面取出数据,先进先出。
Queue([maxsize]) 创建共享的进程队列。 参数 :maxsize是队列中允许的最大项数。如果省略此参数,则无大小限制。 底层队列使用管道和锁实现。
先看下面的代码示例,然后再看方法介绍。
q = Queue([maxsize])
创建共享的进程队列。maxsize是队列中允许的最大项数。如果省略此参数,则无大小限制。底层队列使用管道和锁定实现。另外,还需要运行支持线程以便队列中的数据传输到底层管道中。
Queue的实例q具有以下方法:
q.get( [ block [ ,timeout ] ] )
返回q中的一个项目。如果q为空,此方法将阻塞,直到队列中有项目可用为止。block用于控制阻塞行为,默认为True. 如果设置为False,将引发Queue.Empty异常(定义在Queue模块中)。timeout是可选超时时间,用在阻塞模式中。如果在制定的时间间隔内没有项目变为可用,将引发Queue.Empty异常。
q.get_nowait( )
同q.get(False)方法。
q.put(item [, block [,timeout ] ] )
将item放入队列。如果队列已满,此方法将阻塞至有空间可用为止。block控制阻塞行为,默认为True。如果设置为False,将引发Queue.Empty异常(定义在Queue库模块中)。timeout指定在阻塞模式中等待可用空间的时间长短。超时后将引发Queue.Full异常。
q.qsize()
返回队列中目前项目的正确数量。此函数的结果并不可靠,因为在返回结果和在稍后程序中使用结果之间,队列中可能添加或删除了项目。在某些系统上,此方法可能引发NotImplementedError异常。
q.empty()
如果调用此方法时 q为空,返回True。如果其他进程或线程正在往队列中添加项目,结果是不可靠的。也就是说,在返回和使用结果之间,队列中可能已经加入新的项目。
q.full()
如果q已满,返回为True. 由于线程的存在,结果也可能是不可靠的(参考q.empty()方法)。。
queue的其他方法(了解)
q.close()
关闭队列,防止队列中加入更多数据。调用此方法时,后台线程将继续写入那些已入队列但尚未写入的数据,但将在此方法完成时马上关闭。如果q被垃圾收集,将自动调用此方法。关闭队列不会在队列使用者中生成任何类型的数据结束信号或异常。例如,如果某个使用者正被阻塞在get()操作上,关闭生产者中的队列不会导致get()方法返回错误。
q.cancel_join_thread()
不会再进程退出时自动连接后台线程。这可以防止join_thread()方法阻塞。
q.join_thread()
连接队列的后台线程。此方法用于在调用q.close()方法后,等待所有队列项被消耗。默认情况下,此方法由不是q的原始创建者的所有进程调用。调用q.cancel_join_thread()方法可以禁止这种行为。
我们看一些代码实例:
from multiprocessing import Queue q=Queue(3) #创建一个队列对象,队列长度为3 #put ,get ,put_nowait,get_nowait,full,empty q.put(3) #往队列中添加数据 q.put(2) q.put(1) # q.put(4) # 如果队列已经满了,程序就会停在这里,等待数据被别人取走,再将数据放入队列。 # 如果队列中的数据一直不被取走,程序就会永远停在这里。 try: q.put_nowait(4) # 可以使用put_nowait,如果队列满了不会阻塞,但是会因为队列满了而报错。 except: # 因此我们可以用一个try语句来处理这个错误。这样程序不会一直阻塞下去,但是会丢掉这个消息。 print('队列已经满了') # 因此,我们再放入数据之前,可以先看一下队列的状态,如果已经满了,就不继续put了。 print(q.full()) #查看是否满了,满了返回True,不满返回False print(q.get()) #取出数据 print(q.get()) print(q.get()) # print(q.get()) # 同put方法一样,如果队列已经空了,那么继续取就会出现阻塞。 try: q.get_nowait(3) # 可以使用get_nowait,如果队列满了不会阻塞,但是会因为没取到值而报错。 except: # 因此我们可以用一个try语句来处理这个错误。这样程序不会一直阻塞下去。 print('队列已经空了') print(q.empty()) #空了
#看下面的队列的时候,按照编号看注释 import time from multiprocessing import Process, Queue # 8. q = Queue(2) #创建一个Queue对象,如果写在这里,那么在windows还子进程去执行的时候,我们知道子进程中还会执行这个代码,但是子进程中不能够再次创建了,也就是这个q就是你主进程中创建的那个q,通过我们下面在主进程中先添加了一个字符串之后,在去开启子进程,你会发现,小鬼这个字符串还在队列中,也就是说,我们使用的还是主进程中创建的这个队列。 def f(q): # q = Queue() #9. 我们在主进程中开启了一个q,如果我们在子进程中的函数里面再开一个q,那么你下面q.put('姑娘,多少钱~')添加到了新创建的这q里里面了 q.put('姑娘,多少钱~') #4.调用主函数中p进程传递过来的进程参数 put函数为向队列中添加一条数据。 # print(q.qsize()) #6.查看队列中有多少条数据了 def f2(q): print('》》》》》》》》') print(q.get()) #5.取数据 if __name__ == '__main__': q = Queue() #1.创建一个Queue对象 q.put('小鬼') p = Process(target=f, args=(q,)) #2.创建一个进程 p2 = Process(target=f2, args=(q,)) #3.创建一个进程 p.start() p2.start() time.sleep(1) #7.如果阻塞一点时间,就会出现主进程运行太快,导致我们在子进程中查看qsize为1个。 # print(q.get()) #结果:小鬼 print(q.get()) #结果:姑娘,多少钱~ p.join()
九、用队列完成一个生产者消费者模型:
队列是进程安全的:同一时间只能一个进程拿到队列中的一个数据,你拿到了一个数据,这个数据别人就拿不到了。
下面我们来看一个叫做生产者消费者模型的东西:
在并发编程中使用生产者和消费者模式能够解决绝大多数并发问题。该模式通过平衡生产线程和消费线程的工作能力来提高程序的整体处理数据的速度。
为什么要使用生产者和消费者模式
在线程世界里,生产者就是生产数据的线程,消费者就是消费数据的线程。在多线程开发当中,如果生产者处理速度很快,而消费者处理速度很慢,那么生产者就必须等待消费者处理完,才能继续生产数据。同样的道理,如果消费者的处理能力大于生产者,那么消费者就必须等待生产者。为了解决这个问题于是引入了生产者和消费者模式。
什么是生产者消费者模式
生产者消费者模式是通过一个容器来解决生产者和消费者的强耦合问题。生产者和消费者彼此之间不直接通讯,而通过阻塞队列来进行通讯,所以生产者生产完数据之后不用等待消费者处理,直接扔给阻塞队列,消费者不找生产者要数据,而是直接从阻塞队列里取,阻塞队列就相当于一个缓冲区,平衡了生产者和消费者的处理能力,并且我可以根据生产速度和消费速度来均衡一下多少个生产者可以为多少个消费者提供足够的服务,就可以开多进程等等,而这些进程都是到阻塞队列或者说是缓冲区中去获取或者添加数据。
如下图:
那么我们基于队列来实现一个生产者消费者模型,代码实例:
from multiprocessing import Process,Queue import time,random,os def consumer(q): while True: res=q.get() time.sleep(random.randint(1,3)) print('