一、进程对象及其他方法
一台计算机上面运行着很多进程,那么计算机是如何区分并管理这些进程服务端的呢?
计算机会给每一个运行的进程分配一个PID号
如何查看:
windows电脑cmd输入tasklist即可查看
tasklist |findstr PID 查看具体的进程
mac电脑
进入终端之后输入ps aux
ps auxlgrep PID查看具体的进程
from multiprocessing import Process,current_process current_process().pid #查看当前进程的进程号 import os os.getpid() #查看当前进程进程号 os.getppid() #查看当前进程的父进程号 p.terminate()杀死当前进程 print(p.is_alive()) #判断当前进程是否存活
from multiprocessing import Process,current_process import time import os def task(): print('%s is running'%current_process().pid) # print('%s is running'%os.getpid())#查看当前进程的进程号 # print('子进程的主进程号%s'%os.getppid()) # 查看当前进程的进程号 time.sleep(30) if __name__ == '__main__': p = Process(target=task) p.start() p.terminate() #杀死当前进程 time.sleep(0.1) print(p.is_alive()) #print('主') print('主',current_process().pid) # print('主',os.getpid()) # print('主主',os.getppid()) #获取父进程的pid号二
二、僵尸进程与孤儿进程
僵尸进程:就是死了的进程但还没有死透
当开设了子进程之后,该进程死后不会立刻释放占用的进程号,因为我要让父进程能够查看到它开设的子进程的一些基本信息,占用的pid号运行时间
所有的进程都会步入僵尸进程
父进程不死并且在无限制的创建子进程并且子进程也不结束
回收子进程占用的pid号
父进程等待子进程运行结束
父进程调用join方法
孤儿进程:子进程存活,父进程意外死亡,操作系统会开设一个专门管理孤儿进程回收相关资源
三、守护进程
主进程创建守护进程
守护进程会在主进程代码执行结束后就终止
守护进程内无法再开启子进程,否则抛出异常
进程之间是相互独立的,主进程代码运行结束,守护进程随即终止
from multiprocessing import Process import time def task(name): print('%s正在活着‘%name) time.sleep(3) print('%s正在死亡’%name) if __name__=='__main__: p = Process(target=task,arge=('egon',)) p.daemon = True #守护进程要放在start之前 p.start() print('lili薨‘)
四、互斥锁
多个进程操作同一份数据的时候,会出现数据错乱的问题
针对上述问题,解决方式就是加锁处理:将并发变成串行,牺牲效率但是保证了数据的安全
虽然可以用文件共享数据实现进程间通信,但问题是:
1、效率低
2、需要自己加锁处理
注意:
1、锁不要轻易的使用,容易造成死锁现象(我们写代码一般不会用到,都是内部封装好的)
2、锁只在处理数据的部分加来保证数据安全(只在争抢数据环节加锁处理即可)
from multiprocessing import Process, Lock import json import time import random # 查票 def search(i): # 文件操作读取票数 with open('data','r',encoding='utf8') as f: dic = json.load(f) print('用户%s查询余票:%s'%(i, dic.get('ticket_num'))) # 字典取值不要用[]的形式 推荐使用get 你写的代码打死都不能报错!!! # 买票 1.先查 2.再买 def buy(i): # 先查票 with open('data','r',encoding='utf8') as f: dic = json.load(f) # 模拟网络延迟 time.sleep(random.randint(1,3)) # 判断当前是否有票 if dic.get('ticket_num') > 0: # 修改数据库 买票 dic['ticket_num'] -= 1 # 写入数据库 with open('data','w',encoding='utf8') as f: json.dump(dic,f) print('用户%s买票成功'%i) else: print('用户%s买票失败'%i) # 整合上面两个函数 def run(i, mutex): search(i) # 给买票环节加锁处理 # 抢锁 mutex.acquire() buy(i) # 释放锁 mutex.release() if __name__ == '__main__': # 在主进程中生成一把锁 让所有的子进程抢 谁先抢到谁先买票 mutex = Lock() for i in range(1,11): p = Process(target=run, args=(i, mutex)) p.start()
五、进程间通信
队列Queue模块
队列和管道都是将数据存放于内存中 队列又是基于(管道+锁)实现的,可以让我们从复杂的锁问题中解脱出来, 我们应该尽量避免使用共享数据,尽可能使用消息传递和队列,避免处理复杂的同步和锁问题,而且在进程数目增多时,往往可以获得更好的可获展性。
管道:subprocess
stdin stdout stderr
队列:管道+锁
队列:先进先出
堆栈:先进后出
from multiprocessing import Queue q = Queue(5) #知号内可以传数字,标示生成的队列最大可以同时存放的数据量 #往队列中存数据 q.put(111) q.put(222) q.put(333) print(q.full()) #判断当前队列是否满了 print(q.empty()) #判断当前队列是否空了 q.put(444) q.put(555) print(q.full()) #判断当前队列是否满了 q.put(666) #当队列数据放满了之后,如果还有数据要放程序会阻塞,直到有位置让出来不会报错 #去队列中取数据 v1 = q.get() v2 = q.get() v3 = q.get() v4 = q.get() v5 = q.get() print(q.empty()) # v6 = q.get_nowait() #没有数据直接报错queue.Empty # v6 = q.get(timeout=3) #没有数据之后原地等待三秒之后再报错 q.full() q.empty() q.get_nowait() 在多进程的情况下是不精确的
q.get([block [,timeout]]) 返回q中的一个面目,如果q为空,此方法将阻塞,直到队列中有项目可用为止。
默认为True. 如果设置为False,将引发Queue.Empty异
q.get_nowait( ) 同q.get(False)方法
q.put(item [, block [,timeout ] ] ) 将item放入队列。如果队列已满,此方法将阻塞至有空间可用为止。默认为True。如果设置为False,将引发Queue.Empty异常
q.empty() 如果调用此方法时 q为空,返回True。
q.full() 如果q已满,返回为True. 由于线程的存在,结果也可能是不可靠的
六、IPC机制
from multiprocessing import Queue, Process """ 研究思路 1.主进程跟子进程借助于队列通信 2.子进程跟子进程借助于队列通信 """ def producer(q): q.put('我是23号技师 很高兴为您服务') def consumer(q): print(q.get()) if __name__ == '__main__': q = Queue() p = Process(target=producer,args=(q,)) p1 = Process(target=consumer,args=(q,)) p.start() p1.start()
七、生产者消费者模型
在并发编程中使用生产者和消费者模式能够解决绝大多数并发问题。该模式通过平衡生产线程和消费线程的工作能力来提高程序的整体处理数据的速度。
为什么要使用生产者和消费者模式
在线程世界里,生产者就是生产数据的线程,消费者就是消费数据的线程。在多线程开发当中,如果生产者处理速度很快,而消费者处理速度很慢,那么生产者就必须等待消费者处理完,才能继续生产数据。同样的道理,如果消费者的处理能力大于生产者,那么消费者就必须等待生产者。为了解决这个问题于是引入了生产者和消费者模式。
什么是生产者消费者模式
生产者消费者模式是通过一个容器来解决生产者和消费者的强耦合问题。生产者和消费者彼此之间不直接通讯,而通过阻塞队列来进行通讯,所以生产者生产完数据之后不用等待消费者处理,直接扔给阻塞队列,消费者不找生产者要数
from multiprocessing import Process, Queue, JoinableQueue import time import random def producer(name,food,q): for i in range(5): data = '%s生产了%s%s'%(name,food,i) # 模拟延迟 time.sleep(random.randint(1,3)) print(data) # 将数据放入 队列中 q.put(data) def consumer(name,q): # 消费者胃口很大 光盘行动 while True: food = q.get() # 没有数据就会卡住 # 判断当前是否有结束的标识 # if food is None:break time.sleep(random.randint(1,3)) print('%s吃了%s'%(name,food)) q.task_done() # 告诉队列你已经从里面取出了一个数据并且处理完毕了 if __name__ == '__main__': # q = Queue() q = JoinableQueue() p1 = Process(target=producer,args=('大厨egon','包子',q)) p2 = Process(target=producer,args=('马叉虫tank','泔水',q)) c1 = Process(target=consumer,args=('春哥',q)) c2 = Process(target=consumer,args=('新哥',q)) p1.start() p2.start() # 将消费者设置成守护进程 c1.daemon = True c2.daemon = True c1.start() c2.start() p1.join() p2.join() # 等待生产者生产完毕之后 往队列中添加特定的结束符号 # q.put(None) # 肯定在所有生产者生产的数据的末尾 # q.put(None) # 肯定在所有生产者生产的数据的末尾 q.join() # 等待队列中所有的数据被取完再执行往下执行代码 """ JoinableQueue 每当你往该队列中存入数据的时候 内部会有一个计数器+1 没当你调用task_done的时候 计数器-1 q.join() 当计数器为0的时候 才往后运行 """ # 只要q.join执行完毕 说明消费者已经处理完数据了 消费者就没有存在的必要了
据,而是直接从阻塞队列里取,阻塞队列就相当于一个缓冲区,平衡了生产者和消费者的处理能力。
八、线程理论
什么是线程?
进程:资源单位
线程:执行单位
将操作系统比喻成一个大的工厂
那么进程就相当于工厂里的车间
而线程就是车间里面的流水线
每一个进程肯定自带一个线程
为何要有线程
开设进程:申请内存空间
拷贝代码
开线程
一个进程内可以开设多个线程,在用一个进程内开设多个线程无需再次申请内存空间操作