• 并发编程二


    进程对象及其他方法

    """
    一台计算机上面运行着很多进程,那么计算机是如何区分并管理这些进程服务端的呢?
    计算机会给每一个运行的进程分配一个PID号 
    如何查看
    	windows电脑 
    		进入cmd输入tasklist即可查看
    		tasklist |findstr PID查看具体的进程
    	mac电脑 
    		进入终端之后输入ps aux
    		ps aux|grep PID查看具体的进程 
    """
    from multiprocessing import Process, current_process
    current_process().pid  # 查看当前进程的进程号
    
    import os
    os.getpid()  # 查看当前进程进程号
    os.getppid()  # 查看当前进程的父进程进程号
    
    
    p.terminate()  # 杀死当前进程
    # 是告诉操作系统帮你去杀死当前进程 但是需要一定的时间 而代码的运行速度极快
    time.sleep(0.1)
    print(p.is_alive())  # 判断当前进程是否存活
    
    
    列子
    from multiprocessing import Process, current_process
    import time
    import os
    
    
    def task():
        # print('%s is running'%current_process().pid)  # 查看当前进程的进程号
        print('%s is running'%os.getpid())  # 查看当前进程的进程号
        print('子进程的主进程号%s'%os.getppid())  # 查看当前进程的进程号
        time.sleep(30)
    
    
    if __name__ == '__main__':
        p = Process(target=task)
        p.start()
        # p.terminate()  # 杀死当前进程
        # 是告诉操作系统帮你去杀死当前进程 但是需要一定的时间 而代码的运行速度极快
        time.sleep(0.1)
        print(p.is_alive())  # 判断当前进程是否存活
        """
        一般情况下我们会默认将
        存储布尔值的变量名
        和返回的结果是布尔值的方法名
        都起成以is_开头
        """
        print('主')
        print('主',current_process().pid)
        print('主',os.getpid())
        print('主主',os.getppid())  # 获取父进程的pid号
    
    

    僵尸进程与孤儿进程(了解)

    # 僵尸进程
    """
    死了但是没有死透
    当你开设了子进程之后 该进程死后不会立刻释放占用的进程号
    因为我要让父进程能够查看到它开设的子进程的一些基本信息 占用的pid号 运行时间。。。
    所有的进程都会步入僵尸进程
    	父进程不死并且在无限制的创建子进程并且子进程也不结束
    	回收子进程占用的pid号
    		父进程等待子进程运行结束
    		父进程调用join方法
    """
    
    # 孤儿进程
    """
    子进程存活,父进程意外死亡
    操作系统会开设一个“儿童福利院”专门管理孤儿进程回收相关资源
    """
    

    守护进程

    from multiprocessing import Process
    import time
    
    
    def task(name):
        print('%s总管正在活着'% name)
        time.sleep(3)
        print('%s总管正在死亡' % name)
    
    
    if __name__ == '__main__':
        p = Process(target=task,args=('egon',))
        # p = Process(target=task,kwargs={'name':'egon'})
        p.daemon = True  # 将进程p设置成守护进程  这一句一定要放在start方法上面才有效否则会直接报错
        p.start()
        print('皇帝jason寿终正寝')
    

    互斥锁

    多个进程操作同一份数据的时候,会出现数据错乱的问题

    针对上述问题,解决方式就是加锁处理:将并发变成串行,牺牲效率但是保证了数据的安全

    from multiprocessing import Process, Lock
    import json
    import time
    import random
    
    
    # 查票
    def search(i):
        # 文件操作读取票数
        with open('data','r',encoding='utf8') as f:
            dic = json.load(f)
        print('用户%s查询余票:%s'%(i, dic.get('ticket_num')))
        # 字典取值不要用[]的形式 推荐使用get  你写的代码打死都不能报错!!!
    
    
    # 买票  1.先查 2.再买
    def buy(i):
        # 先查票
        with open('data','r',encoding='utf8') as f:
            dic = json.load(f)
        # 模拟网络延迟
        time.sleep(random.randint(1,3))
        # 判断当前是否有票
        if dic.get('ticket_num') > 0:
            # 修改数据库 买票
            dic['ticket_num'] -= 1
            # 写入数据库
            with open('data','w',encoding='utf8') as f:
                json.dump(dic,f)
            print('用户%s买票成功'%i)
        else:
            print('用户%s买票失败'%i)
    
    
    # 整合上面两个函数
    def run(i, mutex):
        search(i)
        # 给买票环节加锁处理
        # 抢锁
        mutex.acquire()
    
        buy(i)
        # 释放锁
        mutex.release()
    
    
    if __name__ == '__main__':
        # 在主进程中生成一把锁 让所有的子进程抢 谁先抢到谁先买票
        mutex = Lock()
        for i in range(1,11):
            p = Process(target=run, args=(i, mutex))
            p.start()
    """
    扩展 行锁 表锁(excel)
    
    注意:
    	1.锁不要轻易的使用,容易造成死锁现象(我们写代码一般不会用到,都是内部封装好的)
    	2.锁只在处理数据的部分加来保证数据安全(只在争抢数据的环节加锁处理即可) 
    """
    

    进程间通信

    队列Queue模块

    """
    管道:subprocess 
    	stdin stdout stderr
    队列:管道+锁
    
    队列:先进先出
    堆栈:先进后出
    """
    from multiprocessing import Queue
    
    # 创建一个队列
    q = Queue(5)  # 括号内可以传数字 标示生成的队列最大可以同时存放的数据量
    
    # 往队列中存数据
    q.put(111)
    q.put(222)
    q.put(333)
    # print(q.full())  # 判断当前队列是否满了
    # print(q.empty())  # 判断当前队列是否空了
    q.put(444)
    q.put(555)
    # print(q.full())  # 判断当前队列是否满了
    
    # q.put(666)  # 当队列数据放满了之后 如果还有数据要放程序会阻塞 直到有位置让出来 不会报错
    
    """
    存取数据 存是为了更好的取
    千方百计的存、简单快捷的取
    
    同在一个屋檐下
    差距为何那么大
    """
    
    # 去队列中取数据
    v1 = q.get()
    v2 = q.get()
    v3 = q.get()
    v4 = q.get()
    v5 = q.get()
    # print(q.empty())
    # V6 = q.get_nowait()  # 没有数据直接报错queue.Empty
    # v6 = q.get(timeout=3)  # 没有数据之后原地等待三秒之后再报错  queue.Empty
    try:
        v6 = q.get(timeout=3)
        print(v6)
    except Exception as e:
        print('一滴都没有了!')
    
    # # v6 = q.get()  # 队列中如果已经没有数据的话 get方法会原地阻塞
    # print(v1, v2, v3, v4, v5, v6)
    
    """
    q.full()
    q.empty()
    q.get_nowait()
    在多进程的情况下是不精确
    """
    

    IPC机制

    from multiprocessing import Queue, Process
    
    """
    研究思路
        1.主进程跟子进程借助于队列通信
        2.子进程跟子进程借助于队列通信
    """
    def producer(q):
        q.put('我是23号技师 很高兴为您服务')
    
    
    def consumer(q):
        print(q.get())
    
    
    if __name__ == '__main__':
        q = Queue()
        p = Process(target=producer,args=(q,))
        p1 = Process(target=consumer,args=(q,))
        p.start()
        p1.start()
    

    生产者消费者模型

    """
    生产者:生产/制造东西的
    消费者:消费/处理东西的
    该模型除了上述两个之外还需要一个媒介
    	生活中的例子做包子的将包子做好后放在蒸笼(媒介)里面,买包子的取蒸笼里面拿
    	厨师做菜做完之后用盘子装着给你消费者端过去
    	生产者和消费者之间不是直接做交互的,而是借助于媒介做交互
    	
    生产者(做包子的) + 消息队列(蒸笼) + 消费者(吃包子的)
    """
    from multiprocessing import Process, Queue, JoinableQueue
    import time
    import random
    
    
    def producer(name,food,q):
        for i in range(5):
            data = '%s生产了%s%s'%(name,food,i)
            # 模拟延迟
            time.sleep(random.randint(1,3))
            print(data)
            # 将数据放入 队列中
            q.put(data)
    
    
    def consumer(name,q):
        # 消费者胃口很大 光盘行动
        while True:
            food = q.get()  # 没有数据就会卡住
            # 判断当前是否有结束的标识
            # if food is None:break
            time.sleep(random.randint(1,3))
            print('%s吃了%s'%(name,food))
            q.task_done()  # 告诉队列你已经从里面取出了一个数据并且处理完毕了
    
    
    if __name__ == '__main__':
        # q = Queue()
        q = JoinableQueue()
        p1 = Process(target=producer,args=('大厨egon','包子',q))
        p2 = Process(target=producer,args=('马叉虫tank','泔水',q))
        c1 = Process(target=consumer,args=('春哥',q))
        c2 = Process(target=consumer,args=('新哥',q))
        p1.start()
        p2.start()
        # 将消费者设置成守护进程
        c1.daemon = True
        c2.daemon = True
        c1.start()
        c2.start()
        p1.join()
        p2.join()
        # 等待生产者生产完毕之后 往队列中添加特定的结束符号
        # q.put(None)  # 肯定在所有生产者生产的数据的末尾
        # q.put(None)  # 肯定在所有生产者生产的数据的末尾
        q.join()  # 等待队列中所有的数据被取完再执行往下执行代码
        """
        JoinableQueue 每当你往该队列中存入数据的时候 内部会有一个计数器+1
        没当你调用task_done的时候 计数器-1
        q.join() 当计数器为0的时候 才往后运行
        """
        # 只要q.join执行完毕 说明消费者已经处理完数据了  消费者就没有存在的必要了
    

    线程理论

    致命三问

    • 什么是线程

      """
      进程:资源单位
      线程:执行单位
      
      将操作系统比喻成一个大的工厂
      那么进程就相当于工厂里面的车间
      而线程就是车间里面的流水线
      
      每一个进程肯定自带一个线程
      
      再次总结:
      	进程:资源单位(起一个进程仅仅只是在内存空间中开辟一块独立的空间)
      	线程:执行单位(真正被cpu执行的其实是进程里面的线程,线程指的就是代码的执行过程,执行代码中所需要使用到的资源都找所在的进程索要)
      	
      进程和线程都是虚拟单位,只是为了我们更加方便的描述问题
      """
      
    • 为何要有线程

      """
      开设进程
      	1.申请内存空间	耗资源
      	2.“拷贝代码”   耗资源
      开线程
      	一个进程内可以开设多个线程,在用一个进程内开设多个线程无需再次申请内存空间操作
      
      总结:
      	开设线程的开销要远远的小于进程的开销
      	同一个进程下的多个线程数据是共享的!!!
      """
      我们要开发一款文本编辑器
      	获取用户输入的功能
        实时展示到屏幕的功能
        自动保存到硬盘的功能
      针对上面这三个功能,开设进程还是线程合适???
      	开三个线程处理上面的三个功能更加的合理
      
    • 如何使用

    开启线程的两种方式

    # from multiprocessing import Process
    # from threading import Thread
    # import time
    #
    #
    # def task(name):
    #     print('%s is running'%name)
    #     time.sleep(1)
    #     print('%s is over'%name)
    #
    #
    # # 开启线程不需要在main下面执行代码 直接书写就可以
    # # 但是我们还是习惯性的将启动命令写在main下面
    # t = Thread(target=task,args=('egon',))
    # # p = Process(target=task,args=('jason',))
    # # p.start()
    # t.start()  # 创建线程的开销非常小 几乎是代码一执行线程就已经创建了
    # print('主')
    
    
    
    from threading import Thread
    import time
    
    
    class MyThead(Thread):
        def __init__(self, name):
            """针对刷个下划线开头双下滑线结尾(__init__)的方法 统一读成 双下init"""
            # 重写了别人的方法 又不知道别人的方法里有啥 你就调用父类的方法
            super().__init__()
            self.name = name
    
        def run(self):
            print('%s is running'%self.name)
            time.sleep(1)
            print('egon DSB')
    
    
    if __name__ == '__main__':
        t = MyThead('egon')
        t.start()
        print('主')
    

    TCP服务端实现并发的效果

    import socket
    from threading import Thread
    from multiprocessing import Process
    """
    服务端
        1.要有固定的IP和PORT
        2.24小时不间断提供服务
        3.能够支持并发
        
    从现在开始要养成一个看源码的习惯
    我们前期要立志称为拷贝忍者 卡卡西 不需要有任何的创新
    等你拷贝到一定程度了 就可以开发自己的思想了
    """
    server =socket.socket()  # 括号内不加参数默认就是TCP协议
    server.bind(('127.0.0.1',8080))
    server.listen(5)
    
    
    # 将服务的代码单独封装成一个函数
    def talk(conn):
        # 通信循环
        while True:
            try:
                data = conn.recv(1024)
                # 针对mac linux 客户端断开链接后
                if len(data) == 0: break
                print(data.decode('utf-8'))
                conn.send(data.upper())
            except ConnectionResetError as e:
                print(e)
                break
        conn.close()
    
    # 链接循环
    while True:
        conn, addr = server.accept()  # 接客
        # 叫其他人来服务客户
        # t = Thread(target=talk,args=(conn,))
        t = Process(target=talk,args=(conn,))
        t.start()
    
    
    """客户端"""
    import socket
    
    
    client = socket.socket()
    client.connect(('127.0.0.1',8080))
    
    while True:
        client.send(b'hello world')
        data = client.recv(1024)
        print(data.decode('utf-8'))
    

    线程对象的join方法

    from threading import Thread
    import time
    
    
    def task(name):
        print('%s is running'%name)
        time.sleep(3)
        print('%s is over'%name)
    
    
    if __name__ == '__main__':
        t = Thread(target=task,args=('egon',))
        t.start()
        t.join()  # 主线程等待子线程运行结束再执行
        print('主')
    

    同一个进程下的多个线程数据是共享的

    from threading import Thread
    import time
    
    
    money = 100
    
    
    def task():
        global money
        money = 666
        print(money)
    
    
    if __name__ == '__main__':
        t = Thread(target=task)
        t.start()
        t.join()
        print(money)
    

    线程对象属性及其他方法

    from threading import Thread, active_count, current_thread
    import os,time
    
    
    def task(n):
        # print('hello world',os.getpid())
        print('hello world',current_thread().name)
        time.sleep(n)
    
    
    if __name__ == '__main__':
        t = Thread(target=task,args=(1,))
        t1 = Thread(target=task,args=(2,))
        t.start()
        t1.start()
        t.join()
        print('主',active_count())  # 统计当前正在活跃的线程数
        # print('主',os.getpid())
        # print('主',current_thread().name)  # 获取线程名字
    

    守护线程

    # from threading import Thread
    # import time
    #
    #
    # def task(name):
    #     print('%s is running'%name)
    #     time.sleep(1)
    #     print('%s is over'%name)
    #
    #
    # if __name__ == '__main__':
    #     t = Thread(target=task,args=('egon',))
    #     t.daemon = True
    #     t.start()
    #     print('主')
    
    """
    主线程运行结束之后不会立刻结束 会等待所有其他非守护线程结束才会结束
        因为主线程的结束意味着所在的进程的结束
    """
    
    
    # 稍微有一点迷惑性的例子
    from threading import Thread
    import time
    
    
    def foo():
        print(123)
        time.sleep(1)
        print('end123')
    
    
    def func():
        print(456)
        time.sleep(3)
        print('end456')
    
    
    if __name__ == '__main__':
        t1 = Thread(target=foo)
        t2 = Thread(target=func)
        t1.daemon = True
        t1.start()
        t2.start()
        print('主.......')
    

    线程互斥锁

    from threading import Thread,Lock
    import time
    
    
    money = 100
    mutex = Lock()
    
    
    def task():
        global money
        mutex.acquire()
        tmp = money
        time.sleep(0.1)
        money = tmp - 1
        mutex.release()
    
    
    if __name__ == '__main__':
    
        t_list = []
        for i in range(100):
            t = Thread(target=task)
            t.start()
            t_list.append(t)
        for t in t_list:
            t.join()
        print(money)
    

    GIL全局解释器锁

    Ps:博客园密码:xiaoyuanqujing@666

    """
    In CPython, the global interpreter lock, or GIL, is a mutex that prevents multiple 
    native threads from executing Python bytecodes at once. This lock is necessary mainly 
    because CPython’s memory management is not thread-safe. (However, since the GIL 
    exists, other features have grown to depend on the guarantees that it enforces.)
    """
    """
    python解释器其实有多个版本
    	Cpython
    	Jpython
    	Pypypython
    但是普遍使用的都是CPython解释器
    
    在CPython解释器中GIL是一把互斥锁,用来阻止同一个进程下的多个线程的同时执行
    	同一个进程下的多个线程无法利用多核优势!!!
    	疑问:python的多线程是不是一点用都没有???无法利用多核优势
    	
    因为cpython中的内存管理不是线程安全的
    内存管理(垃圾回收机制)
    	1.引用计数
    	2.标记清除
    	3.分代回收
    	
    """
    
    """
    重点:
    	1.GIL不是python的特点而是CPython解释器的特点
    	2.GIL是保证解释器级别的数据的安全
    	3.GIL会导致同一个进程下的多个线程的无法同时执行即无法利用多核优势(******)
    	4.针对不同的数据还是需要加不同的锁处理 
    	5.解释型语言的通病:同一个进程下多个线程无法利用多核优势
    """
    

    GIL与普通互斥锁的区别

    from threading import Thread,Lock
    import time
    
    
    mutex = Lock()
    money = 100
    
    
    def task():
        global money
        # with mutex:
        #     tmp = money
        #     time.sleep(0.1)
        #     money = tmp -1
        mutex.acquire()
        tmp = money
        time.sleep(0.1)  # 只要你进入IO了 GIL会自动释放
        money = tmp - 1
        mutex.release()
    
    
    if __name__ == '__main__':
        t_list = []
        for i in range(100):
            t = Thread(target=task)
            t.start()
            t_list.append(t)
        for t in t_list:
            t.join()
        print(money)
    
    
    
    """
    100个线程起起来之后  要先去抢GIL
    我进入io GIL自动释放 但是我手上还有一个自己的互斥锁
    其他线程虽然抢到了GIL但是抢不到互斥锁 
    最终GIL还是回到你的手上 你去操作数据
    """
    

    同一个进程下的多线程无法利用多核优势,是不是就没有用了

    """
    多线程是否有用要看具体情况
    单核:四个任务(IO密集型计算密集型)
    多核:四个任务(IO密集型计算密集型)
    """
    # 计算密集型   每个任务都需要10s
    单核(不用考虑了)
    	多进程:额外的消耗资源
      多线程:介绍开销
    多核
    	多进程:总耗时 10+
      多线程:总耗时 40+
    # IO密集型  
    多核
    	多进程:相对浪费资源
      多线程:更加节省资源
    

    代码验证

    # 计算密集型
    # from multiprocessing import Process
    # from threading import Thread
    # import os,time
    #
    #
    # def work():
    #     res = 0
    #     for i in range(10000000):
    #         res *= i
    #
    # if __name__ == '__main__':
    #     l = []
    #     print(os.cpu_count())  # 获取当前计算机CPU个数
    #     start_time = time.time()
    #     for i in range(12):
    #         p = Process(target=work)  # 1.4679949283599854
    #         t = Thread(target=work)  # 5.698534250259399
    #         t.start()
    #         # p.start()
    #         # l.append(p)
    #         l.append(t)
    #     for p in l:
    #         p.join()
    #     print(time.time()-start_time)
    
    
    
    # IO密集型
    from multiprocessing import Process
    from threading import Thread
    import os,time
    
    
    def work():
        time.sleep(2)
    
    if __name__ == '__main__':
        l = []
        print(os.cpu_count())  # 获取当前计算机CPU个数
        start_time = time.time()
        for i in range(4000):
            # p = Process(target=work)  # 21.149890184402466
            t = Thread(target=work)  # 3.007986068725586
            t.start()
            # p.start()
            # l.append(p)
            l.append(t)
        for p in l:
            p.join()
        print(time.time()-start_time)
    

    总结

    """
    多进程和多线程都有各自的优势
    并且我们后面在写项目的时候通常可以
    	多进程下面再开设多线程
    这样的话既可以利用多核也可以介绍资源消耗
    """
    

  • 相关阅读:
    MongoDB 基础命令 (MongoDB Shell)
    MongoDB 在 Mac OSX 平台安装
    数组根据index拆分和查询下标
    简单介绍递归算法以及应用场景
    android studio ndk开发环境搭建
    基于vue开发的多功能的时间选择器组件,开箱即用
    简单了解JS中的几种遍历
    零基础学习webpack打包管理
    让你高效的理解JavaScript中的同步、异步和事件循环
    学习flex布局(弹性布局)
  • 原文地址:https://www.cnblogs.com/chenyoupan/p/12763004.html
Copyright © 2020-2023  润新知