• python_多进程概念及简单用法、队列、守护进程、进程池


    一。了解 单任务与多任务、串行与并行、并发、进程的概念:

    1)单任务与多任务: 

    单任务:单任务的应用程序(cmd.exe),没办法同时执行多条命令
    多任务:多任务的应用 windowns操作系统,Pycharm,迅雷(同时下载多个文件,边下边播)
    多任务的实现方式:多进程、多线程、协程

      

    2)串行与并行

    串行运行:比如在linux中串行执行多条命令用&,举栗:apt install python & apt install mysql :先下载python然后下载mysql
    并行运行:比如在linux中串行执行多条命令用&&,举栗:apt install python && apt install mysql :同时下载python和mysql
    并行:3台电脑分别安装一个mysql8.0,然后组成mysql集群,3个mysql是同时运行(并行)
    举栗:5个收银员 同时 操作 5 台收款机 --并行

    3)并发

    并发:比如 迅雷同时下载5个电影(单核cpu的话,5个任务反复切换下载)
    举栗:1个收银员,"同时"操作5台 收款机 --并发

    4)进程

    进程:静态的:(软件、程序、代码、函数...) 动态:(软件运行、程序运行、代码运行、函数运行),进程是动态的
    程序是怎么运行的? -->操作系统 创建一个进程(加载代码到内存,为变量分配内存,建个档案:process id PID)

    二。进程介绍,举栗

    实现需求:

    使用多进程实现并发下载图片
    -多进程会独享资源,2个进程不能共享变量(例如:不能共享list),如何实现共享资源那?(队列Queue,内存数据库redis...)
    -多线程占用的资源最少,2个线程是共享变量的,迅雷就是使用多线程下载技术的。

    运行代码:

      

    #引入进程模块
    from multiprocessing import Process, Queue
    import requests
    import os
    #看不懂没关系后面会详细介绍
    def download(q: Queue):
    while True:
    url = q.get()
    r = requests.get(url)
    img_name = url.split('/')[-1]
    img_name = os.path.join('./', img_name)
    with open(img_name, 'wb') as f: #把服务器返回的信息(图片)保存到文件中
    f.write(r.content)
    if q.empty():
    break


    if __name__ == '__main__':
    tasks = Queue()

    #put相当于list中的append方法
    tasks.put("https://dss0.bdstatic.com/-0U0bnSm1A5BphGlnYG/tam-ogel/067d0e8627b667778ea8729e6e480a47_254_96.png")
    tasks.put("https://dss0.bdstatic.com/-0U0bnSm1A5BphGlnYG/tam-ogel/3f52ff39e52f182d1bfd9ce061e9c6a6_254_144.jpg")

    # 创建两个来执行download函数的进程p1,p2
    p1 = Process(target=download, args=(tasks, ))
    p2 = Process(target=download, args=(tasks, ))

    #启动进程p1,p2
    p1.start()
    p2.start()
    p1.join() #加上阻塞
    p2.join() #加上阻塞,等p1,p2运行结束后关闭主进程,不然主进程会直接运行结束,那么子进程尚未运行结束就会找不到目录,因为主进程内存已经销毁了
    #进程启动后,是由操作系统控制执行
    print("主进程运行结束")

    三。进程中的队列:Queue

    1)使用list迭代对象存放需要处理的数据,list会存储在储存区,开多进程的话都会被执行,举栗:

    from multiprocessing import Process, Queue
    import time

    # 1.进程,list,未使用Queue
    def work1(q):
    """

    :param q: 要处理的所有任务
    :return:
    """
    print("这个是work2中的参数q的id: ", id(q))
    while q:
    print(f"work1 从q中获得了 {q.pop()}")


    def work2(q):
    """

    :param q: 要处理的所有任务
    :return:
    """
    print("这个是work2中的参数q的id: ", id(q))
    while q:
    print(f"work2 从q中获得了 {q.pop()}")


    if __name__ == '__main__':
    # 进程1,使用list,work1与work2会做重复工作,因为会把list分别存在储存区,子进程p1与p2独享list
    q = ['a', 'b', 'c']
    p1 = Process(target=work1, args=(q,)) #子进程q1,单独把q存储在内存区不与p2子进程共享q(两个q的id不同)
    p2 = Process(target=work2, args=(q,)) #子进程q2,单独把q存储在内存区不与p1子进程共享q(两个q的id不同)
    p1.start()
    p2.start()
    print(f'主进程运行完毕!')

    运行结果,开启了两个进程p1与p2,他们分别把执行任务q都执行了一遍:

    2)使用队列:Queue,他通过put方法添加执行任务到队列,分别执行队列中的执行任务

    from multiprocessing import Process, Queue


    # 1.进程,使用Queue共享变量
    def work3(q: Queue):
    """

    :param q: 要处理的所有任务
    :return:
    """
    time.sleep(0.5)
    print("这个是work3中的参数q的id: ", id(q))
    while not q.empty():
    print(f"work3 从q中获得了 {q.get()}")


    def work4(q: Queue):
    """

    :param q: 要处理的所有任务
    :return:
    """
    time.sleep(0.5)
    print("这个是work4中的参数q的id: ", id(q))
    while not q.empty():
    print(f"work4 从q中获得了 {q.get()}")


    if __name__ == '__main__':

    # 进程2,使用Queue(队列):work3与work4共同完成q中的所有任务 Queue 是被p1、p2共享的
    q = Queue()
    q.put('a')
    q.put('b')
    q.put('c')
    p1 = Process(target=work3, args=(q,))
    p2 = Process(target=work4, args=(q,))
    p1.start()
    p2.start()
    p1.join()
    p2.join()
    print(f'主进程运行完毕!')

    运行结果,开启了两个进程p1与p2,可以明显看出他们分别执行了不同的任务:

    四。多进程类的使用:继承Process,调用时会自动执行run()方法

    from multiprocessing import Process


    class MyProcess(Process):
    def __init__(self):
    super().__init__()

    def run(self):
    print("hello")

    if __name__ == '__main__':
    p1 = MyProcess()
    p2 = MyProcess()

    p1.start() #会调用MyProcess中的run方法
    p2.start()
    运行结果,可以看出,他把run()方法的内容执行了两次,暂时还没有想到比较好的使用方法(可以通过封装不同方法,最后在run方法中调用并执行),感觉使用之前队列的已经可以让执行效率提高很多了:

    五。多进程与单一进程对比,守护进程:守护进程(Process().daemon ,默认值是False,)

     1)单进程与多进程对比

    import os
    import time

    from multiprocessing import Process

    def play_music():
    print("子进程p1,PID:", os.getpid())
    for i in range(5):
    print('play music ...')
    time.sleep(1)


    def play_lol():
    print("子进程p2,PID:", os.getpid())
    for i in range(5):
    print('play lol ...')
    time.sleep(1)

    if __name__ == '__main__':
    #1.第一种方式:运行了10秒
    start1 = time.time()
    play_music()
    play_lol()
    end1 = time.time()
    print(f"单进程使用时间是:{end1 - start1:.2f}")

    运行结果,可以明显看出单进行执行完成需要10秒左右:

    2)多进程

    import os
    import time

    from multiprocessing import Process

    def play_music():
    print("子进程p1,PID:", os.getpid())
    for i in range(5):
    print('play music ...')
    time.sleep(1)


    def play_lol():
    print("子进程p2,PID:", os.getpid())
    for i in range(5):
    print('play lol ...')
    time.sleep(1)

    if __name__ == '__main__':

    #1.第二种方式:使用多进程运行,运行了5秒,说明了在同时运行
    start_time = time.time()
    p1 = Process(target=play_music)
    p2 = Process(target=play_lol)

    p1.start() #操作系统 启动一个进程 用来运行 target=play_music 的进程,这个进程是子进程(不是完整的代码)
    p2.start()

    p1.join()
    p2.join() #代表 运行完p1与p2的子进程后 在运行主进


    end_time = time.time()
    # 统计子进程所用时间
    print(f"多进程所用的时间{end_time-start_time}")
    print("主进程pid: ", os.getpid())

    运行结果,开启了两个进程 可以明显看出 执行时间是5秒左右:

    3)守护进程:Process().daemon,在主进程运行结束后,子进程依然运行直到子进程全部运行结束

    import os
    import time

    from multiprocessing import Process

    def play_music():
    print("子进程p1,PID:", os.getpid())
    for i in range(5):
    print('play music ...')
    time.sleep(1)


    def play_lol():
    print("子进程p2,PID:", os.getpid())
    for i in range(5):
    print('play lol ...')
    time.sleep(1)

    if __name__ == '__main__':

    #1.第二种方式:使用多进程运行,运行了5秒,说明了在同时运行
    start_time = time.time()
    p1 = Process(target=play_music)
    p2 = Process(target=play_lol)

    #6)守护进程,使用在进程启动之前。默认值是False,当为True的时候,主进程结束,会强制结束子进程
    p1.daemon = False
    p2.daemon = False

    #2)查看进程使用信息
    #print(help(p2))
    p1.start() #操作系统 启动一个进程 用来运行 target=play_music 的进程,这个进程是子进程(不是完整的代码)
    p2.start()


    end_time = time.time()
    # 5)统计子进程所用时间
    print(f"多进程所用的时间{end_time-start_time}")
    print("主进程pid: ", os.getpid())

    运行结果,可以明显看出,主进程已经运行结束了,子进程还在运行:

    六。进程池:Pool,在介绍进程池前先介绍两个经典的进程池方法:map、apply

    1)map与map_async

    map:

    #map
    # 调用python3的进程池
    """
    map:把一个可迭代对象 映射到 函数(有几个迭代参数运行几次),同步执行
    """
    from multiprocessing import Pool
    import time


    def square(x):
    result = x * x
    time.sleep(1)
    return result


    if __name__ == '__main__':
    start = time.time()
    #创建9个进程
    pool = Pool(9)
    result = pool.map(square, [1, 2, 3, 4]) #map会阻塞主程序(使用了map就不需要使用join(),作用:一系列的数据应用到函数身上,并使用多进程)
    print(result)
    pool.close()
    endtimes1 = time.time()
    #打印所用时间并保存两位小数,:.2f
    print(f"总共使用了{(endtimes1 - start):.2f}")

    运行结果:

    map_async:

    """
    什么时候用map什么时候用map_async:当不需要打印结果的时候使用map_async,因为map 也是调用 map_async只是多了一步".get"的方法,所以直接运行map_async比较快
    map_async:把一个可迭代对象 映射到 函数(有几个迭代参数运行几次),异步执行
    """

    from multiprocessing import Pool
    import time

    def square(x):
    time.sleep(2)
    result = x * x
    print("~~~~~~~~~~")
    return result


    if __name__ == '__main__':
    start = time.time()
    pool = Pool(8)
    result = pool.map_async(square, [1, 2, 3, 4]) #不会阻塞主程序
    #print(result.get()) #.get() :是获取运行结果,每运行完一次就会拿一次结果然后再执行下一次,实质上就是阻塞 等同于pool.map 阻塞方法
    end = time.time()
    print(f"总共使用了{(end - start):.2f}")
    print("主程序结束")

    运行结果:

    map与map_async对比:

    map其实调用的是map_async方法,只是比map_async多了一步".get()",如下图源码:

    2)apply与apply_async区别:


    """
    apply:调用函数,传递任意参数(运行一次)

    """
    import time
    from multiprocessing import Pool


    def test(x, y, z=0):
    print("子程序正在运行")
    #pass


    if __name__ == '__main__':
    pool = Pool(2)
    #apply(self, func, args=(), kwds={})
    pool.apply(test, (2, 3), {"z": 1}) #阻塞 主程序(也就是主进程),apply传的参数是元组类型的任意参数,map是可迭代对象
    pool.apply_async(test, (2, 3), {"z": 1}) # 不阻塞 主程序(也就是主进程)
    print("主程序运行结束")
    print(help(pool.apply))

    运行结果,可以看到无论传递多少参数其实只运行了一次:

    apply与apply_async区别,apply其实调用的是apply_async方法只是多了".get()"方法,如下图源码:

    3)map与apply的区别:

    apply:调用函数,传递任意参数(运行一次)
    map:把一个可迭代对象 映射到 函数(有几个迭代参数运行几次)
    _async:如果加这个名字的进程函数,都是不阻塞的函数方法
    同步(阻塞)与异步(不阻塞)区别:
    同步 :该方法不运行完成 主程序不会结束
    异步:可以执行多个异步方法
    爱折腾的小测试
  • 相关阅读:
    Xamarin.Forms Layout Challenges – Social Network App(转载)
    Erlang gen_server:start_link/3 和gen_server:start_link/4
    Erlang 从URL中截取尾部文件名
    Erlang 聊天室程序(三) 数据交换格式json的decode
    SOCKS5协议
    Erlang 聊天室程序( 一)
    Erlang 聊天室程序(八) 主题房间supervisor 的使用
    Erlang 聊天室程序(四) 数据交换格式json的encode
    Erlide 的安装使用
    日志系统引起的争论
  • 原文地址:https://www.cnblogs.com/newsss/p/14617298.html
Copyright © 2020-2023  润新知