• Python3学习之路~10.2 协程、Greenlet、Gevent


    一 协程

    协程,又称微线程,纤程。英文名Coroutine。一句话说明什么是线程:协程是一种用户态的轻量级线程

    协程拥有自己的寄存器上下文和栈。协程调度切换时,将寄存器上下文和栈保存到其他地方,在切回来的时候,恢复先前保存的寄存器上下文和栈。因此:

    协程能保留上一次调用时的状态(即所有局部状态的一个特定组合),每次过程重入时,就相当于进入上一次调用的状态,换种说法:进入上一次离开时所处逻辑流的位置。

    协程的好处:

    • 无需线程上下文切换的开销
    • 无需原子操作锁定及同步的开销
      •   "原子操作(atomic operation)是不需要synchronized",所谓原子操作是指不会被线程调度机制打断的操作;这种操作一旦开始,就一直运行到结束,中间不会有任何 context switch (切换到另一个线程)。原子操作可以是一个步骤,也可以是多个操作步骤,但是其顺序是不可以被打乱,或者切割掉只执行部分。视作整体是原子性的核心。
    • 方便切换控制流,简化编程模型
    • 高并发+高扩展性+低成本:一个CPU支持上万的协程都不是问题。所以很适合用于高并发处理。

    缺点:

    • 无法利用多核资源:协程的本质是个单线程,它不能同时将 单个CPU 的多个核用上,协程需要和进程配合才能运行在多CPU上.当然我们日常所编写的绝大部分应用都没有这个必要,除非是cpu密集型应用。
    • 进行阻塞(Blocking)操作(如IO时)会阻塞掉整个程序

    使用yield实现协程操作例子 

    def consumer(name):
        print("--->starting eating baozi...")
        while True:
            new_baozi = yield
            print("[%s] is eating baozi %s" % (name, new_baozi))
            # time.sleep(1)
    
    def producer():
        r = con.__next__()
        r = con2.__next__()
        n = 0
        while n < 5:
            n += 1
            con.send(n)
            con2.send(n)
            print("33[32;1m[producer]33[0m is making baozi %s" % n)
    
    if __name__ == '__main__':
        con = consumer("c1")
        con2 = consumer("c2")
        p = producer()

    我们先给协程一个标准定义,即符合什么条件就能称之为协程:

    1. 必须在只有一个单线程里实现并发
    2. 修改共享数据不需加锁
    3. 用户程序里自己保存多个控制流的上下文栈
    4. 一个协程遇到IO操作自动切换到其它协程

    基于上面这4点定义,我们刚才用yield实现的程并不能算是合格的线程,因为它有一点功能没实现,哪一点呢?是第4点。

    二 Greenlet

    greenlet是一个用C实现的协程模块,相比与python自带的yield,它可以使你在任意函数之间随意切换,而不需把这个函数先声明为generator

    安装gevent模块后,就可以使用greenlet了。

    from greenlet import greenlet
    
    def test1():
        print(12)
        gr2.switch()
        print(34)
        gr2.switch()
    
    def test2():
        print(56)
        gr1.switch()
        print(78)
    
    gr1 = greenlet(test1) #启动一个协程
    gr2 = greenlet(test2)
    gr1.switch() #手动切换协程,类似于yield的__next__()
    

    感觉确实用着比generator还简单了呢,但好像还没有解决一个问题,就是遇到IO操作,自动切换,对不对?

    三 Gevent

    Gevent 是一个第三方库,可以轻松通过gevent实现并发同步或异步编程,在gevent中用到的主要模式是Greenlet, 它是以C扩展模块形式接入Python的轻量级协程。 Greenlet全部运行在主程序操作系统进程的内部,但它们被协作式地调度。

    gevent可以自动识别IO操作,如下程序中,fun1函数执行过程中,进行了2秒的IO操作,fun2函数执行过程中,进行了1秒的IO操作,使用gevent协程操作,遇到IO操作就自动切换,从而实现了并发,本来串行执行完这两个函数需要3秒,现在只需要2秒。

    import gevent
    
    def func1():
        print('running in func1')
        gevent.sleep(2) #模拟IO操作
        print('wait 1 s switch to func1')
    
    def func2():
        print('switch to func2')
        gevent.sleep(1)
        print('wait 1 s switch to func2')
    
    gevent.joinall([
        gevent.spawn(func1),
        gevent.spawn(func2),
    ])
    
    running in func1
    switch to func2
    wait 1 s switch to func2
    wait 1 s switch to func1
    输出

    同步与异步的性能区别

    import gevent
    
    def task(pid):
        """
        Some non-deterministic task
        """
        gevent.sleep(0.5)
        print('Task %s done' % pid)
    
    def synchronous():
        for i in range(1, 10):
            task(i)
    
    def asynchronous():
        threads = [gevent.spawn(task, i) for i in range(10)]
        gevent.joinall(threads)
    
    print('Synchronous:')
    synchronous()
    
    print('Asynchronous:')
    asynchronous()
    View Code

    上面程序的重要部分是将task函数封装到Greenlet内部线程的gevent.spawn。 初始化的greenlet列表存放在数组threads中,此数组被传给gevent.joinall 函数,后者阻塞当前流程,并执行所有给定的greenlet。执行流程只会在 所有greenlet执行完后才会继续向下走。

    前面我们知道了,gevent 遇到IO阻塞时会自动切换任务。接下来我们再看一个例子

    先学习如何使用urllib爬一个网页
    from urllib import request
    import gevent
    
    def f(url):
        print('GET:%s' %url)
        resp = request.urlopen(url)
        data = resp.read()
        # f = open('url.html','wb')
        # f.write(data)
        # f.close()
        print('%d bytes received from %s' %(len(data),url))
    
    gevent.joinall([
        gevent.spawn(f, 'https://www.python.org/'),
        # gevent.spawn(f, 'https://www.yahoo.com/'),
        gevent.spawn(f, 'https://github.com/')
    ])
    然后我们使用协程一次爬多个网页

    比较一下 使用协程爬多个网页 和 使用同步串行爬多个网页 所花费的时间:

    from urllib import request
    import gevent
    import time
    
    def f(url):
        print('GET:%s' %url)
        resp = request.urlopen(url)
        data = resp.read()
        print('%d bytes received from %s' %(len(data),url))
    
    async_start_time = time.time()
    
    gevent.joinall([
        gevent.spawn(f, 'https://www.python.org/'),
        gevent.spawn(f, 'https://github.com/')
    ])
    
    print('并行cost:',time.time()-async_start_time)
    并行cost: 6.569547176361084
    from urllib import request
    import time
    
    def f(url):
        print('GET:%s' %url)
        resp = request.urlopen(url)
        data = resp.read()
        print('%d bytes received from %s' %(len(data),url))
    
    url = [
        'https://www.python.org/',
         'https://github.com/',
    ]
    
    sync_start_time = time.time()
    
    for url in url:
        f(url)
    
    print('串行cost:',time.time()-sync_start_time)
    串行cost: 6.123349905014038

    我们发现,二者所用时间差不多,并行并没有比串行快。这是因为,gevent默认检测不到urllib(还有前面所学的socket)的IO操作,所以它遇到IO阻塞后没有自动切换任务,也就是说gevent对urllib来说不好使。

    那么怎么才能让gevent知道urllib正在进行IO操作呢,给它打个补丁。monkey.patch_all()就是把当前程序的所有IO操作全都单独打上标记,这样,gevent遇到它自己不能识别的IO操作时,因为有了标记,gevent也能够自动切换任务。

    通过gevent实现单线程下的urllib爬网页并发

    from urllib import request
    import gevent,time
    from gevent import monkey
    
    monkey.patch_all() #把当前程序的所有IO操作给我单独打上标记
    
    def f(url):
        print('GET:%s' %url)
        resp = request.urlopen(url)
        data = resp.read()
        print('%d bytes received from %s' %(len(data),url))
    
    async_start_time = time.time()
    
    gevent.joinall([
        gevent.spawn(f, 'https://www.python.org/'),
        gevent.spawn(f, 'https://github.com/')
    ])
    
    print('并行cost:',time.time()-async_start_time)
    
    #并行cost: 3.2701869010925293

    通过gevent实现单线程下的多socket并发

    server side 

    import gevent
    from gevent import socket, monkey
    
    monkey.patch_all()
    
    def server(port):
        s = socket.socket()
        s.bind(('0.0.0.0', port))
        s.listen(500)
        while True:
            cli, addr = s.accept() #过来一个链接
            gevent.spawn(handle_request, cli) #将链接交个gevent去起一个协程,把新生成的客户端的连接实例交给handle_request方法
    
    def handle_request(conn):
        try:
            while True:
                data = conn.recv(1024)
                print("recv:", data)
                conn.send(data)
                if not data:
                    conn.shutdown(socket.SHUT_WR)
    
        except Exception as  ex:
            print(ex)
        finally:
            conn.close()
    
    if __name__ == '__main__':
        server(8001)

    client side  

    import socket
    
    HOST = 'localhost'  # The remote host
    PORT = 8001  # The same port as used by the server
    s = socket.socket(socket.AF_INET, socket.SOCK_STREAM)
    s.connect((HOST, PORT))
    while True:
        msg = bytes(input(">>:"), encoding="utf8")
        s.sendall(msg)
        data = s.recv(1024)
        # print(data)
    
        print('Received', repr(data))
    s.close()
    
    import socket
    import threading
    
    def sock_conn():
    
        client = socket.socket()
    
        client.connect(("localhost",8001))
        count = 0
        while True:
            #msg = input(">>:").strip()
            #if len(msg) == 0:continue
            client.send( ("hello %s" %count).encode("utf-8"))
    
            data = client.recv(1024)
    
            print("[%s]recv from server:" % threading.get_ident(),data.decode()) #结果
            count +=1
        client.close()
    
    
    for i in range(100):
        t = threading.Thread(target=sock_conn)
        t.start()
    并发100个sock连接
  • 相关阅读:
    MySQL导出数据库、数据库表结构、存储过程及函数
    个人支付接口
    C# WPF,XAML 跨平台应用框架
    uniapp 第三方组件库
    C语言图形界面库
    微信小程序 获取cookie 以及设置 cookie
    stm32资源网
    找最长连续重复字母子串
    asp .net web api Swagger简单实用
    跨域问题
  • 原文地址:https://www.cnblogs.com/zhengna/p/10563304.html
Copyright © 2020-2023  润新知