• 分析Tornado的协程实现


    转自:http://www.binss.me/blog/analyse-the-implement-of-coroutine-in-tornado/

    什么是协程

    以下是Wiki的定义:

    Coroutines are computer program components that generalize subroutines for nonpreemptive multitasking, by allowing multiple entry points for suspending and resuming execution at certain locations. Coroutines are well-suited for implementing more familiar program components such as cooperative tasks, exceptions, event loop, iterators, infinite lists and pipes.

    我们经常使用的函数又称子例程(subroutine),往往只有一个入口(函数的第一行),一个出口(return、抛出异常)。子例程在入口时获得控制权,在出口时把控制权交还给调用者。一旦交还控制权,就意味着例程的结束,函数中做的所有工作以及保存在局部变量中的数据都将被释放。而协程可以有多个入口点,允许从一个入口点执行到下一个入口点之前暂停,保存执行状态;等到合适的时机恢复执行状态,从下一个入口点重新开始执行。

    "Subroutines are special cases of ... coroutines." –Donald Knuth.

    可以把协程看做是子例程的泛化形式。

    在Python中,协程基于生成器。它可以有多个出口和入口。出口有两种类型:一种是return,用于永久交还控制权,效果同子例程;另一种是yield,用于暂时交还控制权,函数将来还会收回控制权。当然入口也有两种:一种是函数的第一行;另一种是上次yield的那一行。

    本文在《Python中的迭代器和生成器》一文的基础上,通过对Tornado框架中的协程的分析,进行协程的学习。

    Tornado中的协程

    Tornado典型的协程例子:

      class GenAsyncHandler(RequestHandler):
      @gen.coroutine
      def get(self):
      http_client = AsyncHTTPClient()
      response = yield http_client.fetch("http://example.com")
      do_something_with_response(response)
      self.render("template.html")

    我们为这个Handler的get()添加了装饰器gen.coroutine,从而使其成为一个协程。不难理解,面对耗时的操作,利用协程可以达到异步的效果,需要等待的时候yield出去,等待结束后重新回来继续执行。如例子中get需要等待http_client.fetch("http://example.com")的结果,因此通过yield返回;当获取到结果后,get函数从上次离开处继续运行,且response被赋值为http_client.fetch("http://example.com")的结果。

    这主要涉及到以下几样东西:

    1. Future

      Future的设计目标是作为协程(coroutine)和IOLoop的媒介,从而将协程和IOLoop关联起来。

      Future在concurrent.py中定义,是异步操作结果的占位符,用于等待结果返回。通常作为函数IOLoop.add_future()的参数或gen.coroutine协程中yield的返回值。

      等到结果返回时,外部可以通过调用set_result()设置真正的结果,然后调用所有回调函数,恢复协程的执行。

    2. IOLoop

      IOLoop是一个I/O事件循环,用于调度socket相关的连接、响应、异步读写等网络事件,并支持在事件循环中添加回调(callback)和定时回调(timeout)。在支持的平台上,默认使用epoll进行I/O多路复用处理。

      IOLoop是Tornado的核心,绝大部分模块都依赖于IOLoop的调度。在协程运行环境中,IOLoop担任着协程调度器的角色,能够让暂停的协程重新获得控制权,从而能继续执行。

      IOLoop通过add_future()对Future的支持:

        def add_future(self, future, callback):
        assert is_future(future)
        callback = stack_context.wrap(callback)
        future.add_done_callback(lambda future: self.add_callback(callback, future))

      通过调用future的add_done_callback(),使当future在操作完成时,能够通过add_callback将callback添加到IOLoop中,让callback在IOLoop下一次迭代中执行(不在本轮是为了避免饿死)。

    3. Runner

      Runner和coroutine都在gen.py中定义。Runner由coroutine装饰器创建,用于维护挂起的回调函数及结果的相关信息,包括中间结果(future)和最终结果(result_future)。

    4. coroutine

      gen.coroutine是一个装饰器,负责将普通函数包装成协程。功能包括:

      • 调用函数,如果该函数有yield,则返回生成器。否则立即得到结果,不属于协程。

      • 通过next()执行生成器,如果未能结束(遇到yield),则生成中间类Runner对象,用于保存生成器、yield返回值和最终返回值。

      • 创建Runner。

    结合以上几样东西,协程的具体流程整理如下:

    每一次协程调用yield释放控制权后:

      > [Runner]handle_yield
      处理yield返回的结果
       
      -> [Runner]ioloop.add_future(self.future, lambda f: self.run())
      将结果构造成future后添加到ioloop
       
      -> [future]add_done_callback(lambda future: self.add_callback(callback, future))
      将Runner.run()加入到完成时的回调函数列表中

    ???触发:

      -> [future]set_result
      已经得到future的结果,设置之
       
      -> [future]_set_done
      调用future所有回调函数(_callbacks)
       
      -> [ioloop]add_callback(callback, future)
      callback为[Runner]add_future添加的那个,即[Runner]self.run(),将在下一轮循环被执行
       
      -> [Runner]self.run()
      取出Runner的self.future(上次yield的返回值):
      1. 如果future未完成,return,流程结束,等待下一次set_result
       
      2. 如果future完成
      -> [Runner]yielded = self.gen.send(value)
      通过send把future的result发送给协程,并让其恢复执行:
       
      1. 如果协程结束(没yield了)
      -> [Runner]self.result_future.set_result
      设置最终的结果result_future
       
      2. 未结束(再次遇到yield)
      -> [Runner]handle_yield
      则再次调用handle_yield

    从以上的流程可以看出,每一次协程调用yield释放控制权后的恢复,都依赖于set_result()的调用。当我们把目光看向总调度IOLoop时,可以发现IOLoop只是忠实地在每一轮迭代中调用那些就绪的回调函数,并没有主动调用set_result()的能力。

    那么,在Tornado中,这个set_result()到底是谁调用?在何时调用?

    搜遍了Tornado的代码,主要找到以下几个调用点:

    1. 在coroutine装饰器中,如果装饰的函数调用后直接结束(没yield),直接set_result()。

    2. 在[Runner]的run()中,如果调用send后协程结束,对result_future进行set_result()。

    3. 取决于yield后阻塞操作的具体实现,下面以例子中AsyncHTTPClient的fetch()来进行分析。

    AsyncHTTPClient的fetch()是一个异步操作,其构造了一个HTTP请求,然后调用fetch_impl(),返回一个future。fetch_impl()取决于AsyncHTTPClient的具体实现,默认情况下,AsyncHTTPClient生成的是子类SimpleAsyncHTTPClient的实例,所以主要看SimpleAsyncHTTPClient的fetch_impl():

      def fetch_impl(self, request, callback):
      key = object()
      self.queue.append((key, request, callback))
      if not len(self.active) < self.max_clients:
      timeout_handle = self.io_loop.add_timeout(
      self.io_loop.time() + min(request.connect_timeout,
      request.request_timeout),
      functools.partial(self._on_timeout, key))
      else:
      timeout_handle = None
      self.waiting[key] = (request, callback, timeout_handle)
      self._process_queue()
      if self.queue:
      gen_log.debug("max_clients limit reached, request queued. "
      "%d active, %d queued requests." % (len(self.active), len(self.queue)))

    fetch_impl()接受两个参数,request为fetch()中构造的HTTP请求,callback为fetch中的回调函数handle_response:

      def handle_response(response):
      if raise_error and response.error:
      future.set_exception(response.error)
      else:
      future.set_result(response)

    在handle_response()中,调用了我们期待的set_result()。所以我们把目光转移到fetch_impl()的callback。在fetch_impl()中,函数先将callback加到队列中,然后通过_process_queue()处理掉,处理时调用_handle_request():

      def _handle_request(self, request, release_callback, final_callback):
      self._connection_class()(
      self.io_loop, self, request, release_callback,
      final_callback, self.max_buffer_size, self.tcp_client,
      self.max_header_size, self.max_body_size)

    这里构造了一个_connection_class对象,即HTTPConnection。HTTPConnection通过self.tcp_client.connect()来建立TCP连接,然后通过该连接发送HTTP请求, 在超时(timeout)或完成(finish)时调用callback。tcp_client在建立异步TCP连接时,先进行DNS解析(又是协程),然后建立socket来构造IOStream对象,最后调用IOStream.connect()。在IOStream.connect()的过程中,我们看到了关键操作:

      self.io_loop.add_handler(self.fileno(), self._handle_events, self._state)

    还记得我们前面说过的IOLoop吗?IOLoop可以添加socket、callback和timeout,并当它们就绪时调用相应的回调函数。这里add_handler处理的就是socket的多路复用,默认的实现是epoll。当epoll中该socket就绪时,相关函数得以回调。于是tcp_client读取socket内容获得HTTP response,handle_response()被调用,最终set_result()被调用。

    到这里我们恍然大悟,AsyncHTTPClient的set_result()调用依赖于IO多路复用方案,这里是epoll,在epoll中相应socket的就绪的是set_result()得到调用的根本原因。而这个就绪事件的传递,离不开Tornado内建的IOStream,异步TCPClient、异步HTTPConnection,这些类的存在为我们隐藏了简单调用后的复杂性。因此当我们在用yield返回耗时操作时,如果不是Tornado的内建组件,则必须自己负责设计set_result的方案,比如以下代码:

      @gen.coroutine
      def add(self, a, b):
      future = Future()
      def callback(a, b):
      print("calculating the sum of %d + %d:" % (a,b))
      future.set_result(a+b)
      tornado.ioloop.IOLoop.instance().add_callback(callback, a, b)
       
      result = yield future
      print("%d + %d = %d" % (a, b, result))

    通过手动将包含set_result()的回调函数加到IOLoop中,于是回调下一次迭代中执行,set_result()被调用,协程恢复控制权。

    总结

    实现高性能服务端,同步多进程、多线程风靡一时,然而由于其需要在内核态进行上下文切换,同步时还要加锁,导致并发性能低下。于是异步冒出来了,如Session、状态机,当然还有本文讨论的协程。

    学习协程,主要的原因是在看SS代码中深受状态机代码的折磨(为啥要看SS的代码?你懂的)。因为在状态机中,逻辑代码被分割成多块分散在N个回调里(各种on_xxxxx),割裂了人的顺序性思维,在阅读代码、理解逻辑时跳来跳去令人痛不欲生。反观协程,真正做到了同步编码异步执行。

    然而深挖协程的实现发现,协程的高性能和易编写易阅读是以后端框架复杂的封装为代价的。即使是在Python中我们拥有能够维护上下文的生成器,为了实现协程的调度,Tornado依然耗费了不少功夫:从定义Future对象用于等待结果返回,到使用coroutine装饰器将生成器的yield返回值封装成Runner,最后到set_result让Runner重新跑起来,而这些都依赖于IOLoop的调度。在经过层层跳转后达成了协程的调度目的,不得不感慨Tornado设计的巧妙。

    不管怎么说,对于我等码农来说,协程代码写起来真的爽,读起来也也很爽,可以少死很多脑细胞,这就够了。

    参考

    http://www.tornadoweb.org/en/stable/guide/coroutines.html

    http://blog.csdn.net/wyx819/article/details/45420017

  • 相关阅读:
    C语言时间函数
    sqlplus 配置方法及相关命令
    EDdb 是ED数据
    关于数据库性能管理专家的一个网站
    实用小技巧:在键盘没有小键盘时怎么打开任务管理器
    l来自wentao:项目加入缓存(redis),实时调试时用 -----可视化缓存,flushdb
    转:影响数据检索效率的几个因素
    apache-storm-1.0.3安装部署
    Hadoop2.7.3+spark2.1.0+hbase0.98分布式集群部署
    /etc/security/limits.conf的相关说明
  • 原文地址:https://www.cnblogs.com/ymy124/p/5753383.html
Copyright © 2020-2023  润新知