转自:http://www.binss.me/blog/analyse-the-implement-of-coroutine-in-tornado/
什么是协程
以下是Wiki的定义:
Coroutines are computer program components that generalize subroutines for nonpreemptive multitasking, by allowing multiple entry points for suspending and resuming execution at certain locations. Coroutines are well-suited for implementing more familiar program components such as cooperative tasks, exceptions, event loop, iterators, infinite lists and pipes.
我们经常使用的函数又称子例程(subroutine),往往只有一个入口(函数的第一行),一个出口(return、抛出异常)。子例程在入口时获得控制权,在出口时把控制权交还给调用者。一旦交还控制权,就意味着例程的结束,函数中做的所有工作以及保存在局部变量中的数据都将被释放。而协程可以有多个入口点,允许从一个入口点执行到下一个入口点之前暂停,保存执行状态;等到合适的时机恢复执行状态,从下一个入口点重新开始执行。
"Subroutines are special cases of ... coroutines." –Donald Knuth.
可以把协程看做是子例程的泛化形式。
在Python中,协程基于生成器。它可以有多个出口和入口。出口有两种类型:一种是return,用于永久交还控制权,效果同子例程;另一种是yield,用于暂时交还控制权,函数将来还会收回控制权。当然入口也有两种:一种是函数的第一行;另一种是上次yield的那一行。
本文在《Python中的迭代器和生成器》一文的基础上,通过对Tornado框架中的协程的分析,进行协程的学习。
Tornado中的协程
Tornado典型的协程例子:
class GenAsyncHandler(RequestHandler): | |
@gen.coroutine | |
def get(self): | |
http_client = AsyncHTTPClient() | |
response = yield http_client.fetch("http://example.com") | |
do_something_with_response(response) | |
self.render("template.html") |
我们为这个Handler的get()添加了装饰器gen.coroutine,从而使其成为一个协程。不难理解,面对耗时的操作,利用协程可以达到异步的效果,需要等待的时候yield出去,等待结束后重新回来继续执行。如例子中get需要等待http_client.fetch("http://example.com")
的结果,因此通过yield返回;当获取到结果后,get函数从上次离开处继续运行,且response被赋值为http_client.fetch("http://example.com")
的结果。
这主要涉及到以下几样东西:
-
Future
Future的设计目标是作为协程(coroutine)和IOLoop的媒介,从而将协程和IOLoop关联起来。
Future在concurrent.py中定义,是异步操作结果的占位符,用于等待结果返回。通常作为函数IOLoop.add_future()的参数或gen.coroutine协程中yield的返回值。
等到结果返回时,外部可以通过调用set_result()设置真正的结果,然后调用所有回调函数,恢复协程的执行。
-
IOLoop
IOLoop是一个I/O事件循环,用于调度socket相关的连接、响应、异步读写等网络事件,并支持在事件循环中添加回调(callback)和定时回调(timeout)。在支持的平台上,默认使用epoll进行I/O多路复用处理。
IOLoop是Tornado的核心,绝大部分模块都依赖于IOLoop的调度。在协程运行环境中,IOLoop担任着协程调度器的角色,能够让暂停的协程重新获得控制权,从而能继续执行。
IOLoop通过add_future()对Future的支持:
def add_future(self, future, callback): assert is_future(future) callback = stack_context.wrap(callback) future.add_done_callback(lambda future: self.add_callback(callback, future)) 通过调用future的add_done_callback(),使当future在操作完成时,能够通过add_callback将callback添加到IOLoop中,让callback在IOLoop下一次迭代中执行(不在本轮是为了避免饿死)。
-
Runner
Runner和coroutine都在gen.py中定义。Runner由coroutine装饰器创建,用于维护挂起的回调函数及结果的相关信息,包括中间结果(future)和最终结果(result_future)。
-
coroutine
gen.coroutine是一个装饰器,负责将普通函数包装成协程。功能包括:
-
调用函数,如果该函数有yield,则返回生成器。否则立即得到结果,不属于协程。
-
通过next()执行生成器,如果未能结束(遇到yield),则生成中间类Runner对象,用于保存生成器、yield返回值和最终返回值。
-
创建Runner。
-
结合以上几样东西,协程的具体流程整理如下:
每一次协程调用yield释放控制权后:
-> [Runner]handle_yield | |
处理yield返回的结果 | |
-> [Runner]ioloop.add_future(self.future, lambda f: self.run()) | |
将结果构造成future后添加到ioloop | |
-> [future]add_done_callback(lambda future: self.add_callback(callback, future)) | |
将Runner.run()加入到完成时的回调函数列表中 |
???触发:
-> [future]set_result | |
已经得到future的结果,设置之 | |
-> [future]_set_done | |
调用future所有回调函数(_callbacks) | |
-> [ioloop]add_callback(callback, future) | |
callback为[Runner]add_future添加的那个,即[Runner]self.run(),将在下一轮循环被执行 | |
-> [Runner]self.run() | |
取出Runner的self.future(上次yield的返回值): | |
1. 如果future未完成,return,流程结束,等待下一次set_result | |
2. 如果future完成 | |
-> [Runner]yielded = self.gen.send(value) | |
通过send把future的result发送给协程,并让其恢复执行: | |
1. 如果协程结束(没yield了) | |
-> [Runner]self.result_future.set_result | |
设置最终的结果result_future | |
2. 未结束(再次遇到yield) | |
-> [Runner]handle_yield | |
则再次调用handle_yield |
从以上的流程可以看出,每一次协程调用yield释放控制权后的恢复,都依赖于set_result()的调用。当我们把目光看向总调度IOLoop时,可以发现IOLoop只是忠实地在每一轮迭代中调用那些就绪的回调函数,并没有主动调用set_result()的能力。
那么,在Tornado中,这个set_result()到底是谁调用?在何时调用?
搜遍了Tornado的代码,主要找到以下几个调用点:
-
在coroutine装饰器中,如果装饰的函数调用后直接结束(没yield),直接set_result()。
-
在[Runner]的run()中,如果调用send后协程结束,对result_future进行set_result()。
-
取决于yield后阻塞操作的具体实现,下面以例子中AsyncHTTPClient的fetch()来进行分析。
AsyncHTTPClient的fetch()是一个异步操作,其构造了一个HTTP请求,然后调用fetch_impl(),返回一个future。fetch_impl()取决于AsyncHTTPClient的具体实现,默认情况下,AsyncHTTPClient生成的是子类SimpleAsyncHTTPClient的实例,所以主要看SimpleAsyncHTTPClient的fetch_impl():
def fetch_impl(self, request, callback): | |
key = object() | |
self.queue.append((key, request, callback)) | |
if not len(self.active) < self.max_clients: | |
timeout_handle = self.io_loop.add_timeout( | |
self.io_loop.time() + min(request.connect_timeout, | |
request.request_timeout), | |
functools.partial(self._on_timeout, key)) | |
else: | |
timeout_handle = None | |
self.waiting[key] = (request, callback, timeout_handle) | |
self._process_queue() | |
if self.queue: | |
gen_log.debug("max_clients limit reached, request queued. " | |
"%d active, %d queued requests." % (len(self.active), len(self.queue))) |
fetch_impl()接受两个参数,request为fetch()中构造的HTTP请求,callback为fetch中的回调函数handle_response:
def handle_response(response): | |
if raise_error and response.error: | |
future.set_exception(response.error) | |
else: | |
future.set_result(response) |
在handle_response()中,调用了我们期待的set_result()。所以我们把目光转移到fetch_impl()的callback。在fetch_impl()中,函数先将callback加到队列中,然后通过_process_queue()处理掉,处理时调用_handle_request():
def _handle_request(self, request, release_callback, final_callback): | |
self._connection_class()( | |
self.io_loop, self, request, release_callback, | |
final_callback, self.max_buffer_size, self.tcp_client, | |
self.max_header_size, self.max_body_size) |
这里构造了一个_connection_class对象,即HTTPConnection。HTTPConnection通过self.tcp_client.connect()来建立TCP连接,然后通过该连接发送HTTP请求, 在超时(timeout)或完成(finish)时调用callback。tcp_client在建立异步TCP连接时,先进行DNS解析(又是协程),然后建立socket来构造IOStream对象,最后调用IOStream.connect()。在IOStream.connect()的过程中,我们看到了关键操作:
self.io_loop.add_handler(self.fileno(), self._handle_events, self._state) |
还记得我们前面说过的IOLoop吗?IOLoop可以添加socket、callback和timeout,并当它们就绪时调用相应的回调函数。这里add_handler处理的就是socket的多路复用,默认的实现是epoll。当epoll中该socket就绪时,相关函数得以回调。于是tcp_client读取socket内容获得HTTP response,handle_response()被调用,最终set_result()被调用。
到这里我们恍然大悟,AsyncHTTPClient的set_result()调用依赖于IO多路复用方案,这里是epoll,在epoll中相应socket的就绪的是set_result()得到调用的根本原因。而这个就绪事件的传递,离不开Tornado内建的IOStream,异步TCPClient、异步HTTPConnection,这些类的存在为我们隐藏了简单调用后的复杂性。因此当我们在用yield返回耗时操作时,如果不是Tornado的内建组件,则必须自己负责设计set_result的方案,比如以下代码:
@gen.coroutine | |
def add(self, a, b): | |
future = Future() | |
def callback(a, b): | |
print("calculating the sum of %d + %d:" % (a,b)) | |
future.set_result(a+b) | |
tornado.ioloop.IOLoop.instance().add_callback(callback, a, b) | |
result = yield future | |
print("%d + %d = %d" % (a, b, result)) |
通过手动将包含set_result()的回调函数加到IOLoop中,于是回调下一次迭代中执行,set_result()被调用,协程恢复控制权。
总结
实现高性能服务端,同步多进程、多线程风靡一时,然而由于其需要在内核态进行上下文切换,同步时还要加锁,导致并发性能低下。于是异步冒出来了,如Session、状态机,当然还有本文讨论的协程。
学习协程,主要的原因是在看SS代码中深受状态机代码的折磨(为啥要看SS的代码?你懂的)。因为在状态机中,逻辑代码被分割成多块分散在N个回调里(各种on_xxxxx),割裂了人的顺序性思维,在阅读代码、理解逻辑时跳来跳去令人痛不欲生。反观协程,真正做到了同步编码异步执行。
然而深挖协程的实现发现,协程的高性能和易编写易阅读是以后端框架复杂的封装为代价的。即使是在Python中我们拥有能够维护上下文的生成器,为了实现协程的调度,Tornado依然耗费了不少功夫:从定义Future对象用于等待结果返回,到使用coroutine装饰器将生成器的yield返回值封装成Runner,最后到set_result让Runner重新跑起来,而这些都依赖于IOLoop的调度。在经过层层跳转后达成了协程的调度目的,不得不感慨Tornado设计的巧妙。
不管怎么说,对于我等码农来说,协程代码写起来真的爽,读起来也也很爽,可以少死很多脑细胞,这就够了。