任何使用yield语句的函数都称为生成器。调用生成器函数将创建一个对象,该对象通过连续调用next()方法(在python3中是__next__())生成结果序列。
next()调用使生成器函数一直运行到下一条yield语句为止。此时next()将返回值传递给yield,而且函数将暂时中止执行。再次调用next()时,函数将继续执行yield之后的语句。此过程持续到函数返回为止。
通常不会在生成器上直接调用next()方法,而是在for语句、sum()或一些使用序列的其他操作中使用它。
生成器函数完成的标志是返回或引发StopIteration异常,这标志着迭代的结束。如果生成器在完成时返回None之外的值,都是不合法的。
生成器是由两部分组成:生成器的函数和生成器的迭代器。
生成器的函数是用def 语句定义的,包含yield的部分;生成器的迭代器是这个函数返回的部分。按一种不是很准确的说法,两个实体经常被当作一个,合起来叫做生成器。
>>> def simple_generator(): ... yield 1 ... >>> simple_generator <function simple_generator at 0x16eb398> >>> simple_generator() <generator object simple_generator at 0x16cfc30> >>>
生成器的函数返回的迭代器可以像其他迭代器那样使用。
首先请确信,生成器就是一种迭代器。生成器拥有next方法并且行为与迭代器完全相同,这意味着生成器也可以用于Python的for循环中。另外,对于生成器的特殊语法支持使得编写一个生成器比自定义一个常规的迭代器要简单不少,所以生成器也是最常用到的特性之一。
从Python 2.5开始,[PEP 342:通过增强生成器实现协同程序]的实现为生成器加入了更多的特性,这意味着生成器还可以完成更多的工作。这部分我们会在稍后的部分介绍。
生成器函数
使用生成器函数定义生成器
如何获取一个生成器?首先来看一小段代码:
1
2
3
4
5
6
7
|
>>> def get_0_1_2(): ... yield 0 ... yield 1 ... yield 2 ... >>> get_0_1_2 <function get_0_1_2 at 0x00B2CB70 > |
我们定义了一个函数get_0_1_2,并且可以查看到这确实是函数类型。但与一般的函数不同的是,get_0_1_2的函数体内使用了关键字yield,这使得get_0_1_2成为了一个生成器函数。生成器函数的特性如下:
- 调用生成器函数将返回一个生成器;
123
>>> generator
=
get_0_1_2()
>>> generator
<generator
object
get_0_1_2 at
0x00B1C7D8
>
- 第一次调用生成器的next方法时,生成器才开始执行生成器函数(而不是构建生成器时),直到遇到yield时暂停执行(挂起),并且yield的参数将作为此次next方法的返回值;
12
>>> generator.
next
()
0
- 之后每次调用生成器的next方法,生成器将从上次暂停执行的位置恢复执行生成器函数,直到再次遇到yield时暂停,并且同样的,yield的参数将作为next方法的返回值;
1234
>>> generator.
next
()
1
>>> generator.
next
()
2
- 如果当调用next方法时生成器函数结束(遇到空的return语句或是到达函数体末尾),则这次next方法的调用将抛出StopIteration异常(即for循环的终止条件);
1234
>>> generator.
next
()
Traceback (most recent call last):
File
"<stdin>"
, line
1
,
in
<module>
StopIteration
- 生成器函数在每次暂停执行时,函数体内的所有变量都将被封存(freeze)在生成器中,并将在恢复执行时还原,并且类似于闭包,即使是同一个生成器函数返回的生成器,封存的变量也是互相独立的。
我们的小例子中并没有用到变量,所以这里另外定义一个生成器来展示这个特点:12345678910111213>>>
def
fibonacci():
... a
=
b
=
1
...
yield
a
...
yield
b
...
while
True
:
... a, b
=
b, a
+
b
...
yield
b
...
>>>
for
num
in
fibonacci():
...
if
num >
100
:
break
...
print
num,
...
1
1
2
3
5
8
13
21
34
55
89
生成器注意事项:
既然生成器函数也是函数,那么它可以使用return输出返回值吗?
不行的亲,是这样的,生成器函数已经有默认的返回值——生成器了,你不能再另外给一个返回值;对,即使是return None也不行。但是它可以使用空的return语句结束。如果你坚持要为它指定返回值,那么Python将在定义的位置赠送一个语法错误异常,就像这样:
>>> def i_wanna_return(): ... yield None ... return None ... File "<stdin>", line 3 SyntaxError: 'return' with argument inside generator
- 如果我需要在生成器的迭代过程中接入另一个生成器的迭代怎么办?写成下面这样好傻好天真。。
12345
>>>
def
sub_generator():
...
yield
1
...
yield
2
...
for
val
in
counter(
10
):
yield
val
...
12345678>>>
def
sub_generator():
...
yield
1
...
yield
2
...
yield
from
counter(
10
)
File
"<stdin>"
, line
4
yield
from
counter(
10
)
^
SyntaxError: invalid syntax
任务
序列中的子项可能是序列,子序列的子项仍可能是序列,以此类推,则序列嵌套可以达到任意的深度。需要循环遍历一个序列,将其中所有的子序列展开成一个单一的、只具有基本子项的序列。(一个基本子项或者原子,可以是任何非序列的对象-或者说叶子,假如你认为嵌套序列是一棵树。)
解决方案
我们需要能够判断哪些我们正在处理的子项是需要被展开的,哪些是原子。为了获得通用性,我们使用了一个断定来作为参数,由它来判断子项是否是可以展开的。(断定[predicate]是一个函数,每当我们处理一个元素时就将其应用于该元素并返回一个布尔值:在这里,如果元素是一个需要展开的子序列就返回True,否则返回False。)我们假定每一个列表或者元组都是需要被展开的,而其他类型则不是。那么最简单的解决方法就是提供一个递归的生成器:
def list_or_tuple(x): return isinstance(x, (list, tuple)) def flatten(sequence, to_expand=list_or_tuple): for item in sequence: if to_expand(item): for subitem in flatten(item, to_expand): yield subitem else: yield item
- for x in flatten([1, 2, [3, [ ], 4, [5, 6], 7, [8,], ], 9]):
- print x,
- 输出1 2 3 4 5 6 7 8 9。
我们也可以写一个非递归版本的flatten。这种写法可以超越Python的递归层次的极限,一般不超过几千层。实现无递归遍历的要点是,采用一个明确的后进先出(LIFO)栈。在这个例子中,我们可以用迭代器的列表实现:
def flatten(sequence, to_expand=list_or_tuple): iterators = [ iter(sequence) ] while iterators: # 循环当前的最深嵌套(最后)的迭代器 for item in iterators[-1]: if to_expand(item): # 找到了子序列,循环子序列的迭代器 iterators.append(iter(item)) break else: yield item else: # 最深嵌套的迭代器耗尽,回过头来循环它的父迭代器 iterators.pop( )
转自:http://book.51cto.com/art/201005/198629.htm