add by zhj: 说到yield,就要说说迭代器、生成器、生成器函数。python
迭代器:其实就是一个可迭代对象,书上说迭代器,我我的不喜欢这个说法,有点晦涩。可迭代对象基本上能够认为是有__iter__()和next()方法的对象,尽管这个定义并不严谨。程序员
生成器:其实也是一个可迭代对象,但它是一种特殊的可迭代对象(即特殊的迭代器)。它的特殊性在于它是经过中断的形式实现next(),无需对象自己保存状态,另外生成器还有编程
send(),throw()等方法,这是迭代器没有的。迭代器是调用next()方法后就直接return了,状态需程序员保存在迭代器对象中,下次再调用时知道从哪里开始。而生成器app
调用next()方法时,遇到yield返回,并产生中断,保存状态,这样程序员就不须要对象本身保存状态。为何Python要有生成器呢?当函数返回的是一个特别大的序列函数
时,这个序列是很是占内存的,yield和生成器也所以而生,生成器在迭代时每次生成一个数据,这样内存的消耗就很小。不过,生成器遍历完后就不能再遍历了,没法恢复post
到初始状态。这也算是生成器的一个缺点吧,不知道之后能不能改进。在itertools模块中有不少方法用于迭代器,其中tee能够复制一个迭代器,但复制后原始的迭代器貌spa
似不能用了。另外,对生成器的索引貌似也没有太好的办法,切片索引后对原生成器是有影响的。调试
所以,生成器的应用场合为:生成的序列比较大,且不须要经过索引访问该序列时,用生成器比较方便。code
生成器函数:首先,它是一个函数,它跟其它函数惟一不一样的是,它里面有yield语句,当调用该函数时,返回的是一个生成器。咱们能够经过将yield用print对象
替换来理解yield。
>>> def fab(max):
n,a,b=0,0,1
while n<max:
yield b
a,b=b,a+b
n=n+1
>>> a = fab(5)
>>> type(fab)
<type 'function'>
>>> type(a)
<type 'generator'>
原文:https://www.ibm.com/developerworks/cn/opensource/os-cn-python-yield/
您可能据说过,带有 yield 的函数在 Python 中被称之为 generator(生成器),何谓 generator ?
咱们先抛开 generator,以一个常见的编程题目来展现 yield 的概念。
斐波那契(Fibonacci)數列是一个很是简单的递归数列,除第一个和第二个数外,任意一个数均可由前两个数相加获得。用计算机程序输出斐波那契數列的前 N 个数是一个很是简单的问题,许多初学者均可以轻易写出以下函数:
def fab(max): n, a, b = 0, 0, 1 while n < max: print b a, b = b, a + b n = n + 1
执行 fab(5),咱们能够获得以下输出:
>>> fab(5) 1 1 2 3 5
结果没有问题,但有经验的开发者会指出,直接在 fab 函数中用 print 打印数字会致使该函数可复用性较差,由于 fab 函数返回 None,其余函数没法得到该函数生成的数列。
要提升 fab 函数的可复用性,最好不要直接打印出数列,而是返回一个 List。如下是 fab 函数改写后的第二个版本:
def fab(max): n, a, b = 0, 0, 1 L = [] while n < max: L.append(b) a, b = b, a + b n = n + 1 return L
可使用以下方式打印出 fab 函数返回的 List:
>>> for n in fab(5): ... print n ... 1 1 2 3 5
改写后的 fab 函数经过返回 List 能知足复用性的要求,可是更有经验的开发者会指出,该函数在运行中占用的内存会随着参数 max 的增大而增大,若是要控制内存占用,最好不要用 List
来保存中间结果,而是经过 iterable 对象来迭代。例如,在 Python2.x 中,代码:
for i in range(1000): pass
会致使生成一个 1000 个元素的 List,而代码:
for i in xrange(1000): pass
则不会生成一个 1000 个元素的 List,而是在每次迭代中返回下一个数值,内存空间占用很小。由于 xrange 不返回 List,而是返回一个 iterable 对象。
利用 iterable 咱们能够把 fab 函数改写为一个支持 iterable 的 class,如下是第三个版本的 Fab:
class Fab(object): def __init__(self, max): self.max = max self.n, self.a, self.b = 0, 0, 1 def __iter__(self): return self def next(self): if self.n < self.max: r = self.b self.a, self.b = self.b, self.a + self.b self.n = self.n + 1 return r raise StopIteration()
Fab 类经过 next() 不断返回数列的下一个数,内存占用始终为常数:
>>> for n in Fab(5): ... print n ... 1 1 2 3 5
然而,使用 class 改写的这个版本,代码远远没有初版的 fab 函数来得简洁。若是咱们想要保持初版 fab 函数的简洁性,同时又要得到 iterable 的效果,yield 就派上用场了:
def fab(max): n, a, b = 0, 0, 1 while n < max: yield b # print b a, b = b, a + b n = n + 1 '''
第四个版本的 fab 和初版相比,仅仅把 print b 改成了 yield b,就在保持简洁性的同时得到了 iterable 的效果。
调用第四版的 fab 和第二版的 fab 彻底一致:
>>> for n in fab(5): ... print n ... 1 1 2 3 5
简单地讲,yield 的做用就是把一个函数变成一个 generator,带有 yield 的函数再也不是一个普通函数,Python 解释器会将其视为一个 generator,调用 fab(5) 不会执行 fab 函数,而是返回一个 iterable 对象!在 for 循环执行时,每次循环都会执行 fab 函数内部的代码,执行到 yield b 时,fab 函数就返回一个迭代值,下次迭代时,代码从 yield b 的下一条语句继续执行,而函数的本地变量看起来和上次中断执行前是彻底同样的,因而函数继续执行,直到再次遇到 yield。
也能够手动调用 fab(5) 的 next() 方法(由于 fab(5) 是一个 generator 对象,该对象具备 next() 方法),这样咱们就能够更清楚地看到 fab 的执行流程:
>>> f = fab(5) >>> f.next() 1 >>> f.next() 1 >>> f.next() 2 >>> f.next() 3 >>> f.next() 5 >>> f.next() Traceback (most recent call last): File "<stdin>", line 1, in <module> StopIteration
当函数执行结束时,generator 自动抛出 StopIteration 异常,表示迭代完成。在 for 循环里,无需处理 StopIteration 异常,循环会正常结束。
咱们能够得出如下结论:
一 个带有 yield 的函数就是一个 generator,它和普通函数不一样,生成一个 generator 看起来像函数调用,但不会执行任何函数代码,直到对其调用 next()(在 for 循环中会自动调用 next())才开始执行。虽然执行流程仍按函数的流程执行,但每执行到一个 yield 语句就会中断,并返回一个迭代值,下次执行时从 yield 的下一个语句继续执行。看起来就好像一个函数在正常执行的过程当中被 yield 中断了数次,每次中断都会经过 yield 返回当前的迭代值。
yield 的好处是显而易见的,把一个函数改写为一个 generator 就得到了迭代能力,比起用类的实例保存状态来计算下一个 next() 的值,不只代码简洁,并且执行流程异常清晰。
如何判断一个函数是不是一个特殊的 generator 函数?能够利用 isgeneratorfunction 判断:
>>> from inspect import isgeneratorfunction >>> isgeneratorfunction(fab) True
要注意区分 fab 和 fab(5),fab 是一个 generator function,而 fab(5) 是调用 fab 返回的一个 generator,比如类的定义和类的实例的区别:
>>> import types >>> isinstance(fab, types.GeneratorType) False >>> isinstance(fab(5), types.GeneratorType) True
fab 是没法迭代的,而 fab(5) 是可迭代的:
>>> from collections import Iterable >>> isinstance(fab, Iterable) False >>> isinstance(fab(5), Iterable) True
每次调用 fab 函数都会生成一个新的 generator 实例,各实例互不影响:
>>> f1 = fab(3) >>> f2 = fab(5) >>> print 'f1:', f1.next() f1: 1 >>> print 'f2:', f2.next() f2: 1 >>> print 'f1:', f1.next() f1: 1 >>> print 'f2:', f2.next() f2: 1 >>> print 'f1:', f1.next() f1: 2 >>> print 'f2:', f2.next() f2: 2 >>> print 'f2:', f2.next() f2: 3 >>> print 'f2:', f2.next() f2: 5
在一个 generator function 中,若是没有 return,则默认执行至函数完毕,若是在执行过程当中 return,则直接抛出 StopIteration 终止迭代。
另外一个 yield 的例子来源于文件读取。若是直接对文件对象调用 read() 方法,会致使不可预测的内存占用。好的方法是利用固定长度的缓冲区来不断读取文件内容。经过 yield,咱们再也不须要编写读文件的迭代类,就能够轻松实现文件读取:
def read_file(fpath): BLOCK_SIZE = 1024 with open(fpath, 'rb') as f: while True: block = f.read(BLOCK_SIZE) if block: yield block else: return
以上仅仅简单介绍了 yield 的基本概念和用法,yield 在 Python 3 中还有更强大的用法,咱们会在后续文章中讨论。
注:本文的代码均在 Python 2.7 中调试经过