本文经过文章同步功能推送至博客园,显示排版可能会有所错误,请见谅!
生成器能够理解一种自动实现迭代器协议的数据类型,因此生成器自己就是一个迭代器。 python
区别于列表、元组、字符串等可迭代对象,生成器无需调用__iter__()方法直接就能使用next方法进行迭代。 多线程
生成器有两种定义方法: 并发
1.定义一个函数。用yield替代return,调用函数时,当运行到yield时,返回一个值同时函数暂停,直到下一次调用函数,返回下一个yield或Stopitertion错误。 函数
2.生成器表达式。区别于列表解析式,列表解析式使用[]定义,一经生成,直接读入内存。而生成器表达式只有在实际调用时才会读入内存,使用()定义,优点是内存占用小,效率高。 高并发
生成器相比于列表解析式,有几个优势: 测试
1.占用内存小,几乎不占内存 大数据
2.只有在使用next时,才会返回值 优化
3.next以前的值都会被python删除(即占用内存小的缘由) spa
"""使用列表状况""" import time t0 = time.time() def make_baozi(n): """制造n个包子并返回""" return ["包子%s" % i for i in range(1,n+1)] def chi_baozi(*args): '''给我多少个包子我就吃多少个''' for i,x in enumerate(args): print('第%d个客人吃了%s' % (i+1,x)) chi_baozi(*make_baozi(5000000))
全程耗时45.34496521949768秒 线程
此时Python占用内存高达547M且与生产包子数表现出明显正相关
'''生成器优化''' def make_baozi(n): for i in range(1,n+1): yield '包子%d' %i def chi_baozi(x): print('客人吃了%s' % x) mb = make_baozi(5000000) while True: try: chi_baozi(mb.__next__()) except StopIteration: break
全程耗时47.534424781799316秒
此时Python全程占用内存6.2M 且内存占用与生产包子个数不相关
上述代码为测试使用列表解析式和生成器表达式的相关占用区别,能够看出来,生成器几乎不占内存,对于大数据处理内存优化提高十分明显。在这个模拟程序中,总耗时并没有显著区别,主要取决于cpu处理速度。可是对于单个用户体验来讲,总体有所提高(客人吃到包子1的时间明显提早了,而吃到最后一个包子时间则相差无几)。
Python因为全局锁(GIT)的存在,其并发效率低一直受人诟病,而Python的多线程和多进程也存在很多问题并不是很好的解决方案,Python开发社区逐渐将视野转到协程上来,经过多线程/多线程再辅以协程能够提升并发效率,而协程主要基于生成器来实现。关于生成器与协程,请听下回分解。