这是 “Python 工匠”系列的第四篇文章。[查看系列全部文章]html
容器”这两个字不多被 Python 技术文章提起。一看到“容器”,你们想到的可能是那头蓝色小鲸鱼:Docker,但这篇文章和它没有任何关系。本文里的容器,是 Python 中的一个抽象概念,是对专门用来装其余对象的数据类型的统称。python
在 Python 中,有四类最多见的内建容器类型:列表(list)
、元组(tuple)
、字典(dict)
、集合(set)
。经过单独或是组合使用它们,能够高效的完成不少事情。git
Python 语言自身的内部实现细节也与这些容器类型息息相关。好比 Python 的类实例属性、全局变量 globals()
等就都是经过字典类型来存储的。github
在这篇文章里,我首先会从容器类型的定义出发,尝试总结出一些平常编码的最佳实践。以后再围绕各个容器类型提供的特殊机能,分享一些编程的小技巧。编程
我在前面给了“容器”一个简单的定义:专门用来装其余对象的就是容器。但这个定义太宽泛了,没法对咱们的平常编程产生什么指导价值。要真正掌握 Python 里的容器,须要分别从两个层面入手:数组
下面,让咱们一块儿站在这两个不一样的层面上,从新认识容器。bash
Python 是一门高级编程语言,**它所提供的内置容器类型,都是通过高度封装和抽象后的结果。**和“链表”、“红黑树”、“哈希表”这些名字相比,全部 Python 内建类型的名字,都只描述了这个类型的功能特色,其余人彻底无法只经过这些名字了解它们的哪怕一丁点内部细节。数据结构
这是 Python 编程语言的优点之一。相比 C 语言这类更接近计算机底层的编程语言,Python 从新设计并实现了对编程者更友好的内置容器类型,屏蔽掉了内存管理等额外工做。为咱们提供了更好的开发体验。app
但若是这是 Python 语言的优点的话,为何咱们还要费劲去了解容器类型的实现细节呢?答案是:关注细节能够帮助咱们编写出更快的代码。less
全部的内建容器类型都不限制容量。若是你愿意,你能够把递增的数字不断塞进一个空列表,最终撑爆整台机器的内存。
在 Python 语言的实现细节里,列表的内存是按需分配的[注1],当某个列表当前拥有的内存不够时,便会触发内存扩容逻辑。而分配内存是一项昂贵的操做。虽然大部分状况下,它不会对你的程序性能产生什么严重的影响。可是当你处理的数据量特别大时,很容易由于内存分配拖累整个程序的性能。
还好,Python 早就意识到了这个问题,并提供了官方的问题解决指引,那就是:“变懒”。
如何解释“变懒”?range()
函数的进化是一个很是好的例子。
在 Python 2 中,若是你调用 range(100000000)
,须要等待好几秒才能拿到结果,由于它须要返回一个巨大的列表,花费了很是多的时间在内存分配与计算上。但在 Python 3 中,一样的调用立刻就能拿到结果。由于函数返回的再也不是列表,而是一个类型为 range
的懒惰对象,只有在你迭代它、或是对它进行切片时,它才会返回真正的数字给你。
**因此说,为了提升性能,内建函数 range
“变懒”了。**而为了不过于频繁的内存分配,在平常编码中,咱们的函数一样也须要变懒,这包括:
yield
关键字,返回生成器对象(i for in range(100))
👍[i for in range(100)]
re.finditer
替代 re.findall
for line in fp
,而不是 for line in fp.readlines()
列表是基于数组结构(Array)实现的,当你在列表的头部插入新成员(list.insert(0, item)
)时,它后面的全部其余成员都须要被移动,操做的时间复杂度是 O(n)
。这致使在列表的头部插入成员远比在尾部追加(list.append(item)
时间复杂度为 O(1)
)要慢。
若是你的代码须要执行不少次这类操做,请考虑使用 collections.deque 类型来替代列表。由于 deque 是基于双端队列实现的,不管是在头部仍是尾部追加元素,时间复杂度都是 O(1)
。
当你须要判断成员是否存在于某个容器时,用集合比列表更合适。由于 item in [...]
操做的时间复杂度是 O(n)
,而 item in {...}
的时间复杂度是 O(1)
。这是由于字典与集合都是基于哈希表(Hash Table)数据结构实现的。
# 这个例子不是特别恰当,由于当目标集合特别小时,使用集合仍是列表对效率的影响微乎其微
# 但这不是重点 :)
VALID_NAMES = ["piglei", "raymond", "bojack", "caroline"]
# 转换为集合类型专门用于成员判断
VALID_NAMES_SET = set(VALID_NAMES)
def validate_name(name):
if name not in VALID_NAMES_SET:
raise ValueError(f"{name} is not a valid name!")
复制代码
Hint: 强烈建议阅读 TimeComplexity - Python Wiki,了解更多关于常见容器类型的时间复杂度相关内容。
若是你对字典的实现细节感兴趣,也强烈建议观看 Raymond Hettinger 的演讲 Modern Dictionaries(YouTube)
Python 是一门“鸭子类型”语言:*“当看到一只鸟走起来像鸭子、游泳起来像鸭子、叫起来也像鸭子,那么这只鸟就能够被称为鸭子。”*因此,当咱们说某个对象是什么类型时,在根本上其实指的是:**这个对象知足了该类型的特定接口规范,能够被当成这个类型来使用。**而对于全部内置容器类型来讲,一样如此。
打开位于 collections 模块下的 abc*(“抽象类 Abstract Base Classes”的首字母缩写)*子模块,能够找到全部与容器相关的接口(抽象类)[注2]定义。让咱们分别看看那些内建容器类型都知足了什么接口:
Iterable
、Sequence
、MutableSequence
等接口Iterable
、Sequence
Iterable
、Mapping
、MutableMapping
[注3]Iterable
、Set
、MutableSet
[注4]每一个内置容器类型,其实就是知足了多个接口定义的组合实体。好比全部的容器类型都知足 “可被迭代的”(Iterable
) 这个接口,这意味着它们都是“可被迭代”的。可是反过来,不是全部“可被迭代”的对象都是容器。就像字符串虽然能够被迭代,但咱们一般不会把它当作“容器”来看待。
了解这个事实后,咱们将在 Python 里从新认识面向对象编程中最重要的原则之一:面向接口而非具体实现来编程。
让咱们经过一个例子,看看如何理解 Python 里的“面向接口编程”。
某日,咱们接到一个需求:有一个列表,里面装着不少用户评论,为了在页面正常展现,须要将全部超过必定长度的评论用省略号替代。
这个需求很好作,很快咱们就写出了第一个版本的代码:
# 注:为了增强示例代码的说明性,本文中的部分代码片断使用了Python 3.5
# 版本添加的 Type Hinting 特性
def add_ellipsis(comments: typing.List[str], max_length: int = 12):
"""若是评论列表里的内容超过 max_length,剩下的字符用省略号代替 """
index = 0
for comment in comments:
comment = comment.strip()
if len(comment) > max_length:
comments[index] = comment[:max_length] + '...'
index += 1
return comments
comments = [
"Implementation note",
"Changed",
"ABC for generator",
]
print("\n".join(add_ellipsis(comments)))
# OUTPUT:
# Implementati...
# Changed
# ABC for gene...
复制代码
上面的代码里,add_ellipsis
函数接收一个列表做为参数,而后遍历它,替换掉须要修改的成员。这一切看上去很合理,由于咱们接到的最原始需求就是:“有一个 列表,里面...”。但若是有一天,咱们拿到的评论再也不是被继续装在列表里,而是在不可变的元组里呢?
那样的话,现有的函数设计就会逼迫咱们写出 add_ellipsis(list(comments))
这种即慢又难看的代码了。😨
咱们须要改进函数来避免这个问题。由于 add_ellipsis
函数强依赖了列表类型,因此当参数类型变为元组时,如今的函数就再也不适用了*(缘由:给 comments[index]
赋值的地方会抛出 TypeError
异常)*。如何改善这部分的设计?秘诀就是:让函数依赖“可迭代对象”这个抽象概念,而非实体列表类型。
使用生成器特性,函数能够被改为这样:
def add_ellipsis_gen(comments: typing.Iterable[str], max_length: int = 12):
"""若是可迭代评论里的内容超过 max_length,剩下的字符用省略号代替 """
for comment in comments:
comment = comment.strip()
if len(comment) > max_length:
yield comment[:max_length] + '...'
else:
yield comment
print("\n".join(add_ellipsis_gen(comments)))
复制代码
在新函数里,咱们将依赖的参数类型从列表改为了可迭代的抽象类。这样作有不少好处,一个最明显的就是:不管评论是来自列表、元组或是某个文件,新函数均可以轻松知足:
# 处理放在元组里的评论
comments = ("Implementation note", "Changed", "ABC for generator")
print("\n".join(add_ellipsis_gen(comments)))
# 处理放在文件里的评论
with open("comments") as fp:
for comment in add_ellipsis_gen(fp):
print(comment)
复制代码
将依赖由某个具体的容器类型改成抽象接口后,函数的适用面变得更广了。除此以外,新函数在执行效率等方面也都更有优点。如今让咱们再回到以前的问题。从高层来看,什么定义了容器?
答案是:**各个容器类型实现的接口协议定义了容器。**不一样的容器类型在咱们的眼里,应该是 是否能够迭代
、是否能够修改
、有没有长度
等各类特性的组合。咱们须要在编写相关代码时,更多的关注容器的抽象属性,而非容器类型自己,这样能够帮助咱们写出更优雅、扩展性更好的代码。
Hint:在 itertools 内置模块里能够找到更多关于处理可迭代对象的宝藏。
有时,咱们的代码里会出现超过三个分支的 if/else
。就像下面这样:
import time
def from_now(ts):
"""接收一个过去的时间戳,返回距离当前时间的相对时间文字描述 """
now = time.time()
seconds_delta = int(now - ts)
if seconds_delta < 1:
return "less than 1 second ago"
elif seconds_delta < 60:
return "{} seconds ago".format(seconds_delta)
elif seconds_delta < 3600:
return "{} minutes ago".format(seconds_delta // 60)
elif seconds_delta < 3600 * 24:
return "{} hours ago".format(seconds_delta // 3600)
else:
return "{} days ago".format(seconds_delta // (3600 * 24))
now = time.time()
print(from_now(now))
print(from_now(now - 24))
print(from_now(now - 600))
print(from_now(now - 7500))
print(from_now(now - 87500))
# OUTPUT:
# less than 1 second ago
# 24 seconds ago
# 10 minutes ago
# 2 hours ago
# 1 days ago
复制代码
上面这个函数挑不出太多毛病,不少不少人都会写出相似的代码。可是,若是你仔细观察它,能够在分支代码部分找到一些明显的**“边界”**。好比,当函数判断某个时间是否应该用“秒数”展现时,用到了 60
。而判断是否应该用分钟时,用到了 3600
。
**从边界提炼规律是优化这段代码的关键。**若是咱们将全部的这些边界放在一个有序元组中,而后配合二分查找模块 bisect。整个函数的控制流就能被大大简化:
import bisect
# BREAKPOINTS 必须是已经排好序的,否则没法进行二分查找
BREAKPOINTS = (1, 60, 3600, 3600 * 24)
TMPLS = (
# unit, template
(1, "less than 1 second ago"),
(1, "{units} seconds ago"),
(60, "{units} minutes ago"),
(3600, "{units} hours ago"),
(3600 * 24, "{units} days ago"),
)
def from_now(ts):
"""接收一个过去的时间戳,返回距离当前时间的相对时间文字描述 """
seconds_delta = int(time.time() - ts)
unit, tmpl = TMPLS[bisect.bisect(BREAKPOINTS, seconds_delta)]
return tmpl.format(units=seconds_delta // unit)
复制代码
除了用元组能够优化过多的 if/else
分支外,有些状况下字典也能被用来作一样的事情。关键在于从现有代码找到重复的逻辑与规律,并多多尝试。
动态解包操做是指使用 *
或 **
运算符将可迭代对象“解开”的行为,在 Python 2 时代,这个操做只能被用在函数参数部分,而且对出现顺序和数量都有很是严格的要求,使用场景很是单一。
def calc(a, b, multiplier=1):
return (a + b) * multiplier
# Python2 中只支持在函数参数部分进行动态解包
print calc(*[1, 2], **{"multiplier": 10})
# OUTPUT: 30
复制代码
不过,Python 3 尤为是 3.5 版本后,*
和 **
的使用场景被大大扩充了。举个例子,在 Python 2 中,若是咱们须要合并两个字典,须要这么作:
def merge_dict(d1, d2):
# 由于字典是可被修改的对象,为了不修改原对象,此处须要复制一个 d1 的浅拷贝
result = d1.copy()
result.update(d2)
return result
user = merge_dict({"name": "piglei"}, {"movies": ["Fight Club"]})
复制代码
可是在 Python 3.5 之后的版本,你能够直接用 **
运算符来快速完成字典的合并操做:
user = {**{"name": "piglei"}, **{"movies": ["Fight Club"]}}
复制代码
除此以外,你还能够在普通赋值语句中使用 *
运算符来动态的解包可迭代对象。若是你想详细了解相关内容,能够阅读下面推荐的 PEP。
Hint:推动动态解包场景扩充的两个 PEP:
这个小标题可能会稍微让人有点懵,让我来简短的解释一下:“获取许可”与“要求原谅”是两种不一样的编程风格。若是用一个经典的需求:“计算列表内各个元素出现的次数” 来做为例子,两种不一样风格的代码会是这样:
# AF: Ask for Forgiveness
# 要作就作,若是抛出异常了,再处理异常
def counter_af(l):
result = {}
for key in l:
try:
result[key] += 1
except KeyError:
result[key] = 1
return result
# AP: Ask for Permission
# 作以前,先问问能不能作,能够作再作
def counter_ap(l):
result = {}
for key in l:
if key in result:
result[key] += 1
else:
result[key] = 1
return result
复制代码
整个 Python 社区对第一种 Ask for Forgiveness 的异常捕获式编程风格有着明显的偏心。这其中有不少缘由,首先,在 Python 中抛出异常是一个很轻量的操做。其次,第一种作法在性能上也要优于第二种,由于它不用在每次循环的时候都作一次额外的成员检查。
不过,示例里的两段代码在现实世界中都很是少见。为何?由于若是你想统计次数的话,直接用 collections.defaultdict
就能够了:
from collections import defaultdict
def counter_by_collections(l):
result = defaultdict(int)
for key in l:
result[key] += 1
return result
复制代码
这样的代码既不用“获取许可”,也无需“请求原谅”。整个代码的控制流变得更清晰天然了。因此,若是可能的话,请尽可能想办法省略掉那些非核心的异常捕获逻辑。一些小提示:
collections.defaultdict
类型
dict[key] = dict.setdefault(key, 0) + 1
内建函数dict.pop(key, None)
dict.get(key, default_value)
IndexError
异常:["foo"][100:200]
next()
是一个很是实用的内建函数,它接收一个迭代器做为参数,而后返回该迭代器的下一个元素。使用它配合生成器表达式,能够高效的实现“*从列表中查找第一个知足条件的成员”*之类的需求。
numbers = [3, 7, 8, 2, 21]
# 获取并 **当即返回** 列表里的第一个偶数
print(next(i for i in numbers if i % 2 == 0))
# OUTPUT: 8
复制代码
字典和集合的结构特色保证了它们的成员不会重复,因此它们常常被用来去重。可是,使用它们俩去重后的结果会丢失原有列表的顺序。这是由底层数据结构“哈希表(Hash Table)”的特色决定的。
>>> l = [10, 2, 3, 21, 10, 3]
# 去重可是丢失了顺序
>>> set(l)
{3, 10, 2, 21}
复制代码
若是既须要去重又必须保留顺序怎么办?咱们可使用 collections.OrderedDict
模块:
>>> from collections import OrderedDict
>>> list(OrderedDict.fromkeys(l).keys())
[10, 2, 3, 21]
复制代码
Hint: 在 Python 3.6 中,默认的字典类型修改了实现方式,已经变成有序的了。而且在 Python 3.7 中,该功能已经从 语言的实现细节 变成了为 可依赖的正式语言特性。
可是我以为让整个 Python 社区习惯这一点还须要一些时间,毕竟目前“字典是无序的”仍是被印在无数本 Python 书上。因此,我仍然建议在一切须要有序字典的地方使用 OrderedDict。
在文章前面,咱们提到了使用“懒惰”生成器的种种好处。可是,全部事物都有它的两面性。生成器的最大的缺点之一就是:它会枯竭。当你完整遍历过它们后,以后的重复遍历就不能拿到任何新内容了。
numbers = [1, 2, 3]
numbers = (i * 2 for i in numbers)
# 第一次循环会输出 2, 4, 6
for number in numbers:
print(number)
# 此次循环什么都不会输出,由于迭代器已经枯竭了
for number in numbers:
print(number)
复制代码
并且不光是生成器表达式,Python 3 里的 map、filter 内建函数也都有同样的特色。忽视这个特色很容易致使代码中出现一些难以察觉的 Bug。
Instagram 就在项目从 Python 2 到 Python 3 的迁移过程当中碰到了这个问题。它们在 PyCon 2017 上分享了对付这个问题的故事。访问文章 Instagram 在 PyCon 2017 的演讲摘要,搜索“迭代器”能够查看详细内容。
这是一个不少 Python 初学者会犯的错误。好比,咱们须要一个函数来删掉列表里的全部偶数:
def remove_even(numbers):
"""去掉列表里全部的偶数 """
for i, number in enumerate(numbers):
if number % 2 == 0:
# 有问题的代码
del numbers[i]
numbers = [1, 2, 7, 4, 8, 11]
remove_even(numbers)
print(numbers)
# OUTPUT: [1, 7, 8, 11]
复制代码
注意到结果里那个多出来的 “8” 了吗?当你在遍历一个列表的同时修改它,就会出现这样的事情。由于被迭代的对象 numbers
在循环过程当中被修改了。遍历的下标在不断增加,而列表自己的长度同时又在不断缩减。这样就会致使列表里的一些成员其实根本就没有被遍历到。
因此对于这类操做,请使用一个新的空列表保存结果,或者利用 yield
返回一个生成器。而不是修改被迭代的列表或是字典对象自己。
在这篇文章中,咱们首先从“容器类型”的定义出发,在底层和高层两个层面探讨了容器类型。以后遵循系列文章传统,提供了一些编写容器相关代码时的技巧。
让咱们最后再总结一下要点:
next()
函数配合迭代器能够高效完成不少事情,可是也须要注意“枯竭”问题看完文章的你,有没有什么想吐槽的?请留言或者在 项目 Github Issues 告诉我吧。