Google Spanner (中文版)

舒适提示:本论文由厦门大学计算机系林子雨翻译自英文论文,转载请注明出处,仅用于学习交流,请勿用于商业用途。前端

[本文翻译的原始出处:厦门大学计算机系数据库实验室网站林子雨老师的云数据库技术资料专区http://dblab.xmu.edu.cn/topic/research/documentation/cloud_database/]算法

[林子雨翻译的与Goolge Spanner紧密相关的学术文章推荐] Google Bigtable(中文版)数据库

 

[Google2012] James C. Corbett, Jeffrey Dean, Michael Epstein, etc. Spanner: Google’s Globally-Distributed Database.OSDI’2012.编程

Spanner: Google’s Globally-Distributed Database缓存

James C. Corbett, Jeffrey Dean, Michael Epstein, Andrew Fikes, Christopher Frost, JJ Furman,Sanjay Ghemawat, Andrey Gubarev, Christopher Heiser, Peter Hochschild, Wilson Hsieh, Sebastian Kanthak, Eugene Kogan, Hongyi Li, Alexander Lloyd, Sergey Melnik, David Mwaura, David Nagle, Sean Quinlan, Rajesh Rao, Lindsay Rolig, Yasushi Saito, Michal Szymaniak, Christopher Taylor, Ruth Wang, Dale Woodford服务器

Google Inc.网络

本文翻译:厦门大学计算机系 林子雨(http://www.cs.xmu.edu.cn/linziyu)  翻译时间:2012年9月17日-21日数据结构

[请到本网页的底部的“附件”中下载:Google Spanner的英文版原文中文版的PDF文件]架构

Google Spanner (中文版)

摘要:Spanner是谷歌公司研发的、可扩展的、多版本、全球分布式、同步复制数据库。它是第一个把数据分布 在全球范围内的系统,而且支持外部一致性的分布式事务。本文描述了Spanner的架构、特性、不一样设计决策的背后机理和一个新的时间API,这个API 能够暴露时钟的不肯定性。这个API及其实现,对于支持外部一致性和许多强大特性而言,是很是重要的,这些强大特性包括:非阻塞的读、不采用锁机制的只读 事务、原子模式变动。并发

中文关键词:谷歌,分布式数据库

英文关键词: Google, Spanner, Bigtable, Distributed Database

全文目录结构

1. 介绍
2. 实现
2.1 Spanserver软件栈
2.2 目录和放置
2.3 数据模型
3. TrueTime
4. 并发控制
4.1 时间戳管理
4.2 细节
5. 实验分析
5.1 微测试基准
5.2 可用性
5.3 TrueTime
5.4  F1
6. 相关工做
7. 将来的工做
8. 总结
致谢
参考文献

1 介绍

Spanner是一个可扩展的、全球分布式的数据库,是在谷歌公司设计、开发和部署的。在最高抽象层面,Spanner就是一个数据库,把数据分片 存储在许多Paxos[21]状态机上,这些机器位于遍及全球的数据中心内。复制技术能够用来服务于全球可用性和地理局部性。客户端会自动在副本之间进行 失败恢复。随着数据的变化和服务器的变化,Spanner会自动把数据进行从新分片,从而有效应对负载变化和处理失败。Spanner被设计成能够扩展到 几百万个机器节点,跨越成百上千个数据中心,具有几万亿数据库行的规模。
应用能够借助于Spanner来实现高可用性,经过在一个洲的内部和跨越不一样的洲之间复制数据,保证即便面对大范围的天然灾害时数据依然可用。咱们最初的 客户是F1[35],一个谷歌广告后台的从新编程实现。F1使用了跨越美国的5个副本。绝大多数其余应用极可能会在属于同一个地理范围内的3-5个数据中 心内放置数据副本,采用相对独立的失败模式。也就是说,许多应用都会首先选择低延迟,而不是高可用性,只要系统可以从1-2个数据中心失败中恢复过来。

Spanner的主要工做,就是管理跨越多个数据中心的数据副本,可是,在咱们的分布式系统体系架构之上设计和实现重要的数据库特性方面,咱们也花 费了大量的时间。尽管有许多项目能够很好地使用BigTable[9],咱们也不断收到来自客户的抱怨,客户反映BigTable没法应用到一些特定类型 的应用上面,好比具有复杂可变的模式,或者对于在大范围内分布的多个副本数据具备较高的一致性要求。其余研究人员也提出了相似的抱怨[37]。谷歌的许多 应用已经选择使用Megastore[5],主要是由于它的半关系数据模型和对同步复制的支持,尽管Megastore具有较差的写操做吞吐量。因为上述 多个方面的因素,Spanner已经从一个相似BigTable的单一版本的键值存储,演化成为一个具备时间属性的多版本的数据库。数据被存储到模式化 的、半关系的表中,数据被版本化,每一个版本都会自动以提交时间做为时间戳,旧版本的数据会更容易被垃圾回收。应用能够读取旧版本的数据。Spanner支 持通用的事务,提供了基于SQL的查询语言。

做为一个全球分布式数据库,Spanner提供了几个有趣的特性:第一,在数据的副本配置方面,应用能够在一个很细的粒度上进行动态控制。应用能够 详细规定,哪些数据中心包含哪些数据,数据距离用户有多远(控制用户读取数据的延迟),不一样数据副本之间距离有多远(控制写操做的延迟),以及须要维护多 少个副本(控制可用性和读操做性能)。数据也能够被动态和透明地在数据中心之间进行移动,从而平衡不一样数据中心内资源的使用。第二,Spanner有两个 重要的特性,很难在一个分布式数据库上实现,即Spanner提供了读和写操做的外部一致性,以及在一个时间戳下面的跨越数据库的全球一致性的读操做。这 些特性使得Spanner能够支持一致的备份、一致的MapReduce执行[12]和原子模式变动,全部都是在全球范围内实现,即便存在正在处理中的事 务也能够。

之因此能够支持这些特性,是由于Spanner能够为事务分配全球范围内有意义的提交时间戳,即便事务多是分布式的。这些时间戳反映了事务序列化 的顺序。除此之外,这些序列化的顺序知足了外部一致性的要求:若是一个事务T1在另外一个事务T2开始以前就已经提交了,那么,T1的时间戳就要比T2的时 间戳小。Spanner是第一个能够在全球范围内提供这种保证的系统。

实现这种特性的关键技术就是一个新的TrueTime API及其实现。这个API能够直接暴露时钟不肯定性,Spanner时间戳的保证就是取决于这个API实现的界限。若是这个不肯定性很 大,Spanner就下降速度来等待这个大的不肯定性结束。谷歌的簇管理器软件提供了一个TrueTime API的实现。这种实现能够保持较小的不肯定性(一般小于10ms),主要是借助于现代时钟参考值(好比GPS和原子钟)。

第2部分描述了Spanner实现的结构、特性集和工程方面的决策;第3部分介绍咱们的新的TrueTime API,而且描述了它的实现;第4部分描述了Spanner如何使用TrueTime来实现外部一致性的分布式事务、不用锁机制的只读事务和原子模式更 新。第5部分提供了测试Spanner性能和TrueTime行为的测试基准,并讨论了F1的经验。第六、7和8部分讨论了相关工做,并给出总结。

2 实现

本部份内容描述了Spanner的结构和背后的实现机理,而后描述了目录抽象,它被用来管理副本和局部性,并介绍了数据的转移单位。最后,将讨论我 们的数据模型,从而说明,为何Spanner看起来更加像一个关系数据库,而不是一个键值数据库;还会讨论应用如何能够控制数据的局部性。

一个Spanner部署称为一个universe。假设Spanner在全球范围内管理数据,那么,将会只有可数的、运行中的universe。咱们当前正在运行一个测试用的universe,一个部署/线上用的universe和一个只用于线上应用的universe。

Spanner被组织成许多个zone的集合,每一个zone都大概像一个BigTable服务器的部署。zone是管理部署的基本单元。zone的 集合也是数据能够被复制到的位置的集合。当新的数据中心加入服务,或者老的数据中心被关闭时,zone能够被加入到一个运行的系统中,或者从中移除。 zone也是物理隔离的单元,在一个数据中心中,可能有一个或者多个zone,例如,属于不一样应用的数据可能必须被分区存储到同一个数据中心的不一样服务器 集合中。

Google Spanner, 厦门大学, 计算机系,数据库实验室, 林子雨

图1显示了在一个Spanner的universe中的服务器。一个zone包括一个zonemaster,和一百至几千个spanserver。 Zonemaster把数据分配给spanserver,spanserver把数据提供给客户端。客户端使用每一个zone上面的location proxy来定位能够为本身提供数据的spanserver。Universe master和placement driver,当前都只有一个。Universe master主要是一个控制台,它显示了关于zone的各类状态信息,能够用于相互之间的调试。Placement driver会周期性地与spanserver进行交互,来发现那些须要被转移的数据,或者是为了知足新的副本约束条件,或者是为了进行负载均衡。

 

2.1 Spanserver软件栈

本部份内容主要关注spanserver实现,来解释复制和分布式事务是如何被架构到咱们的基于BigTable的实现之上的。图2显示了软件栈。 在底部,每一个spanserver负载管理100-1000个称为tablet的数据结构的实例。一个tablet就相似于BigTable中的 tablet,也实现了下面的映射:

(key:string, timestamp:int64)->string

Google Spanner, 厦门大学,计算机系,数据库实验室,林子雨

与BigTable不一样的是,Spanner会把时间戳分配给数据,这种很是重要的方式,使得Spanner更像一个多版本数据库,而不是一个键值 存储。一个tablet的状态是存储在相似于B-树的文件集合和写前(write-ahead)的日志中,全部这些都会被保存到一个分布式的文件系统中, 这个分布式文件系统被称为Colossus,它继承自Google File System。

为了支持复制,每一个spanserver会在每一个tablet上面实现一个单个的Paxos状态的机器。一个以前实现的Spanner能够支持在每 个tablet上面实现多个Paxos状态机,它能够容许更加灵活的复制配置,可是,这种设计过于复杂,被咱们舍弃了。每一个状态机器都会在相应的 tablet中保存本身的元数据和日志。咱们的Paxos实现支持采用基于时间的领导者租约的长寿命的领导者,时间一般在0到10秒之间。当前的 Spanner实现中,会对每一个Paxos写操做进行两次记录:一次是写入到tablet日志中,一次是写入到Paxos日志中。这种作法只是权宜之计, 咱们之后会进行完善。咱们在Paxos实现上采用了管道化的方式,从而能够在存在广域网延迟时改进Spanner的吞吐量,可是,Paxos会把写操做按 照顺序的方式执行。

Paxos状态机是用来实现一系列被一致性复制的映射。每一个副本的键值映射状态,都会被保存到相应的tablet中。写操做必须在领导者上初始化 Paxos协议,读操做能够直接从底层的任何副本的tablet中访问状态信息,只要这个副本足够新。副本的集合被称为一个Paxos group。

对于每一个是领导者的副本而言,每一个spanserver会实现一个锁表来实现并发控制。这个锁表包含了两阶段锁机制的状态:它把键的值域映射到锁状 态上面。注意,采用一个长寿命的Paxos领导者,对于有效管理锁表而言是很是关键的。在BigTable和Spanner中,咱们都专门为长事务作了设 计,好比,对于报表操做,可能要持续几分钟,当存在冲突时,采用乐观并发控制机制会表现出不好的性能。对于那些须要同步的操做,好比事务型的读操做,须要 得到锁表中的锁,而其余类型的操做则能够不理会锁表。

对于每一个扮演领导者角色的副本,每一个spanserver也会实施一个事务管理器来支持分布式事务。这个事务管理器被用来实现一个 participant leader,该组内的其余副本则是做为participant slaves。若是一个事务只包含一个Paxos组(对于许多事务而言都是如此),它就能够绕过事务管理器,由于锁表和Paxos两者一块儿能够保证事务 性。若是一个事务包含了多于一个Paxos组,那些组的领导者之间会彼此协调合做完成两阶段提交。其中一个参与者组,会被选为协调者,该组的 participant leader被称为coordinator leader,该组的participant slaves被称为coordinator slaves。每一个事务管理器的状态,会被保存到底层的Paxos组。

 

2.2 目录和放置

在一系列键值映射的上层,Spanner实现支持一个被称为“目录”的桶抽象,也就是包含公共前缀的连续键的集合。(选择“目录”做为名称,主要是 因为历史沿袭的考虑,实际上更好的名称应该是“桶”)。咱们会在第2.3节解释前缀的源头。对目录的支持,可让应用经过选择合适的键来控制数据的局部 性。

一个目录是数据放置的基本单元。属于一个目录的全部数据,都具备相同的副本配置。当数据在不一样的Paxos组之间进行移动时,会一个目录一个目录地 转移,如图3所示。Spanner可能会移动一个目录从而减轻一个Paxos组的负担,也可能会把那些被频繁地一块儿访问的目录都放置到同一个组中,或者会 把一个目录转移到距离访问者更近的地方。当客户端操做正在进行时,也能够进行目录的转移。咱们能够预期在几秒内转移50MB的目录。

Google Spanner,厦门大学,计算机系,数据库实验室,林子雨

一个Paxos组能够包含多个目录,这意味着一个Spanner tablet是不一样于一个BigTable tablet的。一个Spanner tablet没有必要是一个行空间内按照词典顺序连续的分区,相反,它能够是行空间内的多个分区。咱们作出这个决定,是由于这样作可让多个被频繁一块儿访 问的目录被整合到一块儿。

Movedir是一个后台任务,用来在不一样的Paxos组之间转移目录[14]。Movedir也用来为Paxos组增长和删除副本[25],由于 Spanner目前还不支持在一个Paxos内部进行配置的变动。Movedir并非做为一个事务来实现,这样能够避免在一个块数据转移过程当中阻塞正在 进行的读操做和写操做。相反,Movedir会注册一个事实(fact),代表它要转移数据,而后在后台运行转移数据。当它几乎快要转移完指定数量的数据 时,就会启动一个事务来自动转移那部分数据,而且为两个Paxos组更新元数据。

一个目录也是一个应用能够指定的地理复制属性(即放置策略)的最小单元。咱们的放置规范语言的设计,把管理复制的配置这个任务单独分离出来。管理员 须要控制两个维度:副本的数量和类型,以及这些副本的地理放置属性。他们在这两个维度里面建立了一个命名选项的菜单。经过为每一个数据库或单独的目录增长这 些命名选项的组合,一个应用就能够控制数据的复制。例如,一个应用可能会在本身的目录里存储每一个终端用户的数据,这就有可能使得用户A的数据在欧洲有三个 副本,用户B的数据在北美有5个副本。

为了表达的清晰性,咱们已经作了尽可能简化。事实上,当一个目录变得太大时,Spanner会把它分片存储。每一个分片可能会被保存到不一样的Paxos组上(所以就意味着来自不一样的服务器)。Movedir在不一样组之间转移的是分片,而不是转移整个目录。

2.3 数据模型

Spanner会把下面的数据特性集合暴露给应用:基于模式化的半关系表的数据模型,查询语言和通用事务。支持这些特性的动机,是受到许多因素驱动 的。须要支持模式化的半关系表是由Megastore[5]的普及来支持的。在谷歌内部至少有300个应用使用Megastore(尽管它具备相对低的性 能),由于它的数据模型要比BigTable简单,更易于管理,而且支持在跨数据中心层面进行同步复制。BigTable只能够支持跨数据中心的最终事务 一致性。使用Megastore的著名的谷歌应用是Gmail,Picasa,Calendar,Android Market, AppEngine。在Spanner中须要支持SQL类型的查询语言,也很显然是很是必要的,由于Dremel[28]做为交互式分析工具已经很是普 及。最后,在BigTable中跨行事务的缺少来致使了用户频繁的抱怨;Percolator[32]的开发就是用来部分解决这个问题的。一些做者都在抱 怨,通用的两阶段提交的代价过于昂贵,由于它会带来可用性问题和性能问题[9][10][19]。咱们认为,最好让应用程序开发人员来处理因为过分使用事 务引发的性能问题,而不是老是围绕着“缺乏事务”进行编程。在Paxos上运行两阶段提交弱化了可用性问题。

应用的数据模型是架构在被目录桶装的键值映射层之上。一个应用会在一个universe中建立一个或者多个数据库。每一个数据库能够包含无限数量的模 式化的表。每一个表都和关系数据库表相似,具有行、列和版本值。咱们不会详细介绍Spanner的查询语言,它看起来很像SQL,只是作了一些扩展。

Spanner的数据模型不是纯粹关系型的,它的行必须有名称。更准确地说,每一个表都须要有包含一个或多个主键列的排序集合。这种需求,让 Spanner看起来仍然有点像键值存储:主键造成了一个行的名称,每一个表都定义了从主键列到非主键列的映射。当一个行存在时,必需要求已经给行的一些键 定义了一些值(即便是NULL)。采用这种结构是颇有用的,由于这可让应用经过选择键来控制数据的局部性。

Google Spanner, 厦门大学,计算机系,数据库实验室,林子雨

图4包含了一个Spanner模式的实例,它是以每一个用户和每一个相册为基础存储图片元数据。这个模式语言和Megastore的相似,同时增长了额 外的要求,即每一个Spanner数据库必须被客户端分割成一个或多个表的层次结构(hierarchy)。客户端应用会使用INTERLEAVE IN语句在数据库模式中声明这个层次结构。这个层次结构上面的表,是一个目录表。目录表中的每行都具备键K,和子孙表中的全部以K开始(以字典顺序排序) 的行一块儿,构成了一个目录。ON DELETE CASCADE意味着,若是删除目录中的一个行,也会级联删除全部相关的子孙行。这个图也解释了这个实例数据库的交织层次(interleaved layout),例如Albums(2,1)表明了来自Albums表的、对应于user_id=2和album_id=1的行。这种表的交织层次造成目 录,是很是重要的,由于它容许客户端来描述存在于多个表之间的位置关系,这对于一个分片的分布式数据库的性能而言是很重要的。没有它的话,Spanner 就没法知道最重要的位置关系。

3 TrueTime

Google Spanner, 厦门大学, 计算机系,数据库实验室, 林子雨

        本部份内容描述TrueTime API,并大概给出它的实现方法。咱们把大量细节内容放在另外一篇论文中,咱们的目标是展现这种API的力量。表1列出了API的方法。TrueTime会 显式地把时间表达成TTinterval,这是一个时间区间,具备有界限的时间不肯定性(不像其余的标准时间接口,没有为客户端提供“不肯定性”这种概 念)。TTinterval区间的端点是TTstamp类型。TT.now()方法会  返回一个TTinterval,它能够保证包含TT.now()方法在调用时的绝对时间。这个时间和具有闰秒涂抹(leap-second smearing)的UNIX时间同样。把即时偏差边界定义为ε,平均偏差边界为(林子雨注:“ε上边一个横杠”,表示平均值)。TT.after()和 TT.before()方法是针对TT.now()的便捷的包装器。

       表示一个事件e的绝对时间,能够利用函数tabs(e)。若是用更加形式化的术语,TrueTime能够保证,对于一个调用tt=TT.now(),有tt.earliest≤tabs(enow)≤tt.latest,其中,是enow是调用的事件。

       在底层,TrueTime使用的时间是GPS和原子钟。TrueTime使用两种类型的时间,是由于它们有不一样的失败模式。GPS参考时间的弱点是天线和 接收器失效、局部电磁干扰和相关失败(好比设计上的缺陷致使没法正确处理闰秒和电子欺骗),以及GPS系统运行中断。原子钟也会失效,不过失效的方式和 GPS无关,不一样原子钟之间的失效也没有彼此关联。因为存在频率偏差,在通过很长的时间之后,原子钟都会产生明显偏差。

       TrueTime是由每一个数据中心上面的许多time master机器和每台机器上的一个timeslave daemon来共同实现的。大多数master都有具有专用天线的GPS接收器,这些master在物理上是相互隔离的,这样能够减小天线失效、电磁干扰 和电子欺骗的影响。剩余的master(咱们称为Armageddon master)则配备了原子钟。一个原子钟并非很昂贵:一个Armageddon master的花费和一个GPS master的花费是同一个数量级的。全部master的时间参考值都会进行彼此校对。每一个master也会交叉检查时间参考值和本地时间的比值,若是二 者差异太大,就会把本身驱逐出去。在同步期间,Armageddon master会表现出一个逐渐增长的时间不肯定性,这是由保守应用的最差时钟漂移引发的。GPS master表现出的时间不肯定性几乎接近于0。

       每一个daemon会从许多master[29]中收集投票,得到时间参考值,从而减小偏差。被选中的master中,有些master是GPS master,是从附近的数据中心得到的,剩余的GPS master是从远处的数据中心得到的;还有一些是Armageddon master。Daemon会使用一个Marzullo算法[27]的变种,来探测和拒绝欺骗,而且把本地时钟同步到非撒谎master的时间参考值。为 了免受较差的本地时钟的影响,咱们会根据组件规范和运行环境肯定一个界限,若是机器的本地时钟偏差频繁超出这个界限,这个机器就会被驱逐出去。

       在同步期间,一个daemon会表现出逐渐增长的时间不肯定性。ε是从保守应用的最差时钟漂移中获得的。ε也取决于time master的不肯定性,以及与time master之间的通信延迟。在咱们的线上应用环境中,ε一般是一个关于时间的锯齿形函数。在每一个投票间隔中,ε会在1到7ms之间变化。所以,在大多数 状况下,ε的平均值是4ms。Daemon的投票间隔,在当前是30秒,当前使用的时钟漂移比率是200微秒/秒,两者一块儿意味着0到6ms的锯齿形边 界。剩余的1ms主要来自到time master的通信延迟。在失败的时候,超过这个锯齿形边界也是有可能的。例如,偶尔的time master不肯定性,可能会引发整个数据中心范围内的ε值的增长。相似的,过载的机器或者网络链接,都会致使ε值偶尔地局部增大。

4. 并发控制

本部份内容描述TrueTime如何能够用来保证并发控制的正确性,以及这些属性如何用来实现一些关键特性,好比外部一 致性的事务、无锁机制的只读事务、针对历史数据的非阻塞读。这些特性能够保证,在时间戳为t的时刻的数据库读操做,必定只能看到在t时刻以前已经提交的事 务。

       进一步说,把Spanner客户端的写操做和Paxos看到的写操做这两者进行区分,是很是重要的,咱们把Paxos看到的写操做称为Paxos写操做。例如,两阶段提交会为准备提交阶段生成一个Paxos写操做,这时不会有相应的客户端写操做。

4.1 时间戳管理

表2列出了Spanner支持的操做的类型。Spanner能够支持读写事务、只读事务(预先声明的快照隔离事务)和快照读。独立写操做,会被当成 读写事务来执行。非快照独立读操做,会被当成只读事务来执行。两者都是在内部进行retry,客户端不用进行这种retry loop。

 

Google Spanner, 厦门大学, 计算机系,数据库实验室, 林子雨

        一个只读事务具有快照隔离的性能优点[6]。一个只读事务必须事先被声明不会包含任何写操做,它并非一个简单的不包含写操做的读写事务。在一个只读事务 中的读操做,在执行时会采用一个系统选择的时间戳,不包含锁机制,所以,后面到达的写操做不会被阻塞。在一个只读事务中的读操做,能够到任何足够新的副本 上去执行(见第4.1.3节)。

       一个快照读操做,是针对历史数据的读取,执行过程当中,不须要锁机制。一个客户端能够为快照读肯定一个时间戳,或者提供一个时间范围让Spanner来自动选择时间戳。无论是哪一种状况,快照读操做均可以在任何具备足够新的副本上执行。

       对于只读事务和快照读而言,一旦已经选定一个时间戳,那么,提交就是不可避免的,除非在那个时间点的数据已经被垃圾回收了。所以,客户端没必要在retry loop中缓存结果。当一个服务器失效的时候,客户端就可使用一样的时间戳和当前的读位置,在另一个服务器上继续执行读操做。

4.2 细节

林子雨注:上面是Google Spanner(中文版)的核心内容,第4节“并发控制”的剩余内容,没有在网页中给出,而是放在PDF文件中(请到本网页的底部“附件”中下载PDF文件),由于,第4节“并发控制”的剩余内容,公式太多,没法放入网页。并且,根据本人的阅读,上述给出的内容已经能够帮助读者基本了解Google Spanner的概貌,剩余的内容是一些琐碎的细节,我的感受读起来比较晦涩,若是不是深刻研究须要,能够不用继续阅读第4节“并发控制”的剩余内容

5. 实验分析

       咱们对Spanner性能进行了测试,包括复制、事务和可用性。而后,咱们提供了一些关于TrueTime的实验数据,而且提供了咱们的第一个用例——F1。

5.1 微测试基准

        表3给出了一个用于Spanner的微测试基准(microbenchmark)。这些测试是在分时机器上实现的:每一个spanserver采用4GB内 存和四核CPU(AMD Barcelona 2200MHz)。客户端运行在单独的机器上。每一个zone都包含一个spanserver。客户端和zone都放在一个数据中心集合内,它们之间的网络 距离不会超过1ms。(这种布局是很普通的,许多数据并不须要把数据分散存储到全球各地)。测试数据库具备50个Paxos组和2500个目录。操做都是 独立的4KB大小的读和写。All reads were served out of memory after a compaction,从而使得咱们只须要衡量Spanner调用栈的开销。此外,还会进行一轮读操做,来预热任何位置的缓存。

Google Spanner, 厦门大学, 计算机系,数据库实验室, 林子雨

        对于延迟实验而言,客户端会发起足够少许的操做,从而避免在服务器中发生排队。从1个副本的实验中,提交等待大约是5ms,Paxos延迟大约是9ms。 随着副本数量的增长,延迟大约保持不变,只具备不多的标准差,由于在一个组的副本内,Paxos会并行执行。随着副本数量的增长,得到指定投票数量的延 迟,对一个slave副本的慢速度不会很敏感。

       对于吞吐量的实验而言,客户端发起足够数量的操做,从而使得CPU处理能力达到饱和。快照读操做能够在任何足够新的副本上进行,所以,快照读的吞吐量会随 着副本的数量增长而线性增长。单个读的只读事务,只会在领导者上执行,由于,时间戳分配必须发生在领导者上。只读事务吞吐量会随着副本数量的增长而增长, 由于有效的spanserver的数量会增长:在这个实验的设置中,spanserver的数量和副本的数量相同,领导者会被随机分配到不一样的zone。 写操做的吞吐量也会从这种实验设置中得到收益(副本从3变到5时写操做吞吐量增长了,就可以说明这点),可是,随着副本数量的增长,每一个写操做执行时须要 完成的工做量也会线性增长,这就会抵消前面的收益。

       表4显示了两阶段提交能够扩展到合理数量的参与者:它是对一系列实验的总结,这些实验运行在3个zone上,每一个zone具备25个 spanserver。扩展到50个参与者,不管在平均值仍是第99个百分位方面,都是合理的。在100个参与者的情形下,延迟开始明显增长。

Google Spanner, 厦门大学, 计算机系,数据库实验室, 林子雨

5.2 可用性

        图5显示了在多个数据中心运行Spanner时的可用性方面的收益。它显示了三个吞吐量实验的结果,而且存在数据中心失败的情形,全部三个实验结果都被重 叠放置到一个时间轴上。测试用的universe包含5个zone Zi,每一个zone都拥有25个spanserver。测试数据库被分片成1250个Paxos组,100个客户端不断地发送非快照读操做,累积速率是每 秒50K个读操做。全部领导者都会被显式地放置到Z1。每一个测试进行5秒钟之后,一个zone中的全部服务器都会被“杀死”:non-leader杀掉 Z2,leader-hard杀掉Z1,leader-soft杀掉Z1,可是,它会首先通知全部服务器它们将要交出领导权。

Google Spanner, 厦门大学, 计算机系,数据库实验室, 林子雨

        杀掉Z2对于读操做吞吐量没有影响。杀掉Z1,给领导者一些时间来把领导权交给另外一个zone时,会产生一个小的影响:吞吐量会降低,不是很明显,大概下 降3-4%。另外一方面,没有预警就杀掉Z1有一个明显的影响:完成率几乎降低到0。随着领导者被从新选择,系统的吞吐量会增长到大约每秒100K个读操 做,主要是因为咱们的实验设置:系统中有额外的能力,当找不到领导者时操做会排队。由此致使的结果是,系统的吞吐量会增长直到到达系统恒定的速率。

       咱们能够看看把Paxos领导者租约设置为10s的效果。当咱们杀掉这个zone,对于这个组的领导者租约的过时时间,会均匀地分布到接下来的10秒钟 内。来自一个死亡的领导者的每一个租约一旦过时,就会选择一个新的领导者。大约在杀死时间过去10秒钟之后,全部的组都会有领导者,吞吐量就恢复了。短的租 约时间会下降服务器死亡对于可用性的影响,可是,须要更多的更新租约的网络通信开销。咱们正在设计和实现一种机制,它能够在领导者失效的时候,让 slave释放Paxos领导者租约。

5.3 TrueTime

关于TrueTime,必须回答两个问题:ε是否就是时钟不肯定性的边界?ε会变得多糟糕?对于第一个问题,最严峻的问题就是,若是一个局部的时钟 漂移大于200us/sec,那就会破坏TrueTime的假设。咱们的机器统计数据显示,坏的CPU的出现几率要比坏的时钟出现几率大6倍。也就是说, 与更加严峻的硬件问题相比,时钟问题是不多见的。由此,咱们也相信,TrueTime的实现和Spanner其余软件组件同样,具备很好的可靠性,值得信 任。

        图6显示了TrueTime数据,是从几千个spanserver中收集的,这些spanserver 跨越了多个数据中心,距离2200千米以上。图中描述了ε的第90个、99个和99.9个百分位的状况,是在对timemaster进行投票后当即对 timeslave daemon进行样本抽样的。这些抽样数据没有考虑因为时钟不肯定性带来的ε值的锯齿,所以测量的是timemaster不肯定性(一般是0)再加上通信 延迟。

Google Spanner, 厦门大学, 计算机系,数据库实验室, 林子雨

        图6中的数据显示了,在决定ε的基本值方面的上述两个问题,一般都不会是个问题。可是,可能会存在明显的拖尾延迟问题,那会引发更高的ε值。图中,3月 30日拖尾延迟的下降,是由于网络的改进,减小了瞬间网络链接的拥堵。在4月13日ε的值增长了,持续了大约1个小时,主要是由于例行维护时关闭了两个 time master。咱们会继续调研而且消除引发TrueTime突变的因素。

5.4  F1

       Spanner在2011年早期开始进行在线负载测试,它是做为谷歌广告后台F1[35]的从新实现的一部分。这个后台最开始是基于MySQL数据库,在 许多方面都采用手工数据分区。未经压缩的数据能够达到几十TB,虽然这对于许多NoSQL实例而言数据量是很小的,可是,对于采用数据分区的MySQL而 言,数据量是很是大的。MySQL的数据分片机制,会把每一个客户和全部相关的数据分配给一个固定的分区。这种布局方式,能够支持针对单个客户的索引构建和 复杂查询处理,可是,须要了解一些商业知识来设计分区。随着客户数量的增加,对数据进行从新分区,代价是很大的。最近一次的从新分区,花费了两年的时间, 为了下降风险,在多个团队之间进行了大量的合做和测试。这种操做太复杂了,没法经常执行,由此致使的结果是,团队必须限制MySQL数据库的增加,方法 是,把一些数据存储在外部的Bigtable中,这就会牺牲事务和查询全部数据的能力。

       F1团队选择使用Spanner有几个方面的缘由。首先,Spanner不须要手工分区。其次,Spanner提供了同步复制和自动失败恢复。在采用 MySQL的master-slave复制方法时,很难进行失败恢复,会有数据丢失和当机的风险。再次,F1须要强壮的事务语义,这使得使用其余 NoSQL系统是不实际的。应用语义须要跨越任意数据的事务和一致性读。F1团队也须要在他们的数据上构建二级索引(由于Spanner没有提供对二级索 引的自动支持),也有能力使用Spanner事务来实现他们本身的一致性全球索引。

       全部应用写操做,如今都是默认从F1发送到Spanner。而不是发送到基于MySQL的应用栈。F1在美国的西岸有两个副本,在东岸有三个副本。这种副 本位置的选择,是为了不发生天然灾害时出现服务中止问题,也是出于前端应用的位置的考虑。实际上,Spanner的失败自动恢复,几乎是不可见的。在过 去的几个月中,尽管有不在计划内的机群失效,可是,F1团队最须要作的工做仍然是更新他们的数据库模式,来告诉Spanner在哪里放置Paxos领导 者,从而使得它们尽可能靠近应用前端。

       Spanner时间戳语义,使得它对于F1而言,能够高效地维护从数据库状态计算获得的、放在内存中的数据结构。F1会为全部变动都维护一个逻辑历史日 志,它会做为每一个事务的一部分写入到Spanner。F1会获得某个时间戳下的数据的完整快照,来初始化它的数据结构,而后根据数据的增量变化来更新这个 数据结构。

       表5显示了F1中每一个目录的分片数量的分布状况。每一个目录一般对应于F1上的应用栈中的一个用户。绝大多数目录(同时意味着绝大多数用户)都只会包含一个 分片,这就意味着,对于这些用户数据的读和写操做只会发生在一个服务器上。多于100个分片的目录,是那些包含F1二级索引的表:对这些表的多个分片进行 写操做,是极其不寻常的。F1团队也只是在以事务的方式进行未经优化的批量数据加载时,才会碰到这种情形。

Google Spanner, 厦门大学, 计算机系,数据库实验室, 林子雨

表6显示了从F1服务器来测量的Spanner操做的延迟。在东海岸数据中心的副本,在选择Paxos领导者方面会得到更高的优先级。表6中的数据 是从这些数据中心的F1服务器上测量获得的。写操做延迟分布上存在较大的标准差,是因为锁冲突引发的肥尾效应(fat tail)。在读操做延迟分布上存在更大的标准差,部分是由于Paxos领导者跨越了两个数据中心,只有其中的一个是采用了固态盘的机器。此外,测试内容 还包括系统中的每一个针对两个数据中心的读操做:字节读操做的平均值和标准差分别是1.6KB和119KB。

Google Spanner, 厦门大学, 计算机系,数据库实验室, 林子雨

 

6. 相关工做

       Megastore[5]和DynamoDB[3]已经提供了跨越多个数据中心的一致性复制。DynamoDB提供了键值存储接口,只能在一个 region内部进行复制。Spanner和Megastore同样,都提供了半关系数据模型,甚至采用了相似的模式语言。Megastore没法得到高 性能。Megastore是架构在Bigtable之上,这带来了很高的通信代价。Megastore也不支持长寿命的领导者,多个副本可能会发起写操 做。来自不一样副本的写操做,在Paxos协议下必定会发生冲突,即便他们不会发生逻辑冲突:会严重影响吞吐量,在一个Paxos组内每秒钟只能执行几个写 操做。Spanner提供了更高的性能,通用的事务和外部一致性。

       Pavlo等人[31]对数据库和MapReduce[12]的性能进行了比较。他们指出了几个努力的方向,能够在分布式键值存储之上充分利用数据库的功 能[1][4][7][41],两者能够实现充分的融合。咱们比较赞同这个结论,而且认为集成多个层是具备优点的:把复制和并发控制集成起来,能够减小 Spanner中的提交等待代价。

       在一个采用了复制的存储上面实现事务,能够至少追述到Gifford的论文[16]。Scatter[17]是一个最近的基于DHT的键值存储,能够在一 致性复制上面实现事务。Spanner则要比Scatter在更高的层次上提供接口。Gray和Lamport[18]描述了一个基于Paxos的非阻塞 的提交协议,他们的协议会比两阶段提交协议带来更多的代价,而两阶段提交协议在大范围分布式的组中的代价会进一步恶化。Walter[36]提供了一个快 照隔离的变种,可是没法跨越数据中心。相反,咱们的只读事务提供了一个更加天然的语义,由于,咱们对于全部的操做都支持外部语义。

       最近,在减小或者消除锁开销方面已经有大量的研究工做。Calvin[40]消除了并发控制:它会从新分配时间戳,而后以时间戳的顺序执行事务。 HStore[39]和Granola[11]都支持本身的事务类型划分方法,有些事务类型能够避免锁机制。可是,这些系统都没法提供外部一致性。 Spanner经过提供快照隔离,解决了冲突问题。

       VoltDB[42]是一个分片的内存数据库,能够支持在大范围区域内进行主从复制,支持灾难恢复,可是没有提供通用的复制配置方法。它是一个被称为 NewSQL的实例,这是实现可扩展的SQL[38]的强大的市场推进力。许多商业化的数据库均可以支持历史数据读取,好比Marklogic[26]和 Oracle’ Total Recall[30]。Lomet和Li[24]对于这种时间数据库描述了一种实现策略。

       Faresite给出了与一个受信任的时钟参考值相关的、时钟不肯定性的边界[13](要比TrueTime更加宽松):Farsite中的服务器租约的 方式,和Spanner中维护Paxos租约的方式相同。在以前的工做中[2][23],宽松同步时钟已经被用来进行并发控制。咱们已经展现了 TrueTime能够从Paxos状态机集合中推导出全球时间。

7. 将来的工做

       在过去一年的大部分时间里,咱们都是F1团队一块儿工做,把谷歌的广告后台从MySQL迁移到Spanner。咱们正在积极改进它的监控和支撑工具,同时在 优化性能。此外,咱们已经开展了大量工做来改进备份恢复系统的功能和性能。咱们当前正在实现Spanner模式语言,自动维护二级索引和自动基于负载的分 区。在将来,咱们会调研更多的特性。以最优化的方式并行执行读操做,是咱们追求的有价值的策略,可是,初级阶段的实验代表,实现这个目标比较艰难。此外, 咱们计划最终能够支持直接变动Paxos配置[22][34]。

       咱们但愿许多应用均可以跨越数据中心进行复制,而且这些数据中心彼此靠近。TrueTime ε可能会明显影响性能。把ε值下降到1ms之内,并不存在不可克服的障碍。Time-master-query间隔能够继续减小,Time- master-query延迟应该随着网络的改进而减小,或者经过采用分时技术来避免延迟。

       最后,还有许多有待改进的方面。尽管Spanner在节点数量上是可扩展的,可是与节点相关的数据结构在复杂的SQL查询上的性能相对较差,由于,它们是 被设计成服务于简单的键值访问的。来自数据库文献的算法和数据结构,能够极大改进单个节点的性能。另外,根据客户端负载的变化,在数据中心之间自动转移数 据,已经成为咱们的一个目标,可是,为了有效实现这个目标,咱们必须具有在数据中心之间自动、协调地转移客户端应用进程的能力。转移进程会带来更加困难的 问题——如何在数据中心之间管理和分配资源。

8. 总结

       总的来讲,Spanner对来自两个研究群体的概念进行告终合和扩充:一个是数据库研究群体,包括熟悉易用的半关系接口,事务和基于SQL的查询语言;另 一个是系统研究群体,包括可扩展性,自动分区,容错,一致性复制,外部一致性和大范围分布。自从Spanner概念成形,咱们花费了5年以上的时间来完成 当前版本的设计和实现。花费这么长的时间,一部分缘由在于咱们慢慢意识到,Spanner不该该仅仅解决全球复制的命名空间问题,并且也应该关注 Bigtable中所丢失的数据库特性。

       咱们的设计中一个亮点特性就是TrueTime。咱们已经代表,在时间API中明确给出时钟不肯定性,能够以更增强壮的时间语义来构建分布式系统。此外, 由于底层的系统在时钟不肯定性上采用更加严格的边界,实现更强壮的时间语义的代价就会减小。做为一个研究群体,咱们在设计分布式算法时,再也不依赖于弱同步 的时钟和较弱的时间API。

致谢

       许多人帮助改进了这篇论文:Jon Howell,Atul Adya, Fay Chang, Frank Dabek, Sean Dorward, Bob Gruber, David Held, Nick Kline, Alex Thomson, and Joel Wein. 咱们的管理层对于咱们的工做和论文发表都很是支持:Aristotle Balogh, Bill Coughran, Urs H¨olzle, Doron Meyer, Cos Nicolaou, Kathy Polizzi, Sridhar Ramaswany, and Shivakumar Venkataraman.

         咱们的工做是在Bigtable和Megastore团队的工做基础之上开展的。F1团队,尤为是Jeff Shute

,和咱们一块儿工做,开发了数据模型,跟踪性能和纠正漏洞。Platforms团队,尤为是Luiz Barroso和Bob Felderman,帮助咱们一块儿实现了TrueTime。最后,许多谷歌员工都曾经在咱们的团队工做过,包括Ken Ashcraft, Paul Cychosz, Krzysztof Ostrowski, Amir Voskoboynik, Matthew Weaver, Theo Vassilakis, and Eric Veach; or have joined our team recently: Nathan Bales, Adam Beberg, Vadim Borisov, Ken Chen, Brian Cooper, Cian Cullinan, Robert-Jan Huijsman, Milind Joshi, Andrey Khorlin, Dawid Kuroczko, Laramie Leavitt, Eric Li, Mike Mammarella, Sunil Mushran, Simon Nielsen, Ovidiu Platon, Ananth Shrinivas, Vadim Suvorov, and Marcel van der Holst.

 

参考文献

[1] Azza Abouzeid et al. “HadoopDB: an architectural hybrid of MapReduce and DBMS technologies for analytical workloads”. Proc. of VLDB. 2009, pp. 922–933.

[2] A. Adya et al. “Efficient optimistic concurrency control using loosely synchronized clocks”. Proc. of SIGMOD. 1995, pp. 23–34.

[3] Amazon. Amazon DynamoDB. 2012.

[4] Michael Armbrust et al. “PIQL: Success-Tolerant Query Processing in the Cloud”. Proc. of VLDB. 2011, pp. 181–192.

[5] Jason Baker et al. “Megastore: Providing Scalable, Highly Available Storage for Interactive Services”. Proc. of CIDR. 2011, pp. 223–234.

[6] Hal Berenson et al. “A critique of ANSI SQL isolation levels”. Proc. of SIGMOD. 1995, pp. 1–10.

[7] Matthias Brantner et al. “Building a database on S3”. Proc. of SIGMOD. 2008, pp. 251–264.

[8] A. Chan and R. Gray. “Implementing Distributed Read-Only Transactions”. IEEE TOSE SE-11.2 (Feb. 1985), pp. 205–212.

[9] Fay Chang et al. “Bigtable: A Distributed Storage System for Structured Data”. ACM TOCS 26.2 (June 2008), 4:1–4:26.

[10] Brian F. Cooper et al. “PNUTS: Yahoo!’s hosted data serving platform”. Proc. of VLDB. 2008, pp. 1277–1288.

[11] James Cowling and Barbara Liskov. “Granola: Low-Overhead Distributed Transaction Coordination”. Proc. of USENIX ATC. 2012, pp. 223–236.

[12] Jeffrey Dean and Sanjay Ghemawat. “MapReduce: a flexible data processing tool”. CACM 53.1 (Jan. 2010), pp. 72–77.

[13] John Douceur and Jon Howell. Scalable Byzantine-Fault-Quantifying Clock Synchronization. Tech. rep. MSR-TR-2003-67. MS Research, 2003.

[14] John R. Douceur and Jon Howell. “Distributed directory service in the Farsite file system”. Proc. of OSDI. 2006, pp. 321–334.

[15] Sanjay Ghemawat, Howard Gobioff, and Shun-Tak Leung. “The Google file system”. Proc. of SOSP. Dec. 2003, pp. 29–43.

[16] David K. Gifford. Information Storage in a Decentralized Computer System. Tech. rep. CSL-81-8. PhD dissertation. Xerox PARC, July 1982.

[17] Lisa Glendenning et al. “Scalable consistency in Scatter”. Proc. of SOSP. 2011.

[18] Jim Gray and Leslie Lamport. “Consensus on transaction commit”. ACM TODS 31.1 (Mar. 2006), pp. 133–160.

[19] Pat Helland. “Life beyond Distributed Transactions: an Apostate’s Opinion”. Proc. of CIDR. 2007, pp. 132–141.

[20] Maurice P. Herlihy and Jeannette M. Wing. “Linearizability: a correctness condition for concurrent objects”. ACM TOPLAS 12.3 (July 1990), pp. 463–492.

[21] Leslie Lamport. “The part-time parliament”. ACM TOCS 16.2 (May 1998), pp. 133–169.

[22] Leslie Lamport, Dahlia Malkhi, and Lidong Zhou. “Reconfiguring a state machine”. SIGACT News 41.1 (Mar. 2010), pp. 63–73.

[23] Barbara Liskov. “Practical uses of synchronized clocks in distributed systems”. Distrib. Comput. 6.4 (July 1993), pp. 211–219.

[24] David B. Lomet and Feifei Li. “Improving Transaction-Time DBMS Performance and Functionality”. Proc. of ICDE (2009), pp. 581–591.

[25] Jacob R. Lorch et al. “The SMART way to migrate replicated stateful services”. Proc. of EuroSys. 2006, pp. 103–115.

[26] MarkLogic. MarkLogic 5 Product Documentation. 2012.

[27] Keith Marzullo and Susan Owicki. “Maintaining the time in a distributed system”. Proc. of PODC. 1983, pp. 295–305.

[28] Sergey Melnik et al. “Dremel: Interactive Analysis of Web-Scale Datasets”. Proc. of VLDB. 2010, pp. 330–339.

[29] D.L. Mills. Time synchronization in DCNET hosts. Internet Project Report IEN–173. COMSAT Laboratories, Feb. 1981.

[30] Oracle. Oracle Total Recall. 2012.

[31] Andrew Pavlo et al. “A comparison of approaches to large-scale data analysis”. Proc. of SIGMOD. 2009, pp. 165–178.

[32] Daniel Peng and Frank Dabek. “Large-scale incremental processing using distributed transactions and notifications”. Proc. of OSDI. 2010, pp. 1–15.

[33] Daniel J. Rosenkrantz, Richard E. Stearns, and Philip M. Lewis II. “System level concurrency control for distributed database systems”. ACM TODS 3.2 (June 1978), pp. 178–198.

[34] Alexander Shraer et al. “Dynamic Reconfiguration of Primary/Backup Clusters”. Proc. of  SENIX ATC. 2012, pp. 425–438.

[35] Jeff Shute et al. “F1—The Fault-Tolerant Distributed RDBMS Supporting Google’s Ad Business”. Proc. of SIGMOD. May 2012, pp. 777–778.

[36] Yair Sovran et al. “Transactional storage for geo-replicated systems”. Proc. of SOSP. 2011, pp. 385–400.

[37] Michael Stonebraker. Why Enterprises Are Uninterested in NoSQL. 2010.

[38] Michael Stonebraker. Six SQL Urban Myths. 2010.

[39] Michael Stonebraker et al. “The end of an architectural era: (it’s time for a complete rewrite)”. Proc. of VLDB. 2007, pp. 1150–1160.

[40] Alexander Thomson et al. “Calvin: Fast Distributed Transactions for Partitioned Database Systems”. Proc. of SIGMOD.2012, pp. 1–12.

[41] Ashish Thusoo et al. “Hive — A Petabyte Scale Data Warehouse Using Hadoop”. Proc. of ICDE. 2010, pp. 996–1005.

[42] VoltDB. VoltDB Resources. 2012.

(厦门大学计算机系数据库实验室教师 林子雨 翻译 2012年9月17日-21日)

[请到本网页的底部的“附件”中下载:Google Spanner的英文版原文中文版的PDF文件]

[林子雨翻译的与Goolge Spanner紧密相关的学术文章推荐] Google Bigtable(中文版)

相关文章
相关标签/搜索