摘要: HBase的rowkey设计一直都是难点和痛点,不合适的rowkey设计会致使读写性能、吞吐不佳等诸多问题。本文从数据分布问题展开,介绍HBase基于Range的分布策略与region的调度问题,详细讨论了rowkey的比较规则及其应用,但愿可以加深用户对HBase数据分布机制和rowkey的理解,从而作出更合适的设计,精准、高效的使用HBase。
福利:国际顶级盛会HBaseCon Asia 2018将于8月在北京举行,目前正免费开放申请中,更多详情参考https://yq.aliyun.com/promotion/631web
若是你对大数据存储、分布式数据库、HBase等感兴趣,欢迎加入咱们,一块儿作最好的大数据在线存储,职位参考及联系方式:https://maimai.cn/job?webjid=1heZGIyM4&srcu=1aOrffoj1&src=app&fr=my_jobsrecruit_job数据库
分布式产生的根源是“规模”,规模可理解为计算和存储的需求。当单机能力没法承载日益增加的计算存储需求时,就要寻求对系统的扩展方法。一般有两种扩展方式:提高单机能力(scale up),增长机器(scale out,水平扩展)。限于硬件技术,单机能力的提高在一个阶段内是有上限的;而水平扩展在理论上能够是无限的,同时,也更廉价、更容易落地。水平扩展能够经过快速、简单的“加机器”,有效解决业务快速增加的问题,这几乎是现代分布式系统必备的能力。对于爆发式增加的业务,水平扩展彷佛是惟一可选择的方案。缓存
对于存储系统而言,本来存储在一台机器上的数据,如今要存放在多台机器上。此时必须解决两个问题:分片,复制。服务器
分片和副本是正交的,这意味着咱们能够只使用其中一种或都使用,但一般都是同时使用的。由于分片解决的是规模和扩展性的问题,副本解决可靠、可用性的问题。对于一个生产可用的系统,两者必须同时具有。网络
从使用者/客户端的角度看,分片和副本能够归结为同一个问题:请求路由,即请求应该发送给哪台机器来处理。架构
不管客户端的请求是直达服务端(如HBase/cassandra),仍是经过代理(如公有云上的基于gateway的访问方式),请求路由都是分布式系统必须解决的问题。app
不管是分片仍是副本,本质上都是数据分布的体现。下面咱们来看HBase的数据分布模型。负载均衡
HBase的数据分片按表进行,以行为粒度,基于rowkey范围进行拆分,每一个分片称为一个region。一个集群有多张表,每张表划分为多个region,每台服务器服务不少region。因此,HBase的服务器称为RegionServer,简称RS。RS与表是正交的,即一张表的region会分布到多台RS上,一台RS也会调度多张表的region。以下图所示:运维
“以行为粒度”,意思是行是region划分的最小单位,即一行数据要么属于A region,要么属于Bregion,不会被拆到两个region中去。(对行进行拆分的方式是“垂直分库”,一般只能在业务层面进行,HBase是水平拆分)分布式
HBase的副本机制是经过经过底层的HDFS实现的。因此,HBase的副本与分片是解耦的,是存储计算分离的。这使得region能够在RS之间灵活的移动,而不须要进行数据迁移,这赋予了HBase秒级扩容的能力和极大的灵活性。
对于单个表而言,一个“好”的数据分布,应该是每一个region的数据量大小相近,请求量(吞吐)接近,每台机器调度的region数量大体相同。这样,这张表的数据和访问可以均匀的分布在整个集群中,从而获得最好的资源利用率和服务质量,即达到负载均衡。当集群进行扩容、缩容时,咱们但愿这种“均衡”可以自动保持。若是数据分布未能实现负载均衡,则负载较高的机器很容易称为整个系统的瓶颈,这台机器的响应慢,可能致使客户端的大部分线程都在等待这台机器返回,从而影响总体吞吐。因此,负载均衡是region划分和调度的重要目标。
这里涉及到3层面的负载均衡问题:
可见,一行数据的分布(找到一行数据所在的RS),存在2个层级的路由:一是rowkey到region的路由,二是region到RS的路由。这一点是HBase可以实现灵活调度、秒级扩容的关键。后面咱们会详细讨论。本文仅讨论前面两个问题,第三个问题放在后续的文章中讨论。
首先,咱们来看数据的逻辑分布,即一张表如何划分红多个region。
region划分的粒度是行,region就是这个表中多个连续的行构成的集合。行的惟一标识符是rowkey,因此,能够将region理解为一段连续分布的rowkey的集合。因此,称这种方式为基于rowkey范围的划分。
一个region负责的rowkey范围是一个左闭右开区间,因此,后一个region的start key是前一个region的end key。注意,第一个region是没有start key的,最后一个region是没有end key的。这样,这个表的全部region加在一块儿就能覆盖任意的rowkey值域。以下图所示:
上图中,region1是第一个region,没有startKey,region3是最后一个region,没有endKey。图中的region分布是比较均匀的,即每一个region的行数是至关的,那么,这个分布是怎么获得的呢?或者说,region的边界是如何肯定的?
通常来讲,region的生成有3种方式:
建表时若是未显式指定region分布,HBase就会只建立一个region,这个region天然也只能由一台机器进行调度(后面会讨论一个region由多个RS调度的状况)。那这个region的吞吐上限就是单机的吞吐上限。若是经过合理的预分区将表分红8个region,分布在8台RS上,那整表的吞吐上限就是8台机器的吞吐上限。
因此,为了使表从一开始就具有良好的吞吐和性能,实际生产环境中建表一般都须要进行预分区。但也有一些例外,好比没法预先对rowkey范围进行预估,或者,不容易对rowkey范围进行均匀的拆分,此时,也能够建立只有一个region的表,由系统本身分裂,从而逐渐造成一个“均匀的”region分布。
好比一张存储多个公司的员工信息的表,rowkey组成是orgId + userid,其中orgId是公司的id。因为每一个公司的人数是不肯定的,同时也多是差异很大的,因此,很难肯定一个region中包含几个orgId是合适的。此时,能够为其建立单region的表,而后导入初始数据,随着数据的导入进行region的自动分裂,一般都能获得比较理想的region分布。若是后续公司人员发生较大的变化,也能够随时进行region的分裂与合并,来得到最佳分布。
上一节咱们提到region的rowkey范围是一个左闭右开区间,全部落在这个范围的rowkey都属于这个region。为了进行这个判断,必须将其与这个region的起止rowkey进行比较。除了region归属的判断,在region内部,也须要依赖rowkey的比较规则来对rowkey进行排序。
不少人都会认为rowkey的比较很是简单,没有什么讨论的必要。但正是由于简单,它的使用才能灵活多样,使得HBase具有无限的可能性。能够说,rowkey的比较规则是整个HBase数据模型的核心,直接影响了整个请求路由体系的设计、读写链路、rowkey设计、scan的使用等,贯穿整个HBase。对于用户而言,深刻理解这个规则及其应用有助于作出良好的表设计,写出精准、高效的scan。
HBase的rowkey是一串二进制数据,在Java中就是一个byte[],是一行数据的惟一标识符。而业务的主键多是有各类数据类型的,因此,这里要解决2个问题:
rowkey的比较就是byte[]的比较,按字典序进行比较(二进制排序),简单说,就是c语言中memcmp函数。经过下面的示例,咱们经过排序结果来对这一比较规则以及数据类型转换进行理解。
(1)ascii码的大小比较
1234 -> 0x31 32 33 34
5 -> 0x35
从ascii码表示的数字来看,1234 > 5, 但从字典序来看,1234 < 5
(2)具备相同前缀的ascii码比较
1234 -> 0x31 32 33 34
12340 -> 0x31 32 33 34 00
在C语言中,字符串通常是以0本身结尾的。本例的两个字符串虽然前缀相同,但第二个末尾多了0字节,则第二个“较大”。
(3)正数与负数的比较
int类型的100 -> 0x00 00 00 64
int类型的-100 -> 0xFF FF FF 9C
100 > -100,但其二进制表达中,100 < -100
咱们能够将这个比较规则总结以下:
常见的rowkey编码问题:
下面经过一个前缀扫描的案例来体会一下这个比较规则的应用。
Hbase的rowkey能够理解为单一主键列。若是业务场景须要多列一块儿构成联合主键(也叫多列主键,组合主键,复合主键等等),就须要将多列拼接为一列。通常来讲,直接将二进制拼接在一块儿便可。例如:
rowkey组成:userId + ts
为了简单,假设userid和ts都是定长的,且只有1个字节。例如:
如今,咱们要作的事情是,查找某个userid = 2的全部数据。这是一个典型的前缀扫描场景,咱们须要构造一个Scan操做来完成:设置正确扫描范围[startRow, stopRow),与region的边界同样,scan的范围也是一个左闭右开区间。
一个直接的思路是找到最小和最大的ts,与userid = 2拼接,做为查询范围,即[0x02 00, 0x02 FF)。因为scan是左臂右开区间,则0x02 FF不会被做为结果返回。因此,这个方案不可行。
正确的scan范围必须知足:
那如何利用rowkey的排序规则来“找到”这样一个扫描范围呢?
正确的扫描范围是[0x02, 0x03)。
0x02比任何userid = 2的行都小。由于ts这一列是缺失的。同理,0x03比任何userid = 2的行都大,又比任何userId = 3的行都小。可见,要实现前缀扫描,只根据前缀的值就能够获得所需的startRow和stopRow,而不须要知道后面的列及其含义。
请读者仔细体会这个例子,而后思考下面几个场景该如何构造startRow和stopRow(答案见文末)。
还有下面这些组合场景:
如今,已经能够感觉到使用scan的难点和痛点所在了。在上面的例子中,只有两个定长的列,但在实际业务中,列多是变长的,有各类各样的数据类型,各类丰富的查询模式。此时,构造一个正确、高效的scan是有难度的。那为何会有这些问题呢?有没有系统性的解决方案呢?
从形式是看,这是一个“如何将业务查询逻辑转换为HBase的查询逻辑”的问题,本质上是关系表模型到KV模型的映射问题。HBase仅提供了KV层的API,使得用户不得不本身实现这两个模型之间的转换。因此,才会有上面这么多的难点问题。不只是HBase,全部的KV存储系统在面临复杂的业务模型时,都面临相同的困境。
这个问题的解法是SQL on NoSQL,业界这类方案有不少(如Hive,presto等),HBase之上的方案就是Phoenix。此类方案经过引入SQL来解决NoSQL的易用性问题。对于传统的关系型数据库,虽然有强大的SQL和事务支持,但扩展性和性能受限,为了解决性能问题,MySQL提供了基于Memcached的KV访问方式;为了解决扩展性问题,有了各类NewSQL的产品,如Spanner/F1,TiDB,CockroachDB等。NoSQL在作SQL,支持SQL的在作KV,咱们能够想象一下将来的存储、数据库系统会是什么样子。这个话题很大,不在本文的讨论范围内,这里就不展开了。
前面咱们讨论了将一张表的行经过合理的region划分,能够获得数据量大体接近的region分布。经过合理的运维手段(region的分裂与合并),咱们能够通保证在系统持续运行期间的region分布均匀。此时,数据在逻辑上的拆分已经能够实现均匀。本节中咱们看一下region如何分布在RS上,以及客户端如何定位region。
由于region的rowkey范围自己的不肯定性或者主观性(人为拆分),没法经过一个数学公式来计算rowkey属于哪一个region(对比一致性hash的分片方式)。所以,基于范围进行的分片方式,须要一个元数据表来记录一个表被划分为哪些region,每一个region的起止rowkey是什么。这个元数据表就是meta表,在HBase1.x版本中表名是“hbase:meta”(在094或更老的版本中,是-ROOT-和.META.两个元数据表)。
咱们从Put操做来简要的了解region的定位过程。
不管读仍是写,其定位region的逻辑都是如此。为了下降客户端对meta表的访问,客户端会缓存region location信息,当且仅当缓存不正确时,才须要访问meta表来获取最新的信息。因此,HBase的请求路由是一种基于路由表的解决方案。相对应的,基于一致性Hash的分片方式,则是经过计算来获得分布信息的。
这种基于路由表的方式
region的灵活调度,结合存储计算分离的架构,赋予了HBase极其强大的能力。
这两点,是众多基于一致性hash的分片方案没法作到的。固然,为了得到这种灵活性,HBase所付出的代价就是复杂的meta表管理机制。其中比较关键的问题就是meta表的单点问题。例如:大量的客户端都会请求meta表来获取region location,meta表的负载较高,会限制获取location的总体吞吐,从而限制集群的规模和客户端规模。
对于一个拥有数百台机器,数十万region的集群来讲,这套机制能够很好的工做。但当集群规模进一步扩展,触及到meta表的访问上限时,就会因meta表的访问阻塞而影响服务。固然,绝大多数的业务场景都是没法触达这个临界规模的。
meta表的问题能够有不少种解决思路,最简单的方式就是副本。例如TiDB的PD服务,获取location的请求能够发送给任何一台PD服务器。
下面咱们讨论region调度问题:
对于第一个问题,HBase的默认均衡策略是:以表为单位,每一个RS上调度尽量相同数量的region。
这个策略假设各个region的数据量分布相对均匀,每一个region的请求相对均匀。此时,该策略很是有效。这也是目前使用最多的一种。同时,HBase也提供了基于负载的调度(StochasticLoadBalancer),会综合考虑多种因素来进行调度决策,不过,暂时缺乏生产环境使用的案例和数据。
对于第二个问题,region同一时间只在一台RS上调度,使得HBase在请求成功的状况下提供了强一致的语义,即写成功的数据能够当即被读到。其代价是region的单点调度,即region所在的服务器由于各类缘由产生抖动,都会影响这个region的服务质量。咱们可将影响region服务的问题分为两类:
这些事件发生时,会对这个region的服务或多或少产生一些影响。尤为在宕机场景,从ZK发现节点宕机到region的re-assign,split log,log replay,一些列步骤执行完,通常都须要1分钟以上的时间。对于宕机节点上的region,意味着这段时间这些region都没法服务。
解决方案依然是副本方案,让region在多个RS上调度,客户端选择其中一个进行访问,这个特性叫“region replia”。引入副本必然带来额外的成本和一致性问题。目前这个特性的实现并未下降MTTR时间,内存水位的控制、脏读,使得这个特性仍未在生产中大规模使用。
Hbase的数据分布与region调度问题,放大到整个分布式系统中,是任务的拆分与调度问题,这个话题的内涵大到足以写几本书。本文只是从HBase这个切面来对数据分片这个话题进行一些讨论,但愿可以加深读者对HBase rowkey和region概念的思考和理解,不管是数据库的用户仍是开发,都可以从这个讨论中有所收获。
正文中一些查询场景所对应的scan range:
本文做者:杨晗
本文为云栖社区原创内容,未经容许不得转载。