HBase(九)HBase表以及Rowkey的设计

一 命名空间

1 命名空间的结构

1) Table:表,全部的表都是命名空间的成员,即表必属于某个命名空间,若是没有指定, 则在 default 默认的命名空间中。正则表达式

2) RegionServer group:一个命名空间包含了默认的 RegionServer Group。算法

3) Permission:权限,命名空间可以让咱们来定义访问控制列表 ACL(Access Control List)。例如,建立表,读取表,删除,更新等等操做。shell

4) Quota:限额,能够强制一个命名空间可包含的 region 的数量。(属性:hbase.quota.enabled)apache

2 命名空间的使用

1) 建立命名空间api

hbase(main):002:0> create_namespace 'ns_school'

2) 建立表时指定命名空间数组

hbase(main):004:0> create 'ns_school:tbl_student','info'

3) 观察 HDFS 中的目录结构的变化 缓存

 

二. 建表高级属性

  下面几个 shell 命令在 hbase 操做中能够起到很大的做用,且主要体如今建表的过程当中,看 下面几个 create 属性并发

1. BLOOMFILTER

  默认是 NONE 是否使用布隆过虑及使用何种方式,布隆过滤能够每列族单独启用 使用 HColumnDescriptor.setBloomFilterType(NONE | ROW | ROWCOL) 对列族单独启用布隆app

  Default = ROW 对行进行布隆过滤负载均衡

  对 ROW,行键的哈希在每次插入行时将被添加到布隆

  对 ROWCOL,行键 + 列族 + 列族修饰的哈希将在每次插入行时添加到布隆

  使用方法: create 'table',{BLOOMFILTER =>'ROW'}

  做用:用布隆过滤能够节省读磁盘过程,能够有助于下降读取延迟

2. VERSIONS

  默认是 1 这个参数的意思是数据保留 1 个 版本,若是咱们认为咱们的数据没有这么大 的必要保留这么多,随时都在更新,而老版本的数据对咱们毫无价值,那将此参数设为 1 能 节约 2/3 的空间

  使用方法: create 'table',{VERSIONS=>'2'}

  附:MIN_VERSIONS => '0'是说在 compact 操做执行以后,至少要保留的版本

3. COMPRESSION

  默认值是 NONE 即不使用压缩,这个参数意思是该列族是否采用压缩,采用什么压缩算 法,方法: create 'table',{NAME=>'info',COMPRESSION=>'SNAPPY'} ,建议采用 SNAPPY 压缩算 法 ,HBase 中,在 Snappy 发布以前(Google 2011 年对外发布 Snappy),采用的 LZO 算法,目标是达到尽量快的压缩和解压速度,同时减小对 CPU 的消耗;

  在 Snappy 发布以后,建议采用 Snappy 算法(参考《HBase: The Definitive Guide》),具体 能够根据实际状况对 LZO 和 Snappy 作过更详细的对比测试后再作选择。

  若是建表之初没有压缩,后来想要加入压缩算法,能够经过 alter 修改 schema

4. TTL

  默认是 2147483647 即:Integer.MAX_VALUE 值大概是 68 年,这个参数是说明该列族数据的存活时间,单位是 s

  这个参数能够根据具体的需求对数据设定存活时间,超过存过期间的数据将在表中不在 显示,待下次 major compact 的时候再完全删除数据

  注意的是 TTL 设定以后 MIN_VERSIONS=>'0' 这样设置以后,TTL 时间戳过时后,将所有 完全删除该 family 下全部的数据,若是 MIN_VERSIONS 不等于 0 那将保留最新的 MIN_VERSIONS 个版本的数据,其它的所有删除,好比 MIN_VERSIONS=>'1' 届时将保留一个 最新版本的数据,其它版本的数据将再也不保存。

5. alter

使用方法:

  如 修改压缩算法

disable 'table'
alter 'table',{NAME=>'info',COMPRESSION=>'snappy'}
enable 'table'

  可是须要执行 major_compact 'table' 命令以后 才会作实际的操做。 

6. describe/desc

  这个命令查看了 create table 的各项参数或者是默认值。

  使用方式:describe 'user_info'

7. disable_all/enable_all

  disable_all 'toplist.*' disable_all 支持正则表达式,并列出当前匹配的表的以下:

 toplist_a_total_1001
 toplist_a_total_1002
 toplist_a_total_1008
 toplist_a_total_1009
 toplist_a_total_1019
 toplist_a_total_1035
 ...
 Disable the above 25 tables (y/n)? 并给出确认提示

8. drop_all

  这个命令和 disable_all 的使用方式是同样的

9. hbase 预分区

  默认状况下,在建立 HBase 表的时候会自动建立一个 region 分区,当导入数据的时候, 全部的 HBase 客户端都向这一个 region 写数据,直到这个 region 足够大了才进行切分。一 种能够加快批量写入速度的方法是经过预先建立一些空的 regions,这样当数据写入 HBase 时,会按照 region 分区状况,在集群内作数据的负载均衡。

命令方式:

# create table with specific split points
hbase>create 'table1','f1',SPLITS => ['\x10\x00', '\x20\x00', '\x30\x00', '\x40\x00']
# create table with four regions based on random bytes keys
hbase>create 'table2','f1', { NUMREGIONS => 8 , SPLITALGO => 'UniformSplit' }
# create table with five regions based on hex keys
hbase>create 'table3','f1', { NUMREGIONS => 10, SPLITALGO => 'HexStringSplit' } 

  也可使用 api 的方式:

hbase org.apache.hadoop.hbase.util.RegionSplitter test_table HexStringSplit -c 10 -f info

hbase org.apache.hadoop.hbase.util.RegionSplitter splitTable HexStringSplit -c 10 -f info

参数:

  test_table 是表名

  HexStringSplit 是split 方式

  -c 是分 10 个 region

  -f 是 family

可在 UI 上查看结果,如图:

  这样就能够将表预先分为 15 个区,减小数据达到 storefile 大小的时候自动分区的时间 消耗,而且还有以一个优点,就是合理设计 rowkey 能让各个 region 的并发请求平均分配(趋 于均匀) 使 IO 效率达到最高,可是预分区须要将 filesize 设置一个较大的值,设置哪一个参数 呢 hbase.hregion.max.filesize 这个值默认是 10G 也就是说单个 region 默认大小是 10G

  这个参数的默认值在 0.90 到 0.92 到 0.94.3 各版本的变化:256M--1G--10G

  可是若是 MapReduce Input 类型为 TableInputFormat 使用 hbase 做为输入的时候,就要注意 了,每一个 region 一个 map,若是数据小于 10G 那只会启用一个 map 形成很大的资源浪费, 这时候能够考虑适当调小该参数的值,或者采用预分配 region 的方式,并将检测若是达到 这个值,再手动分配 region。

三. 表设计

1. 列簇设计

  追求的原则是:目前Hbase官方建议不超过2~3个column family。由于某个column family在flush的时候,它邻近的column family也会因关联效应被触发flush,最终致使系统产生更多的I/O。

  最优设计是:将全部相关性很强的 key-value 都放在同一个列簇下,这样既能作到查询效率 最高,也能保持尽量少的访问不一样的磁盘文件。

  以用户信息为例,能够将必须的基本信息存放在一个列族,而一些附加的额外信息能够放在 另外一列族。

2. 预分区

每个region 维护着startRow 与endRowKey,若是加入的数据符合某个region 维护的rowKey范围,则该数据交给这个 region 维护。那么依照这个原则,咱们能够将数据索要投放的分区提早大体的规划好,以提升 HBase 性能。

1) 手动设定预分区

hbase> create 'staff','info','partition1',SPLITS => ['1000','2000','3000','4000']

2) 生成 16 进制序列预分区

create 'staff2','info','partition2',{NUMREGIONS => 15, SPLITALGO => 'HexStringSplit'}

3) 按照文件中设置的规则预分区

建立 splits.txt 文件内容以下:

aaaa 
bbbb
cccc dddd

而后执行:

create 'staff3','partition3',SPLITS_FILE => 'splits.txt'

4) 使用 JavaAPI 建立预分区

//自定义算法,产生一系列 Hash 散列值存储在二维数组中
byte[][] splitKeys = 某个散列值函数
//建立 HBaseAdmin 实例
HBaseAdmin hAdmin = new HBaseAdmin(HBaseConfiguration.create());
//建立 HTableDescriptor 实例
HTableDescriptor tableDesc = new HTableDescriptor(tableName);
//经过 HTableDescriptor 实例和散列值二维数组建立带有预分区的 HBase 表
hAdmin.createTable(tableDesc, splitKeys);

3. RowKey 设计

  HBase 中,表会被划分为 1...n 个 Region,被托管在 RegionServer 中。Region 二个重要属性:StartKey 与 EndKey 表示这个 Region 维护的 rowKey 范围,当咱们要读/写数据时,若是 rowKey 落在某个 start-end key 范围内,那么就会定位到目标 region 而且读/写到相关的数据,那怎么快速精准的定位到咱们想要操做的数据,就在于咱们的 rowkey 的设计了。

四. Rowkey 设计三原则

        一条数据的惟一标识就是 rowkey,那么这条数据存储于哪一个分区,取决于 rowkey 处于哪一个一个预分区的区间内,设计 rowkey 的主要目的 ,就是让数据均匀的分布于全部的 region 中,在必定程度上防止数据倾斜。接下来咱们就谈一谈 rowkey 经常使用的设计方案。

1. rowkey 长度原则

  Rowkey 是一个二进制码流,Rowkey 的长度被不少开发者建议说设计在 10~100 个字节,不过建议是越短越好,不要超过 16 个字节,存为byte[]字节数组,通常设计成定长的

  缘由以下:

    一、数据的持久化文件 HFile 中是按照 KeyValue 存储的,若是 Rowkey 过长好比 100 个字 节,1000 万列数据光 Rowkey 就要占用 100*1000 万=10 亿个字节,将近 1G 数据,这会极大 影响 HFile 的存储效率;

    二、MemStore 将缓存部分数据到内存,若是 Rowkey 字段过长内存的有效利用率会下降, 系统将没法缓存更多的数据,这会下降检索效率。所以 Rowkey 的字节长度越短越好。

    三、目前操做系统是都是 64 位系统,内存 8 字节对齐。控制在 16 个字节,8 字节的整数 倍利用操做系统的最佳特性。

2. rowkey 散列原则

  若是 Rowkey 是按时间戳的方式递增,不要将时间放在二进制码的前面,建议将 Rowkey 的高位做为散列字段,由程序循环生成,低位放时间字段,这样将提升数据均衡分布在每一个 Regionserver 实现负载均衡的概率。若是没有散列字段,首字段直接是时间信息将产生全部 新数据都在一个 RegionServer 上堆积的热点现象,这样在作数据检索的时候负载将会集中 在个别 RegionServer,下降查询效率。

      row key是按照字典序存储,所以,设计row key时,要充分利用这个排序特色,将常常一块儿读取的数据存储到一块,将最近可能会被访问的数据放在一块。

举个例子:若是最近写入HBase表中的数据是最可能被访问的,能够考虑将时间戳做为row key的一部分,因为是字典序排序,因此可使用Long.MAX_VALUE - timestamp做为row key,这样能保证新写入的数据在读取时能够被快速命中。

3. rowkey 惟一原则

  必须在设计上保证其惟一性。rowkey 是按照字典顺序排序存储的,所以,设计 rowkey 的时候,要充分利用这个排序的特色,将常常读取的数据存储到一块,将最近可能会被访问 的数据放到一块。

五. 数据热点

  HBase 中的行是按照 rowkey 的字典顺序排序的,这种设计优化了 scan 操做,能够将相 关的行以及会被一块儿读取的行存取在临近位置,便于 scan。然而糟糕的 rowkey 设计是热点 的源头。 热点发生在大量的 client 直接访问集群的一个或极少数个节点(访问多是读, 写或者其余操做)。大量访问会使热点 region 所在的单个机器超出自身承受能力,引发性能 降低甚至 region 不可用,这也会影响同一个 RegionServer 上的其余 region,因为主机没法服 务其余 region 的请求。 设计良好的数据访问模式以使集群被充分,均衡的利用。 为了不写热点,设计 rowkey 使得不一样行在同一个 region,可是在更多数据状况下,数据 应该被写入集群的多个 region,而不是一个。

防止数据热点的有效措施

  加盐

  这里所说的加盐不是密码学中的加盐,而是在 rowkey 的前面增长随机数,具体就是给 rowkey 分配一个随机前缀以使得它和以前的 rowkey 的开头不一样。分配的前缀种类数量应该 和你想使用数据分散到不一样的 region 的数量一致。加盐以后的 rowkey 就会根据随机生成的 前缀分散到各个 region 上,以免热点。

例:生成随机数、hash、散列值

好比:
本来 rowKey 为 1001 的,SHA1 后变成:dd01903921ea24941c26a48f2cec24e0bb0e8cc7 
本来 rowKey 为 3001 的,SHA1 后变成:49042c54de64a1e9bf0b33e00245660ef92dc7bd
本来 rowKey 为 5001 的,SHA1 后变成:7b61dec07e02c188790670af43e717f0f46e8913 在作此操做以前,通常咱们会选择从数据集中抽取样本,来决定什么样的 rowKey 来 Hash 后做为每一个分区的临界值。

  哈希

  哈希会使同一行永远用一个前缀加盐。哈希也可使负载分散到整个集群,可是读倒是 能够预测的。使用肯定的哈希可让客户端重构完整的 rowkey,可使用 get 操做准确获取 某一个行数据

  反转

  第三种防止热点的方法是反转固定长度或者数字格式的 rowkey。这样可使得 rowkey 中常常改变的部分(最没有意义的部分)放在前面。这样能够有效的随机 rowkey,可是牺牲了 rowkey 的有序性。

  反转 rowkey 的例子以手机号为 rowkey,能够将手机号反转后的字符串做为 rowkey,这 样的就避免了以手机号那样比较固定开头致使热点问题

例: 字符串反转

20170524000001 转成 10000042507102
20170524000002 转成 20000042507102

这样也能够在必定程度上散列逐步 put 进来的数据。

例: 字符串拼接

20170524000001_a12e
20170524000001_93i7

  时间戳反转

  一个常见的数据处理问题是快速获取数据的最近版本,使用反转的时间戳做为 rowkey 的一部分对这个问题十分有用,能够用 Long.Max_Value - timestamp 追加到 key 的末尾,例 如 [key][reverse_timestamp] , [key] 的最新值能够经过 scan [key]得到[key]的第一条记录,因 为 HBase 中 rowkey 是有序的,第一条记录是最后录入的数据。好比须要保存一个用户的操 做记录,按照操做时间倒序排序,在设计 rowkey 的时候,能够这样设计 [userId 反转][Long.Max_Value - timestamp],在查询用户的全部操做记录数据的时候,直接指 定 反 转 后 的 userId , startRow 是 [userId 反 转 ][000000000000],stopRow 是 [userId 反 转][Long.Max_Value - timestamp]

  若是须要查询某段时间的操做记录,startRow 是[user 反转][Long.Max_Value - 起始时间], stopRow 是[userId 反转][Long.Max_Value - 结束时间]

相关文章
相关标签/搜索