HBase是一个实时的非关系型数据库,用来存储海量数据。可是,在实际使用场景中,在使用HBase API查询HBase中的数据时,有时会发现数据查询会很慢。本篇博客将从客户端优化和服务端优化两个方面来介绍,如何提升查询HBase的效率。shell
这里,咱们先给你们介绍如何从客户端优化查询速度。数据库
客户端查询HBase,均经过HBase API的来获取数据,若是在实现代码逻辑时使用API不当,也会形成读取耗时严重的状况。apache
在使用HBase的Scan接口时,一次Scan会返回大量数据。客户端向HBase发送一次Scan请求,实际上并不会将全部数据加载到本地,而是经过屡次RPC请求进行加载。这样设计的好处在于避免大量数据请求会致使网络带宽负载太高影响其余业务使用HBase,另外从客户端的角度来讲能够避免数据量太大,从而本地机器发送OOM(内存溢出)。缓存
默认状况下,HBase每次Scan会缓存100条,能够经过属性hbase.client.scanner.caching来设置。另外,最大值默认为-1,表示没有限制,具体实现见源代码:网络
/** * @return the maximum result size in bytes. See {@link #setMaxResultSize(long)} */ public long getMaxResultSize() { return maxResultSize; } /** * Set the maximum result size. The default is -1; this means that no specific * maximum result size will be set for this scan, and the global configured * value will be used instead. (Defaults to unlimited). * * @param maxResultSize The maximum result size in bytes. */ public Scan setMaxResultSize(long maxResultSize) { this.maxResultSize = maxResultSize; return this; }
通常状况下,默认缓存100就能够知足,若是数据量过大,能够适当增大缓存值,来减小RPC次数,从而下降Scan的整体耗时。另外,在作报表呈现时,建议使用HBase分页来返回Scan的数据。并发
HBase系统提供了单条get数据和批量get数据,单条get一般是经过请求表名+rowkey,批量get一般是经过请求表名+rowkey集合来实现。客户端在读取HBase的数据时,实际是与RegionServer进行数据交互。在使用批量get时能够有效的较少客户端到各个RegionServer之间RPC链接数,从而来间接的提升读取性能。批量get实现代码见org.apache.hadoop.hbase.client.HTable类:负载均衡
public Result[] get(List<Get> gets) throws IOException { if (gets.size() == 1) { return new Result[]{get(gets.get(0))}; } try { Object[] r1 = new Object[gets.size()]; batch((List<? extends Row>)gets, r1, readRpcTimeoutMs); // Translate. Result [] results = new Result[r1.length]; int i = 0; for (Object obj: r1) { // Batch ensures if there is a failure we get an exception instead results[i++] = (Result)obj; } return results; } catch (InterruptedException e) { throw (InterruptedIOException)new InterruptedIOException().initCause(e); } }
从实现的源代码分析可知,批量get请求的结果,要么所有返回,要么抛出异常。ide
一般状况下,HBase表设计咱们一个指定一个列簇就能够知足需求,但也不排除特殊状况,须要指定多个列簇(官方建议最多不超过3个),其实官方这样建议也是有缘由的,HBase是基于列簇的非关系型数据库,意味着相同的列簇数据会存放在一块儿,而不一样的列簇的数据会分开存储在不一样的目录下。若是一个表设计多个列簇,在使用rowkey查询而不限制列簇,这样在检索不一样列簇的数据时,须要独立进行检索,查询效率当然是比指定列簇查询要低的,列簇越多,这样影响越大。函数
而同一列簇下,可能涉及到多个列,在实际查询数据时,若是一个表的列簇有上1000+的列,这样一个大表,若是不指定列,这样查询效率也是会很低。一般状况下,在查询的时候,能够查询指定咱们须要返回结果的列,对于不须要的列,能够不须要指定,这样可以有效地的提升查询效率,下降延时。oop
批量读取数据时会全表扫描一次业务表,这种提如今Scan操做场景。在Scan时,客户端与RegionServer进行数据交互(RegionServer的实际数据时存储在HDFS上),将数据加载到缓存,若是加载很大的数据到缓存时,会对缓存中的实时业务热数据有影响,因为缓存大小有限,加载的数据量过大,会将这些热数据“挤压”出去,这样当其余业务从缓存请求这些数据时,会从HDFS上从新加载数据,致使耗时严重。
在批量读取(T+1)场景时,建议客户端在请求是,在业务代码中调用setCacheBlocks(false)函数来禁止缓存,默认状况下,HBase是开启这部分缓存的。源代码实现为:
/** * Set whether blocks should be cached for this Get. * <p> * This is true by default. When true, default settings of the table and * family are used (this will never override caching blocks if the block * cache is disabled for that family or entirely). * * @param cacheBlocks if false, default settings are overridden and blocks * will not be cached */ public Get setCacheBlocks(boolean cacheBlocks) { this.cacheBlocks = cacheBlocks; return this; } /** * Get whether blocks should be cached for this Get. * @return true if default caching should be used, false if blocks should not * be cached */ public boolean getCacheBlocks() { return cacheBlocks; }
HBase服务端配置或集群有问题,也会致使客户端读取耗时较大,集群出现问题,影响的是整个集群的业务应用。
客户端的请求其实是与HBase集群的每一个RegionServer进行数据交互,在细分一下,就是与每一个RegionServer上的某些Region进行数据交互,每一个RegionServer上的Region个数上的状况下,可能这种耗时状况影响不大,体现不够明显。可是,若是每一个RegionServer上的Region个数较大的话,这种影响就会很严重。笔者这里作过统计的数据统计,当每一个RegionServer上的Region个数超过800+,若是发生负载不均衡,这样的影响就会很严重。
可能有同窗会有疑问,为何会发送负载不均衡?负载不均衡为何会形成这样耗时严重的影响?
负载不均衡的影响一般由如下几个因素形成:
针对这些因素,能够经过如下解决方案来解决:
这里笔者用一个例子来讲,集群每一个RegionServer包含由800+的Region数,可是,因为集群维护,有几台RegionServer节点的Region所有集中到一台RegionServer,分布以下图所示:
这样以前请求在RegionServer2和RegionServer3上的,都会集中到RegionServer1上去请求。这样就不能发挥整个集群的并发处理能力,另外,RegionServer1上的资源使用将会翻倍(好比网络、磁盘IO、HBase RPC的Handle数等)。而原先其余正常业务到RegionServer1的请求也会所以受到很大的影响。所以,读取请求不均衡不只会形成自己业务性能很长,还会严重影响其余正常业务的查询。同理,写请求不均衡,也会形成相似的影响。故HBase负载均衡是HBase集群性能的重要体现。
BlockCache做为读缓存,合理设置对于提升读性能很是重要。默认状况下,BlockCache和Memstore的配置各站40%,能够经过在hbase-site.xml配置如下属性来实现:
本篇博客主要介绍提升读性能,这里咱们能够将BlockCache的占比设置大一些,Memstore的占比设置小一些(总占比保持在0.8便可)。另外,BlockCache的策略选择也是很重要的,不一样的策略对于读性能来讲影响不大,可是对于GC的影响却比较明显,在设置hbase.bucketcache.ioengine属性为offheap时,GC表现的很优秀。缓存结构以下图所示:
设置BlockCache能够在hbase-site.xml文件中,配置以下属性:
<!-- 分配的内存大小尽量的多些,前提是不能超过 (机器实际物理内存-JVM内存) -->
<property>
<name>hbase.bucketcache.size</name>
<value>16384</value>
</property>
<property>
<name>hbase.bucketcache.ioengine</name>
<value>offheap</value>
</property>
设置块内存大小,能够参考入下表格:
标号 | 描述 | 计算公式或值 | 结果 |
A | 物理内存选择:on-heap(JVM)+off-heap(Direct) | 单台物理节点内存值,单位MB | 262144 |
B | HBASE_HEAPSIZE('-Xmx) | 单位MB | 20480 |
C | -XX:MaxDirectMemorySize,off-heap容许的最大内存值 | A-B | 241664 |
Dp | hfile.block.cache.size和hbase.regionserver.global.memstore.size总和不要超过0.8 | 读取比例占比*0.8 | 0.5*0.8=0.4 |
Dm | JVM Heap容许的最大BlockCache(MB) | B*Dp | 20480*0.4=8192 |
Ep | hbase.regionserver.global.memstore.size设置的最大JVM值 | 0.8-Dp | 0.8-0.4=0.4 |
F | 用于其余用途的off-heap内存,例如DFSClient | 推荐1024到2048 | 2048 |
G | BucketCache容许的off-heap内存 | C-F | 241664-2048=239616 |
另外,BlockCache策略,可以有效的提升缓存命中率,这样可以间接的提升热数据覆盖率,从而提高读取性能。
HBase读取数据时会先从BlockCache中进行检索(热数据),若是查询不到,才会到HDFS上去检索。而HBase存储在HDFS上的数据以HFile的形式存在的,文件若是越多,检索所花费的IO次数也就必然增长,对应的读取耗时也就增长了。文件数量取决于Compaction的执行策略,有如下2个属性有关系:
另外,hbase.hstore.compaction.max.size值能够经过实际的Region总数来计算,公式以下:
hbase.hstore.compaction.max.size = RegionTotal / hbase.hstore.compactionThreshold
Compaction操做是将小文件合并为大文件,提升后续业务随机读取的性能,可是在执行Compaction操做期间,节点IO、网络带宽等资源会占用较多,那么何时执行Compaction才最好?何时须要执行Compaction操做?
实际应用场景中,会关闭Compaction自动执行策略,经过属性hbase.hregion.majorcompaction来控制,将hbase.hregion.majorcompaction=0,就能够禁止HBase自动执行Compaction操做。通常状况下,选择集群负载较低,资源空闲的时间段来定时调度执行Compaction。
若是合并的文件较多,能够经过设置以下属性来提生Compaction的执行速度,配置以下:
<property> <name>hbase.regionserver.thread.compaction.large</name> <value>8</value> <description></description> </property> <property> <name>hbase.regionserver.thread.compaction.small</name> <value>5</value> <description></description> </property>
通常维护HBase集群后,因为集群发生太重启,HBase数据本地性较低,经过HBase页面能够观察,此时若是不执行Compaction操做,那么客户端查询的时候,须要跨副本节点去查询,这样来回须要通过网络带宽,对比正常状况下,从本地节点读取数据,耗时是比较大的。在执行Compaction操做后,HBase数据本地性为1,这样可以有效的提升查询效率。
本篇博客HBase查询优化从客户端和服务端角度,列举一些常见有效地优化手段。固然,优化还须要从本身实际应用场景出发,例如代码实现逻辑、物理机的实际配置等方面来设置相关参数。你们能够根据实际状况来参考本篇博客进行优化。
这篇博客就和你们分享到这里,若是你们在研究学习的过程中有什么问题,能够加群进行讨论或发送邮件给我,我会尽我所能为您解答,与君共勉!
另外,博主出书了《Hadoop大数据挖掘从入门到进阶实战》,喜欢的朋友或同窗, 能够在公告栏那里点击购买连接购买博主的书进行学习,在此感谢你们的支持。