原文地址:http://blog.csdn.net/u010270403/article/details/51648462html
本文首先简单介绍了HBase,而后重点讲述了HBase的高并发和实时处理数据 、HBase数据模型、HBase物理存储、HBase系统架构,HBase调优、HBase Shell访问等。算法
不过在此以前,你能够先了解 Hadoop生态系统 ,若想运行HBase,则须要先搭建好Hadoop集群环境,能够参考此文搭建5个节点的hadoop集群环境(CDH5) 。shell
好了,让咱们来学习HBase吧!数据库
2006年末由PowerSet 的Chad Walters和Jim Kellerman 发起,2008年成为Apache Hadoop的一个子项目。现已做为产品在多家企业被使用,如:数组
HBase是一种构建在HDFS之上的分布式、面向列的存储系统。在须要实时读写、随机访问超大规模数据集时,可使用HBase。缓存
尽管已经有许多数据存储和访问的策略和实现方法,但事实上大多数解决方案,特别是一些关系类型的,在构建时并无考虑超大规模和分布式的特色。许多商家经过复制和分区的方法来扩充数据库使其突破单个节点的界限,但这些功能一般都是过后增长的,安装和维护都和复杂。同时,也会影响RDBMS的特定功能,例如联接、复杂的查询、触发器、视图和外键约束这些操做在大型的RDBMS上的代价至关高,甚至根本没法实现。服务器
HBase从另外一个角度处理伸缩性问题。它经过线性方式从下到上增长节点来进行扩展。HBase不是关系型数据库,也不支持SQL,可是它有本身的特长,这是RDBMS不能处理的,HBase巧妙地将大而稀疏的表放在商用的服务器集群上。网络
HBase 是Google Bigtable 的开源实现,与Google Bigtable 利用GFS做为其文件存储系统相似, HBase 利用Hadoop HDFS 做为其文件存储系统;Google 运行MapReduce 来处理Bigtable中的海量数据, HBase 一样利用Hadoop MapReduce来处理HBase中的海量数据;Google Bigtable 利用Chubby做为协同服务, HBase 利用Zookeeper做为对应。数据结构
Hadoop是一个高容错、高延时的分布式文件系统和高并发的批处理系统,不适用于提供实时计算;HBase是能够提供实时计算的分布式数据库,数据被保存在HDFS分布式文件系统上,由HDFS保证期高容错性,可是再生产环境中,HBase是如何基于hadoop提供实时性呢? HBase上的数据是以StoreFile(HFile)二进制流的形式存储在HDFS上block块儿中;可是HDFS并不知道的hbase存的是什么,它只把存储文件是为二进制文件,也就是说,hbase的存储数据对于HDFS文件系统是透明的。下面是HBase文件在HDFS上的存储示意图。架构
HBase HRegion servers集群中的全部的region的数据在服务器启动时都是被打开的,而且在内冲初始化一些memstore,相应的这就在必定程度上加快系统响 应;而Hadoop中的block中的数据文件默认是关闭的,只有在须要的时候才打开,处理完数据后就关闭,这在必定程度上就增长了响应时间。
从根本上说,HBase能提供实时计算服务主要缘由是由其架构和底层的数据结构决定的,即由LSM-Tree + HTable(region分区) + Cache决定——客户端能够直接定位到要查数据所在的HRegion server服务器,而后直接在服务器的一个region上查找要匹配的数据,而且这些数据部分是通过cache缓存的。具体查询流程以下图所示:
具体数据访问流程以下:
具体就是过程就是:
若是在BlockCache中能查到要造的数据则这届返回结果,不然就读去相应的StoreFile文件中读取一block的数据,若是尚未读到要查的 数据,就将该数据block放到HRegion Server的blockcache中,而后接着读下一block块儿的数据,一直到这样循环的block数据直到找到要请求的数据并返回结果;若是将该 Region中的数据都没有查到要找的数据,最后接直接返回null,表示没有找的匹配的数据。固然blockcache会在其大小大于一的阀值(heapsize * hfile.block.cache.size * 0.85)后启动基于LRU算法的淘汰机制,将最老最不经常使用的block删除。
HBase 以表的形式存储数据。表由行和列组成。列划分为若干个列族(row family),以下图所示。
HBase的逻辑数据模型:
HBase的物理数据模型(实际存储的数据模型):
逻辑数据模型中空白cell在物理上是不存储的,由于根本没有必要存储,所以若一个请求为要获取t8时间的contents:html,他的结果就是空。类似的,若请求为获取t9时间的anchor:my.look.ca,结果也是空。可是,若是不指明时间,将会返回最新时间的行,每一个最新的都会返回
与 NoSQL 数据库同样,Row Key 是用来检索记录的主键。访问 HBase table 中的行,只有三种方式:
1)经过单个 Row Key 访问。
2)经过 Row Key 的 range 全表扫描。
3)Row Key 可使任意字符串(最大长度是64KB,实际应用中长度通常为 10 ~ 100bytes),在HBase 内部,Row Key 保存为字节数组。
在存储时,数据按照* Row Key 的字典序(byte order)排序存储*。设计 Key 时,要充分排序存储这个特性,将常常一块儿读取的行存储到一块儿(位置相关性)。
注意 字典序对 int 排序的结果是 1,10,100,11,12,13,14,15,16,17,18,19,20,21,…, 9,91,92,93,94,95,96,97,98,99。要保存整形的天然序,Row Key 必须用 0 进行左填充。
行的一次读写是原子操做(不论一次读写多少列)。这个设计决策可以使用户很容易理解程序在对同一个行进行并发更新操做时的行为。
HBase 表中的每一个列都归属于某个列族。列族是表的 Schema 的一部分(而列不是),必须在使用表以前定义。列名都以列族做为前缀,例如 courses:history、courses:math 都属于 courses 这个列族。
访问控制、磁盘和内存的使用统计都是在列族层面进行的。在实际应用中,列族上的控制权限能帮助咱们管理不一样类型的应用, 例如,容许一些应用能够添加新的基本数据、一些应用能够读取基本数据并建立继承的列族、
一些应用则只容许浏览数据(甚至可能由于隐私的缘由不能浏览全部数据)。
HBase 中经过 Row 和 Columns 肯定的一个存储单元称为 Cell。每一个 Cell 都保存着同一份数据的多个版本。 版本经过时间戳来索引,时间戳的类型是 64 位整型。时间戳能够由HBase(在数据写入时自动)赋值,
此时时间戳是精确到毫秒的当前系统时间。时间戳也 能够由客户显示赋值。若是应用程序要避免数据版本冲突,就必须本身生成具备惟一性的时间戳。每一个 Cell 中,不一样版本的数据按照时间倒序排序,即最新的数据排在最前面。
为了不数据存在过多版本形成的管理(包括存储和索引)负担,HBase 提供了两种数据版本回收方式。 一是保存数据的最后 n 个版本,二是保存最近一段时间内的版本(好比最近七天)。用户能够针对每一个列族进行设置。
Cell 是由 {row key,column(=< family> + < label>),version} 惟一肯定的单元。Cell 中的数据是没有类型的,所有是字节码形式存储。
Table 在行的方向上分割为多个HRegion,每一个HRegion分散在不一样的RegionServer中。
每一个HRegion由多个Store构成,每一个Store由一个memStore和0或多个StoreFile组成,每一个Store保存一个Columns Family
HBase架构图以下:
从HBase的架构图上能够看出,HBase中的组件包括Client、Zookeeper、HMaster、HRegionServer、HRegion、Store、MemStore、StoreFile、HFile、HLog等,接下来介绍他们的做用。
HBase中的每张表都经过行键按照必定的范围被分割成多个子表(HRegion),默认一个HRegion超过256M就要被分割成两个,这个过程由HRegionServer管理,而HRegion的分配由HMaster管理。
包含访问HBase的接口,并维护cache来加快对HBase的访问。
HBase依赖Zookeeper,默认状况下HBase管理Zookeeper实例(启动或关闭Zookeeper),Master与RegionServers启动时会向Zookeeper注册。
Zookeeper的做用:
注意:client访问hbase上的数据时不须要master的参与,由于数据寻址访问zookeeper和region server,而数据读写访问region server。master仅仅维护table和region的元数据信息,而table的元数据信息保存在zookeeper上,所以master负载很低。
table在行的方向上分隔为多个Region。Region是HBase中分布式存储和负载均衡的最小单元,即不一样的region能够分别在不一样的Region Server上,但同一个Region是不会拆分到多个server上。
Region按大小分隔,每一个表通常是只有一个region。随着数据不断插入表,region不断增大,当region的某个列族达到一个阈值(默认256M)时就会分红两个新的region。
每一个region由如下信息标识:
Region被分配给哪一个Region Server是彻底动态的,因此须要机制来定位Region具体在哪一个region server。
下面咱们来看看Region是如何被定位的。
-ROOT-表永远不会被分隔为多个region,保证了最多须要三次跳转,就能定位到任意的region。client会将查询的位置 信息保存缓存起来,缓存不会主动失效,所以若是client上的缓存所有失效,则须要进行6次网络来回,才能定位到正确的region,其中三次用来发现 缓存失效,另外三次用来获取位置信息。
提示:
-ROOT-表:表包含.META.表所在的region列表,该表只有一个Region;Zookeeper中记录了-ROOT-表的location
.META.表:表包含全部的用户空间region列表,以及Region Server的服务器地址
每个region由一个或多个store组成,至少是一个store,hbase会把一块儿访问的数据放在一个store里面,即为每一个 ColumnFamily建一个store,若是有几个ColumnFamily,也就有几个Store。一个Store由一个memStore和0或者 多个StoreFile组成。 HBase以store的大小来判断是否须要切分region
memStore 是放在内存里的。保存修改的数据即keyValues。当memStore的大小达到一个阀值(默认64MB)时,memStore会被flush到文 件,即生成一个快照。目前hbase 会有一个线程来负责memStore的flush操做。
memStore内存中的数据写到文件后就是StoreFile,StoreFile底层是以HFile的格式保存。
HLog(WAL log):WAL意为write ahead log,用来作灾难恢复使用,HLog记录数据的全部变动,一旦region server 宕机,就能够从log中进行恢复。
HLog文件就是一个普通的Hadoop Sequence File, Sequence File的value是key时HLogKey对象,其中记录了写入数据的归属信息,除了table和region名字外,还同时包括sequence number和timestamp,timestamp是写入时间,sequence number的起始值为0,或者是最近一次存入文件系统中的sequence number。 Sequence File的value是HBase的KeyValue对象,即对应HFile中的KeyValue。
前面提到,数据以KeyValue形式到达HRegionServer,将写入WAL以后,写入一个SequenceFile。看过去没问题,可是由于数 据流在写入文件系统时,常常会缓存以提升性能。这样,有些本觉得在日志文件中的数据实际在内存中。
这里,咱们提供了一个LogFlusher的类。它调用 HLog.optionalSync(),后者根据 hbase.regionserver.optionallogflushinterval (默认是10秒),按期调用Hlog.sync()。另外,HLog.doWrite()也会根据
hbase.regionserver.flushlogentries (默认100秒)按期调用Hlog.sync()。Sync() 自己调用HLog.Writer.sync(),它由SequenceFileLogWriter实现。
Log的大小经过$HBASE_HOME/conf/hbase-site.xml 的 hbase.regionserver.logroll.period 限制,默认是一个小时。因此每60分钟,会打开一个新的log文件。长此以往,会有一大堆的文件须要维护。首先,LogRoller调用 HLog.rollWriter(),定时滚动日志,以后,利用HLog.cleanOldLogs()能够清除旧的日志。它首先取得存储文件中的最大的 sequence number,以后检查是否存在一个log全部的条目的“sequence number”均低于这个值,若是存在,将删除这个log。 每一个region server维护一个HLog,而不是每个region一个,这样不一样region(来自不一样的table)的日志会混在一块儿,这样作的目的是不断追加 单个文件相对于同时写多个文件而言,能够减小磁盘寻址次数,所以能够提升table的写性能。带来麻烦的时,若是一个region server下线,为了恢复其上的region,须要将region server上的log进行拆分,而后分发到其余region server上进行恢复。
目前为止,相信你已经了解了HBase组件的使用和做用,但你可能还不太清楚上面说起的这些HBase组件间是如何运做的,下面咱们来看看HBase的工做流程。
首先当一个请求产生时,HBase Client使用RPC(远程过程调用)机制与HMaster和HRegionServer进行通讯,对于管理类操做,Client与HMaster进行RPC;对于数据读写操做,Client与HRegionServer进行RPC。
HBase Client使用RPC(远程过程调用)机制与HMaster和HRegionServer进行通讯,但如何寻址呢?因为Zookeeper中存储了-ROOT-表的地址和HMaster的地址,因此须要先到Zookeeper上进行寻址。
HRegionServer也会把本身以Ephemeral方式注册到Zookeeper中,使HMaster能够随时感知到各个HRegionServer的健康状态。此外,Zookeeper也避免了HMaster的单点故障。
当用户须要进行Table和Region的管理工做时,就须要和HMaster进行通讯。HBase中能够启动多个HMaster,经过Zookeeper的Master Eletion机制保证总有一个Master运行。
当用户须要对数据进行读写操做时,须要访问HRegionServer。HRegionServer存取一个子表时,会建立一个HRegion对象,而后对表的每一个列族建立一个Store实例,每一个Store都会有一个 MemStore和0个或多个StoreFile与之对应,每一个StoreFile都会对应一个HFile, HFile就是实际的存储文件。所以,一个HRegion有多少个列族就有多少个Store。 一个HRegionServer会有多个HRegion和一个HLog。
当HStore存储是HBase的核心了,其中由两部分组成:MemStore和StoreFiles。 MemStore是Sorted Memory Buffer,用户
写入数据首先 会放在MemStore,当MemStore满了之后会Flush成一个 StoreFile(实际存储在HDHS上的是HFile),当StoreFile文件数量增加到必定阀值,就会触发Compact合并操做,并将多个StoreFile合并成一个StoreFile,合并过程当中会进行版本合并和数据删除,所以能够看出HBase其实只有增长数据,全部的更新和删除操做都是在后续的compact过程当中进行的,这使得用户的 读写操做只要进入内存中就能够当即返回,保证了HBase I/O的高性能。
下面以一个具体数据Put的流程,让咱们加深对HBase工做流程的认识。
下面是put流程的时序图:
客户端:
服务端:
当StoreFile文件数量增加到必定阀值,就会触发Compact合并操做,并将多个StoreFile合并成一个StoreFile,当这个StoreFile大小超过必定阀值后,会触发Split操做,同时把当前Region Split成2个Region,这是旧的Region会下线,新Split出的2个Region会被HMaster分配到相应的HregionServer上,使得原先1个Region的压力得以分散到2个Region上。
以下图四个Storefile文件(从memstore文件通过flush而获得,默认64M的storefile文件)通过Compact合并成一个大的256M storefile文件,当设定的Region阀值为128M时,就会Split为两个128M的Storefile文件,而后HMaster再把这两个storefile文件分配到不停地Regionserver上。
HBase中全部的数据文件都存储在Hadoop HDFS上,主要包括两种文件类型:
HFile的存储格式以下:
HFile文件是不定长的,长度固定的只有其中的两块:Trailer和FileInfo。
Trailer中有指针指向其余数据块的起始点,FileInfo记录了文件的一些meta信息。 Data Block是hbase io的基本单元,为了提升效率,HRegionServer中有基于LRU的block cache机制。
每一个Data块的大小能够在建立一个Table的时候经过参数指定(默认块大小64KB),大号的Block有利于顺序Scan,小号的 Block利于随机查询。
每一个Data块除了开头的Magic之外就是一个个KeyValue对拼接而成,Magic内容就是一些随机数字,目的是防止数 据损坏,结构以下。
上图可知,开始是两个固定长度的数值,分别表示key的长度和alue的长度。紧接着是Key,开始是固定长度的数值,表示RowKey的长度,紧接着是RowKey,而后是固定长度的数值,表示Family的长度,而后是Family,接着是Qualifier,而后是两个固定长度的数值,表示Time Stamp和Key Type(Put/Delete)。Value部分没有那么复杂的结构,就是纯粹的二进制数据。
Hfile是HBase中KeyValue数据的存储格式。从上面的 HBase物理数据模型中能够看出,HBase是面向列表(簇)的存储。每一个Cell由 {row key,column(=< family> + < label>),version} 惟一肯定的单元,他们组合在一块儿就是一个KeyValue。根据上述描述,这个KeyValue中的key就是{row key,column(=< family> + < label>),version} ,而value就是cell中的值。
HBase的三维有序存储中的三维是指:rowkey(行主键),column key(columnFamily+< label>),timestamp(时间戳或者版本号)三部分组成的三维有序存储。
rowkey是行的主键,它是以字典顺序排序的。因此 rowkey的设计是相当重要的,关系到你应用层的查询效率。咱们在根据rowkey范围查询的时候,咱们通常是知道startRowkey,若是咱们经过scan只传startRowKey : d开头的,那么查询的是全部比d大的都查了,而咱们只须要d开头的数据,那就要经过endRowKey来限制。咱们能够经过设定endRowKey为:d 开头,后面的根据你的rowkey组合来设定,通常是加比startKey大一位。
column key是第二维,数据按rowkey字典排序后,若是rowkey相同,则是根据column key来排序的,也是按字典排序。
咱们在设计table的时候要学会利用这一点。好比咱们的收件箱。咱们有时候须要按主题排序,那咱们就能够把主题这设置为咱们的column key,即设计为columnFamily+主题.,这样的设计。
timestamp 时间戳,是第三维,这是个按降序排序的,即最新的数据排在最前面。这个就没有什么说的了。网上其余的博客也提到比较多。
根据以上的叙述,咱们已经了解了关于HStore的基本原理,但咱们还必需要了解一下HLog的功能,由于上述的HStore在系统正常工做的前提下是没问题的,可是在分布式 系统环境中,没法避免系统出错或者宕机,由于一旦HRegionServer意外退出,MemStore中的内存数据将会丢失,这就须要引入HLog。每一个HRegionServer中都有一个HLog对象,HLog是一个实现Write Ahead Log的类,在每一次用户操做写入MemStore的同时,也会写一份数据到HLog文件中,HLog文件按期(当文件已持久化到StoreFile中的数据)会滚出新的,而且删除旧的文件。当HRegionServer意外终止 后,HMaster会经过Zookeeper感知到,HMaster首先会处理遗留的Hlog文件,将其中不一样Region的Log数据进行拆分,分别放到相应Region的目录下,而后再将失效的Region从新分配,领取到这些Region的Regionserver在Load Region的过程当中,会发现历史HLog须要处理,所以Replay HLog中的数据到MemStore中,而后flush到StoreFiles,完成数据恢复。
WAL(Write Ahead Log):RegionServer在处理插入和删除过程当中,用来记录操做内容的日志,只有日志写入成功,才会通知客户端操做成功。
上图中是HLog文件的结构,其实HLog文件就是一个普通的Hadoop Sequence File,Sequence File的Key是HLogKey对象,HLogKey中记录了写入数据的归属信息,除了table和Region名字外,同时还包括sequence number和timestamp,timestamp是”写入时间”,sequence number 的起始值为0,或者是最近一次存入文件系统中的sequence number。
HLog Sequence File 的Value是HBase的KeyValue对象昂,即对应HFile中的KeyValue。
当出现上图三种状况的高可用策略:
上图中,从HDFS如下都属于HBase的支撑系统。
从构成集群机器的底层硬件到把硬件和操做系统(尤为是文件系统),JVM,HDFS链接起来的网络之间的全部部件都会影响到HBase的性能。HBase系统的状态也会影响到HBase的系统。例如,在集群中执行合并的时候或者Memstore刷写的时候与什么都没有作的时候相比,其性能表现是不一样的。应用系统的性能还取决于它和HBase的交互方式,因此模式设计和其余环节同样起到了必不可少的做用。
在评判HBase性能时,全部这些因素都有影响;在优化集群时,须要查看全部这些因素。
(1)硬件选择
总的原则是,根据业务状况和集群规模大小选择合理的硬件。
(2)网络配置
基于当前阶段硬件的典型分布式系统都会受到网络的限制,HBase也不例外。在节点和机架顶置交换机之间建议采用10Gb以太网交换机。千万不要过于满额配置地使用网络,不然在高负载时,会影响HBase应用系统的性能。
(3)操做系统
通常状况下,只要使用Hadoop和HBase,操做系统一般选择Linux。能够选择Red Hat Enterprise Linux,CentOS,也能够选择成功部署过的其余操做系统。
(4)本地文件系统
本地Linux文件系统在HBase集群体系里起到了重要做用,而且严重影响到HBase的性能。虽然EXT4是推荐使用的本地文件系统,但没有大规模使用,相反EXT3和XFS已经在生产系统里获得成功使用,建议使用EXT3和XFS做为本地文件系统。
(5)HDFS
根据业务访问特色,将Hbase的工做负载大体分为如下四类:
(1)随机读密集型
对于随机读密集型工做负载,高效利用缓存和更好地索引会给HBase系统带来更高的性能。
(2)顺序读密集型
对于顺序读密集型工做负载,读缓存不会带来太多好处;除非顺序读的规模很小而且限定在一个特定的行键范围内,不然极可能使用缓存会比不使用缓存须要更频繁地访问硬盘。
(3)写密集型
写密集型工做负载的优化方法须要有别于读密集型负载。缓存再也不起到重要做用。写操做老是进入MemStore,而后被刷写生成新的Hfile,之后再被合并。得到更好写性能的办法是不要太频繁刷写、合并或者拆分,由于在这段时间里IO压力上升,系统会变慢。
(4)混合型
对于彻底混合型工做负载,优化方法会变得复杂些。优化时,须要混合调整多个参数来获得一个最优的组合。
(1)JVM垃圾回收优化
(2)本地memstore分配缓存优化
(3)Region拆分优化
(4**)Region合并优化**
(5)Region预先加载优化
(6)负载均衡优化
(7)启用压缩
(8)GZIP、snappy、lzo,推荐snappy,压缩比稍差于lzo;可是压缩速度高于lzo,而且与lzo有差很少的 解压缩速度。
(9)进行预分区,从而避免自动split,提升hbase响应速度
(10)避免出现region热点现象,启动按照table级别进行balance
HBase Shell 提供了大多数的 HBase 命令, 经过 HBase Shell 用户能够方便地建立、删除及修改表, 还能够向表中添加数据、列出表中的相关信息等。
在启动 HBase 以后,用户能够经过下面的命令进入 HBase Shell 之中,命令以下所示:
[hadoop@CDHNode1 ~]$hbase shell
输入 help 能够看到命令分组。(注意命令都是小写,有大小写的区分)
部分命令
下边分组举例 Shell 的各类操做。
查询 HBase 服务器状态 status。
查询hbase版本 version
一、 建立一个表
create ‘table1’, ‘tab1_id’, ‘tab1_add’, ‘tab1_info’
二、 列出全部的表
三、 得到表的描述
describe “table1”
四、 删除一个列族 disable alter enable 注意删除前,须要先把表disable
disable ‘table1’
alter ‘table1’, {NAME=>’tab1_add’, METHOD=>’delete’}
enable ‘table1’
五、 查看表是否存在
exists ‘table2’
六、 判断表是否为‘enable’
is_enabled ‘table1’
七、 删除一个表
disable ‘table1’
drop ‘table1’
一、 插入几条记录
put ‘member’, ‘scutshuxue’, ‘info:age’, ‘24’
put ‘member’, ‘scutshuxue’, ‘info:birthday’, ‘1987-06-17’
put ‘member’, ‘scutshuxue’, ‘info:company’, ‘alibaba’
put ‘member’, ‘scutshuxue’, ‘address:contry’, ‘china’
put ‘member’, ‘scutshuxue’, ‘address:province’, ‘zhejiang’
put ‘member’, ‘scutshuxue’, ‘address:city’, ‘hangzhou’
put命令比较简单,只有这一种用法:
hbase> put ‘t1′, ‘r1′, ‘c1′, ‘value’, ts1
t1指表名,r1指行键名,c1指列名,value指单元格值。ts1指时间戳,通常都省略掉了。
二、 全表扫描 scan
三、 得到数据 get
1) 得到一行的全部数据
2) 得到某行,某列族的全部数据
3) 得到某行,某列族,某列的全部数据
四、 更新一条记录 put(把scutshuxue年龄改成99)
put ‘member’, ‘scutshuxue’, ‘info:age’, 99
五、 删除 delete、 deleteall
1) 删除行’scutshuxue’, 列族为‘info’ 中age的值
delete ‘member’, ‘scutshuxue’, ‘info:age’
2) 删除整行
deleteall ‘member’, ‘scutshuxue’
六、 查询表中有多少行
count ‘member’
七、 给‘xiaoming’这个id增长’info:age’字段,并使用counter实现递增
incr ‘member’, ‘xiaoming’, ‘info:age’
八、 将整个表清空
truncate ‘member’
能够看出,HBase 是经过先对表执行 disable,而后再执行 drop 操做后重建表来实现 truncate 的功能的。
以上是学习HBase后,整理的HBase概述,若有错误,请指正!