从零自学Hadoop(22):HBase协处理器

阅读目录

本文版权归mephisto和博客园共有,欢迎转载,但须保留此段声明,并给出原文连接,谢谢合做。html

文章是哥(mephisto)写的,SourceLinkjava

 

     上一篇,咱们讲述了HBase的数据模型相关操做的下部分。linux

   下面咱们开始介绍HBase的协处理器部分。git

介绍

一:介绍

  从0.92版本开始,HBase加入了协处理器(coprocessors),利用协处理器,用户能够编写运行在 HBase Server 端的代码。能够实现“二级索引”,求和、计数、排序、过滤等server端操做。github

二:类型

  分两种 Observer和Endpoint 。shell

三:观察者(Observer)

  Observer 协处理器相似于传统数据库中的触发器,当发生某些事件的时候这类协处理器会被 Server 端调用。Observer Coprocessor 就是一些散布在 HBase Server 端代码中的 hook 钩子,在固定的事件发生时被调用。好比:put 操做以前有钩子函数 prePut,该函数在 put 操做执行前会被 Region Server 调用;在 put 操做以后则有 postPut 钩子函数数据库

四:终端(Endpoint)

  Endpoint 协处理器相似传统数据库中的存储过程,客户端能够调用这些 Endpoint 协处理器执行一段 Server 端代码,并将 Server 端代码的结果返回给客户端进一步处理,最多见的用法就是进行汇集操做。若是没有协处理器,当用户须要找出一张表中的最大数据,即 max 聚合操做,就必须进行全表扫描,在客户端代码内遍历扫描结果,并执行求最大值的操做。这样的方法没法利用底层集群的并发能力,而将全部计算都集中到 Client 端统一执行,势必效率低下。利用 Coprocessor,用户能够将求最大值的代码部署到 HBase Server 端,HBase 将利用底层 cluster 的多个节点并发执行求最大值的操做。即在每一个 Region 范围内执行求最大值的代码,将每一个 Region 的最大值在 Region Server 端计算出,仅仅将该 max 值返回给客户端。在客户端进一步将多个 Region 的最大值进一步处理而找到其中的最大值。这样总体的执行效率就会提升不少。apache

Observer操做

一:说明

  咱们编写一个类,使每次put进来的数据都打印日志,用来测试observer coprocessor的机制。服务器

二:编写协处理器工程

package com.du.hbase.coprocessor;

import java.io.IOException;
import org.apache.hadoop.hbase.Cell;
import org.apache.hadoop.hbase.CellScanner;
import org.apache.hadoop.hbase.CellUtil;
import org.apache.hadoop.hbase.client.Durability;
import org.apache.hadoop.hbase.client.Put;
import org.apache.hadoop.hbase.coprocessor.BaseRegionObserver;
import org.apache.hadoop.hbase.coprocessor.ObserverContext;
import org.apache.hadoop.hbase.coprocessor.RegionCoprocessorEnvironment;
import org.apache.hadoop.hbase.regionserver.wal.WALEdit;
import org.apache.log4j.Logger;

/**
 * @FileName : (CP_writelog.java)
 *
 * @description :协处理器写日志
 * @author : Frank.Du
 * @version : Version No.1
 * @create : 2016年12月8日 下午6:52:31
 * @modify : 2016年12月8日 下午6:52:31
 * @copyright :
 */
public class CP_writelog extends BaseRegionObserver {
    private static final Logger logger = Logger.getLogger(CP_writelog.class);

    @Override
    public void prePut(ObserverContext<RegionCoprocessorEnvironment> e,
            Put put, WALEdit edit, Durability durability) throws IOException {

        writeLog(put);

        super.prePut(e, put, edit, durability);
    }

    /**
     * 写log
     * 
     * @param put
     * @throws IOException
     */
    private void writeLog(Put put) {
        try {
            logger.info("writehdfs : is begining");
            CellScanner cellScanner = put.cellScanner();

            StringBuilder sb = new StringBuilder();
            while (cellScanner.advance()) {
                Cell current = cellScanner.current();
                String fieldName = new String(CellUtil.cloneQualifier(current),
                        "utf-8");
                String fieldValue = new String(CellUtil.cloneValue(current),
                        "utf-8");
                String fieldRow = new String(CellUtil.cloneRow(current),
                        "utf-8");

                String fieldFamilyCell = new String(
                        CellUtil.cloneFamily(current), "utf-8");
                String info = "fieldName:" + fieldName + " fieldValue:"
                        + fieldValue + " fieldRow:" + fieldRow
                        + " fieldFamilyCell:" + fieldFamilyCell;

                sb.append(info);
            }

            logger.info("writehdfs : info:" + sb.toString());

        } catch (IOException e) {
            logger.error(e.getMessage());
        }

    }

}
View Code

三:使用maven打包程序

因为打包的jar包名字太长,将jar包改为hbase-cp.jar并发

四:将文件上传到linux本地系统

put 'table1','row1','cf3:a','aa2'

  经过xshell工具,将协处理程序上传到linux服务器下。

五:将本地文件上传到hdfs文件系统中

sudo -uhdfs hadoop fs -copyFromLocal hbase-cp.jar /user/hbase-cp.jar

六:进入hbase shell

hbase shell

七:查看table1的表信息

desc 'table1'

  因而可知,该表没有设置协处理器。

八:添加协处理器

alter 'table1','coprocessor'=>'hdfs://master4:8020/user/hbase-cp.jar|com.du.hbase.coprocessor.CP_writelog|1001'

  中间一段为协处理的jar包和类名
  最后一段数字为权值,权值越小,协处理器的执行越靠前

九:查看table1的表信息

desc 'table1'

 

  能够看到该表已经设置了协处理器。

 十:查看该表所在RegionServer

  打开网页http://master4:16010/master-status

  点击进去

   能够看到regionserver是master4。

 十一:查看日志

   进入对应regionserver

cd /var/log/hbase/

  查看日志

tail -2000f hbase-hbase-regionserver-master4.log

十二:插入数据

put 'table1','row11','cf1:a','v11'

  在插入数据的过程当中。咱们同时看下日志
  能够看到咱们插入的数据,在日志里打印出来了。

十三:删除协处理器

 alter 'table1',METHOD=>'table_att_unset' ,NAME=>'coprocessor$1'

 

 --------------------------------------------------------------------

  到此,本章节的内容讲述完毕。

示例下载

github: https://github.com/sinodzh/HadoopExample/tree/master/2016/hbase

系列索引

  【源】从零自学Hadoop系列索引

 

 

 

 

本文版权归mephisto和博客园共有,欢迎转载,但须保留此段声明,并给出原文连接,谢谢合做。

文章是哥(mephisto)写的,SourceLink

相关文章
相关标签/搜索