在进行Spark与HBase 集成的过程当中遇到如下问题:java
我事先已经将所须要的jar支持包所有拷贝到了各节点下的spark路径下的jar目录,可是在启动bin/spark-shell时老是报以上错误。在网上也看来不少解决方法,好比将缺失的jar包 :hbase/lib 下 hbase*.jar,metrics*.jar.htrace*.jar 等拷贝到spark/jar目录,但这不正是个人启动准备工做吗,等于没说!node
从故障根源分析,形成此错误的缘由在于Spark启动的时候没法正常从咱们的jar目录加载到它所须要的jar包(此处表现为/htrace-core-3.0.4.jar包)。因此,直接将包添加到jar目录是没法解决此问题的,而咱们须要作的是给它指明CLASSPATH路径,在它不能找到所须要的jar包时就能够今后路径寻找。sql
解决办法:shell
在spark/conf目录下的spark-env.sh配置文件添加如下配置内容express
以上就是博主为你们介绍的这一板块的主要内容,这都是博主本身的学习过程,但愿能给你们带来必定的指导做用,有用的还望你们点个支持,若是对你没用也望包涵,有错误烦请指出。若有期待可关注博主以第一时间获取更新哦,谢谢!同时也欢迎转载,但必须在博文明显位置标注原文地址,解释权归博主全部!apache