经过Spark访问Hbase的Hive外部表(hive on hbase的表)

业务处理的过程当中,使用到pyspark访问hive,直接访问没有问题, 后面遇到使用pyspark访问hive关联hbase的表(hive on hbase),就出现报错了。sql 首先集群已经能够经过spark-sql读取hive的数据,而后进行以下配置。apache 1.拷贝以下jar包到${spark_home}/jars(spark2.0以前是${spark_home}/lib):app
相关文章
相关标签/搜索