spark sql 没法访问 hive metastore问题解决

Spark SQL on Hive是Shark的一个分支,是HIVE执行分析引擎的一个重要利器。在Spark 1.5.1的时候,能够很是简单地在spark shell中进行Hive的访问,然而到了Spark 1.5.2时,发现进入Spark Shell的时候,老是出现报错,其缘由老是没法访问hive的metastore,从而没法进行各类操做,至关的烦人的。 看了说明,说是要配置hive thrif
相关文章
相关标签/搜索