spark2.3.0 配置spark sql 操做hive

spark能够经过读取hive的元数据来兼容hive,读取hive的表数据,而后在spark引擎中进行sql统计分析,从而,经过spark sql与hive结合实现数据分析将成为一种最佳实践。配置步骤以下:java  一、启动hive的元数据服务mysql hive能够经过服务的形式对外提供元数据读写操做,经过简单的配置便可    编辑 $HIVE_HOME/conf/hive-site.xml,
相关文章
相关标签/搜索