在spark-2.2.x中操作hive的表数据的流程

环境:centos6.5 hadoop  伪分布式 ,spark 伪分布式   安装hive  在window下面。在idea中,通过程序去操作hive中的表。   需要把linux上面spark安装目录下面/conf里面的hive-site.xml的文件放到window下面idea中当前project中 的resources文件夹下面。 并且配置log4j.properties文件。方便查看控制
相关文章
相关标签/搜索