SparkSQL集成Hive

(1)相关配置: 将以下文件拷贝到 $SPARK_HOME/conf 目录下 Hive: hive-site.xml Hadoop: core-site.xml和hdfs-site.xml 同时,启动Spark shell 的时候,需要制定mysql的驱动 首先查看core-site.xml,hdfs-site.xml,hive-site.xml       (2)拷贝mysql-connecto
相关文章
相关标签/搜索