jdbc调用sparksql on yarn

spark sql访问hive表 1.将hive-site.xml拷贝到spark目录下conf文件夹 2.(非必需)将mysql的jar包引入到spark的classpath,方式有以下两种: 方式1:须要在$SPARK_HOME/conf/spark-env.sh中的SPARK_CLASSPATH添加jdbc驱动的jar包java export SPARK_CLASSPATH=$SPARK_C
相关文章
相关标签/搜索