spark-2.0.0与hive-1.2.1整合

SparkSQL与Hive的整合sql

1. 拷贝$HIVE_HOME/conf/hive-site.xml和hive-log4j.properties到 $SPARK_HOME/conf/spa

2. 在$SPARK_HOME/conf/目录中,修改spark-env.sh,添加xml

export HIVE_HOME=/opt/hive-1.2.1blog

export SPARK_CLASSPATH=$HIVE_HOME/lib:$SPARK_CLASSPATHit

3. 另外也能够设置一下Spark的log4j配置文件,使得屏幕中不打印额外的INFO信息:spark

log4j.rootCategory=WARN, consoleconsole

(但仍是有信息提示)配置

进入$SPARK_HOME/bin执行 spark-sqlim

相关文章
相关标签/搜索