spark和hive集成

spark-hive集成:
    将hive-site.xml拷贝到spark的conf目录下也能够建立软链接(ln -s /usr/local/devtools/cdhbigdata/cdhhive/hive-0.13.1-cdh5.3.6/conf/hive-site.xml)

    更具hive.metastore.uris选择不一样的方式:
    1:hive.metastore.uris配置了:启动hive的metastore服务 hive --service metastore &
    2:hive.metastore.uris没有配置:将hive元数据驱动拷贝到spark的classpath中便可

  集成测试
  ./bin/spark-sql
  show databases;

  webUI
  http://xupan001:4040/jobs/
相关文章
相关标签/搜索