【五】Spark SQL中HiveContext的使用(操做hive中的表)(提交到服务器上执行)(Hadoop HA)

HiveContext在基本的SQLContext上有了一些新的特性,能够用Hive QL写查询,能够读取Hive表中的数据,支持Hive的UDF。html 要把hive/conf/hive-site.xml文件拷贝到spark/conf下。java cd /app/hive/confnode scp hive-site.xml root@node1:/app/spark/spark-2.2.0-
相关文章
相关标签/搜索