Spark SQL来读取现有Hive中的数据

Spark SQL主要目的是使得用户能够在Spark上使用SQL,其数据源既能够是RDD,也能够是外部的数据源(好比Parquet、Hive、Json等)。 Spark SQL的其中一个分支就是Spark on Hive,也就是使用Hive中HQL的解析、逻辑执行计划翻译、执行计划优化等逻辑,能够近似认为仅将物理执行计划从MR做业替换成了Spark做业。 本文就是来介绍如何经过Spark SQL来
相关文章
相关标签/搜索