Spark的各个组件

一、Spark Core 实现Spark的基本功能,包括任务调度、内存管理、错误恢复、与存储系统交互等,以及RDD(Resilient Distributed Dataset)API的定义。 二、Spark SQL 用Spark来操做结构化数据的程序包。能够使用SQL或Hive的HQL来查询数据,并能够与RDD的操做相结合使用。 三、Spark Streaming 用来对实时数据进行流式计算的组件
相关文章
相关标签/搜索