畅聊Spark(二)RDD

                                                 Spark Core RDD 为什么要有RDD?       Hadoop的MapReduce是一种基于数据集的工作模式,面向数据,这种工作模式一般是从存储上加载数据集,然后操作数据集,最后写入到物理存储设备中,数据更多面临的是一次性处理。       MR的这种方式对数据领域两种常用的操作不是很高效
相关文章
相关标签/搜索