Spark - A Fault-Tolerant Abstraction for In-Memory Cluster Computing

Resilient Distributed Datasets: A Fault-Tolerant Abstraction for In-Memory Cluster Computing   为什么需要Spark? 当前已经有比较多的compute framework  比如, Hadoop用于batch分析, 全量分析  Storm用于streaming分析  但是这些场景, 数据都是只需要使用一
相关文章
相关标签/搜索