6.Spark Core 应用解析之RDD持久化

1.概述 Spark是分布式基于内存的数据处理引擎,它的一个基本功能是将RDD持久化到内存中。巧妙使用RDD持久化,甚至在某些场景下,能够将spark应用程序的性能提高10倍。对于迭代式算法和快速交互式应用来讲,RDD持久化,是很是重要的。java Spark中最重要的功能之一是操做时在内存中持久化(缓存)数据集。默认状况下当使用action 在RDD上时Spark会从新计算刷新RDD.但也能够经
相关文章
相关标签/搜索