Spark 学习笔记----RDD持久化原理

一、RDD持久化的原理 Spark很是重要的一个功能特性,就是能够将RDD持久化到内存中,当对RDD执行持久化操做时,每一个节点都会将本身操做的RDD的partition持久化到内存中,并在在以后对该RDD的反复使用中,直接使用内存缓存的partition。这样对于针对一个RDD的反复执行多个操做的场景,就只要对RDD计算一次便可,后面直接使用该RDD,而不须要反复计算屡次该RDD。java 二、
相关文章
相关标签/搜索