Spark中cache和persist的做用以及存储级别

在Spark中有时候咱们不少地方都会用到同一个RDD, 按照常规的作法的话,那么每一个地方遇到Action操做的时候都会对同一个算子计算屡次,这样会形成效率低下的问题html 例如:python val rdd1 = sc.textFile("xxx") rdd1.xxxxx.xxxx.collect rdd1.xxx.xxcollect 上面就是两个代码都用到了rdd1这个RDD,若是程序执行的
相关文章
相关标签/搜索