spark RDD中的partition和hdfs中的block的关系

        hdfs是一款很是优秀的分布式文件系统。hdfs为主从架构,主节点为NameNode,主节点负责配合journalNode等完成fsimge完整性。从节点为DataNode,从节点负责存储数据。节点之间通讯。。。好吧跑题了!架构         hdfs文件是分布式存储,每一个文件根据配置被切分红block(hadoop2.x默认128M)。为了达到容错的目的,根据配置每一个blo
相关文章
相关标签/搜索