HDFS Hadoop-1.x 理论

HDFS(分布式文件系统)为了做到可靠性(reliability)创建了多份数据块(data blocks)的复制,并将它们放置在服务器群的计算节点中(compute nodes),MapReduce就可以在它们所在的节点上处理这些数据了。除了可靠性,HDFS在一定程度上可以提高数据的读取速度。   HDFS中有三个重要的节点:Name Node,Data Node,Secondary NameN
相关文章
相关标签/搜索