网上看到一张关于hadoop分布式文件系统(hdfs)的工做原理的图片,其实主要是介绍了向hdfs写一个文件的流程。图中的流程已经很是清晰,直接上图html
好吧,博客园告诉我少于200字的文章不容许发布到网站首页,我只能巴拉巴拉多扯几句了。之前一直觉得从Client端写大文件到hdfs中须要先把文件所有传到Namenode上,而后由namenode来按块切分,并分发到Datanode上去。仍是too young, too simple呀,上图简单的几个图让我茅塞顿开,文件的分割由client端完成,并由client端与Namenode分配的datanodes通信并进行数据传输,Namenode端并不参与数据I/O的过程,这样也大大减轻了Namenode的压力,perfect design!!!,之后仍是要好好的读源代码。node
吐槽完毕,200字应该有了吧。。。分布式
本文来自博客园,若是查看原文请点击 http://www.cnblogs.com/meibenjin/p/3299003.html oop