一篇讲懂为何HDFS文件块(block)大小设定为128M

最近看到这个面试问题,CSDN搜了半天也没有确切答案,查询资料思考后总结以下:面试 咱们在HDFS中存储数据是以块(block)的形式存放在DataNode中的,块(block)的大小能够经过设置dfs.blocksize来实现;oop 在Hadoop2.x的版本中,文件块的默认大小是128M,老版本中默认是64M;测试 目录spa 1、为何HDFS中块(block)不能设置太大,也不能设置过小?
相关文章
相关标签/搜索