Hadoop-HDFS读写数据

HDFS中的block、packet、chunk  block :这个大家应该知道,文件上传前需要分块,这个块就是block,一般为128MB,当然你可以去改,不顾不推荐。因为块太小:寻址时间占比过高。块太大:Map任务数太少,作业执行速度变慢。它是最大的一个单位。 packet :packet是第二大的单位,它是client端向DataNode,或DataNode的PipLine之间传数据的基本
相关文章
相关标签/搜索