学习Hadoop之MapReduce

学习Hadoop之MapReduce笔记 MapReduce最简单的例子 如下图所示,假如我们要计算一份海报的数据,那么我们应该怎么快速计算出结果呢? ​ 首先,我们要知道的是,我们对于一份非常大的文件上传到我们的HDFS分布式系统上时,它已经不是一个文件了,而是被物理分割成了很多份,至于被分成多少块那就要看文件的大小了,假如文件的大小是1g,HDFS默认的Block Size(区块)大小是128
相关文章
相关标签/搜索