hadoop的核心思想是MapReduce,但shuffle又是MapReduce的核心。shuffle的主要工做是从Map结束到Reduce开始之间的过程。首先看下这张图,就能了解shuffle所处的位置。图中的partitions、copy phase、sort phase所表明的就是shuffle的不一样阶段。算法
shuffle阶段又能够分为Map端的shuffle和Reduce端的shuffle。负载均衡
须要注意的是,shuffer是Hadoop框架不断改进的核心,所以,极可能本文的有些细节已经在不一样的版本中进行了大改,但不论如何,咱们只要了解其工做原理便可。框架
下面的流程是整个mapreduce最全工做流程,可是shuffle过程只是从第7步开始到第16步结束,而其中的黄色外框部分均是咱们能够操做的部分。oop
具体shuffle过程详解,以下:线程
合并成大文件后,shuffle的过程也就结束了,后面进入reducetask的逻辑运算过程(从文件中取出一个一个的键值对group,调用用户自定义的reduce()方法)。3d
须要注意的是,Shuffle中的缓冲区大小会影响到mapreduce程序的执行效率,原则上说,缓冲区越大,磁盘io的次数越少,执行速度就越快。 缓冲区的大小能够经过参数调整,参数:io.sort.mb 默认100M。blog
Map端会处理输入数据并产生中间结果,这个中间结果会写到本地磁盘,而不是HDFS。写磁盘的过程并非简单的直接写,而是每一个Map的输出会先写到内存缓冲区中,当写入的数据达到设定的阈值时,系统才会启动一个线程将缓冲区的数据写到磁盘,这个过程叫作spill。排序
spill —— 溢出;泼出;涌出;蜂拥而出。内存
在spill写入以前,会先进行二次排序,首先根据数据所属的partition进行排序,而后每一个partition中的数据再按key来排序。partition的目是将记录划分到不一样的Reducer上去,以指望可以达到负载均衡,之后的Reducer就会根据partition来读取本身对应的数据(咱们接下来会练习这些过程)。hadoop
接下来运行combiner(若是设置了的话),combiner的本质也是一个Reducer,其目的是对将要写入到磁盘上的文件先进行一次处理,这样,写入到磁盘的数据量就会减小。
紧接着将数据写到本地磁盘产生spill文件(spill文件保存在{mapred.local.dir}指定的目录中,Map任务结束后就会被删除)。
最后,每一个Map任务可能产生多个spill文件,在每一个Map任务完成前,会经过多路归并算法将这些spill文件归并成一个文件。至此,Map的shuffle过程就结束了。
Reduce端的shuffle主要包括三个阶段:
首先要将Map端产生的输出文件拷贝到Reduce端,但每一个Reducer如何知道本身应该处理哪些数据呢?由于Map端进行partition的时候,实际上就至关于指定了每一个Reducer要处理的数据(partition就对应了Reducer),因此Reducer在拷贝数据的时候只需拷贝与本身对应的partition中的数据便可。
每一个Reducer会处理一个或者多个partition,但须要先将本身对应的partition中的数据从每一个Map的输出结果中拷贝过来。
接下来就是sort阶段,也称为merge阶段。由于这个阶段的主要工做是执行了归并排序。从Map端拷贝到Reduce端的数据都是有序的,因此很适合归并排序。最终在Reduce端生成一个较大的文件做为Reduce的输入。
最后就是Reduce过程了,在这个过程当中产生了最终的输出结果,并将其写到指定文件系统中。
解析来咱们针对具体的流程进行分析。