从前面的图中,咱们能够发现Task有不少内部类,并拥有大量类成员变量,这些类配合Task完成相关的工做,以下图。
MapOutputFile管理着Mapper的输出文件,它提供了一系列get方法,用于获取Mapper须要的各类文件,这些文件都存放在一个目录下面。
咱们假设传入MapOutputFile的JobID为job_200707121733_0003,TaskID为task_200707121733_0003_m_000005。MapOutputFile的根为
{mapred.local.dir}/taskTracker/jobcache/{jobid}/{taskid}/output
在下面的讨论中,咱们把上面的路径记为{MapOutputFileRoot}
以上面JogID和TaskID为例,咱们有:
{mapred.local.dir}/taskTracker/jobcache/job_200707121733_0003/task_200707121733_0003_m_000005/output
须要注意的是,{mapred.local.dir}能够包含一系列的路径,那么,Hadoop会在这些根路径下找一个知足要求的目录,创建所需的文件。MapOutputFile的方法有两种,结尾带ForWrite和不带ForWrite,带ForWrite用于建立文件,它须要一个文件大小做为参数,用于检查磁盘空间。不带ForWrite用于获取以创建的文件。
getOutputFile:文件名为{MapOutputFileRoot}/file.out;
getOutputIndexFile:文件名为{MapOutputFileRoot}/file.out.index
getSpillFile:文件名为{MapOutputFileRoot}/spill{spillNumber}.out
getSpillIndexFile:文件名为{MapOutputFileRoot}/spill{spillNumber}.out.index
以上四个方法用于Task子类MapTask中;
getInputFile:文件名为{MapOutputFileRoot}/map_{mapId}.out
用于ReduceTask中。咱们到使用到他们的地方再介绍相应的应用场景。
介绍完临时文件管理之后,咱们来看Task.CombineOutputCollector,它继承自org.apache.hadoop.mapred.OutputCollector,很简单,只是一个OutputCollector到IFile.Writer的Adapter,活都让IFile.Writer干了。
ValuesIterator用于从RawKeyValueIterator(Key,Value都是DataInputBuffer,ValuesIterator要求该输入已经排序)中获取符合RawComparator<KEY>comparator的值的迭代器。它在Task中有一个简单子类,CombineValuesIterator。
Task.TaskReporter用于向JobTracker提交计数器报告和状态报告,它实现了计数器报告Reporter和状态报告StatusReporter。为了避免影响主线程的工做,TaskReporter有一个独立的线程,该线程经过TaskUmbilicalProtocol接口,利用Hadoop的RPC机制,向JobTracker报告Task执行状况。
web
FileSystemStatisticUpdater用于记录对文件系统的对/写操做字节数,是个简单的工具类。apache
更多精彩内容请关注:http://bbs.superwu.cn微信
关注超人学院微信二维码:app