Mapreduce程序中reduce的Iterable参数迭代出是同一个对象

今天在对reduce的参数Iterable进行迭代时,发现一个问题,即Iterator的next()方法每次返回的是同一个对象,next()只是修改了Writable对象的值,而不是从新返回一个新的Writable对象。java

使用wordcount来验证:apache

个人代码以下:
oop

protected void reduce(Text key, Iterable<IntWritable> values,
        Reducer<Text, IntWritable, Text, IntWritable>.Context context)
        throws IOException, InterruptedException {
    int sum = 0;

    // 保存每一个IntWritable到list
    List<IntWritable> intWritables = new ArrayList<IntWritable>();

    for (IntWritable val : values) {
        intWritables.add(val);
        sum += val.get();
    }

    if(intWritables.size() > 1) {
        // 当list size大于1时,验证第一个元素和第二个元素是不是同一个对象
        System.out.println("objects is same -> "
                + (intWritables.get(0) == intWritables.get(1)));
    }

    result.set(sum);
    context.write(key, result);
}

日志输出:spa

objects is same -> true日志


这个Iterable的实现是org.apache.hadoop.mapreduce.task.ReduceContextImpl.ValueIterablecode

Iterator实现是org.apache.hadoop.mapreduce.task.ReduceContextImpl.ValueIteratororm

其中next()实现时,调用的是org.apache.hadoop.io.serializer.WritableSerialization的deserialize(Writable w)方法,对象

Writable deserialize(Writable w) IOException {
  Writable writable;
  (w == ) {
    writable 
      = (Writable) ReflectionUtils.(, getConf());
  } {
    writable = w;
  }
  writable.readFields();
  writable;
}

该方法只是调用了入参w的readFields方法,并无建立新对象,除非w是nullhadoop

相关文章
相关标签/搜索