我只想输出值,所以我将NullWritable用作OutputKeyClass,如下所示:

protected void reduce(Text key, Iterable<Text> values,
            Reducer<Text, Text, NullWritable, Text>.Context context)
                    throws IOException, InterruptedException {
        for(Text value : values){
            context.write(NullWritable.get(), value);
        }
    }

我像这样设置工作:
job.setNumReduceTasks(1);
    job.setOutputKeyClass(NullWritable.class);
    job.setOutputValueClass(Text.class);
    job.setMapOutputKeyClass(Text.class);
    job.setMapOutputValueClass(Text.class);
    FileInputFormat.addInputPath(job, new Path(baseInPath));
    FileSystem.get(conf).delete(new Path(baseOutPath), true);
    FileOutputFormat.setOutputPath(job, new Path(baseOutPath));

    System.exit(job.waitForCompletion(true) ? 0 : 1);

但是当我检查结果路径时,我得到了。
LZO

`@��V��/�!�Z0| res | 1 *“| 33260580217607 | 2 | 1 | 0.2 | 23 | 2016-03-28 13:57:42
0 |支付6-03-28 13:57:42

以0 | res | 1 ......开头的字符串是值,但前面有些乱码。
我认为它们是NullWritable的指针。
我该如何清除这些乱码?我的代码对吗?

最佳答案

从输出看,似乎已设置LZO压缩。您可以尝试查看mapred-site.xml并查看是否设置了此属性

<property>
  <name>mapred.map.output.compression.codec</name>
  <value>com.hadoop.compression.lzo.LzoCodec</value>
</property>

有关更多详细信息:link

08-07 15:41