package mapreduce;import java.io.IOException;import org.apache.hadoop.io.LongWritable;import org.apache.hadoop.io.Text;import org.apache.hadoop.mapreduce.Counter;import org.apache.hadoop.mapreduce.Mapper;/** * KEYIN 即k1 业务上表示每一行的起始位置,又称偏移量 * VALUEIN 即v1 业务上表示每一行的文本内容 * KEYOUT 即k2 业务上表示每一行的每个单词 * VALUEOUT 即v2 业务上表示每一行的每个单词出现的次数,常量1 * @author Xr * */public class MyMapper extends Mapper{ /** * 解析每一行的文本,解析成每一个单词,统计每一个单词出现的次数 */ @Override protected void map(LongWritable key, Text value,Context context) throws IOException, InterruptedException { //计数器 Counter counter = context.getCounter("Words", "hello"); //counter.setValue("");//设置初始值 //每一行的文本内容 String string = value.toString(); if(string.contains("hello")){ int times = string.split("hello").length-1; counter.increment(times);//自动累加 } //每一行包含的单词数组 String[] split = string.split(" "); for(String word : split){ context.write(new Text(word), new LongWritable(1)); } }} Name:Xr Date:2014-03-04 21:20