教育行業(yè)A股IPO第一股(股票代碼 003032)

全國咨詢/投訴熱線:400-618-4000

Mapper類中的map()方法怎么用?

更新時間:2020年11月04日17時42分 來源:傳智播客 瀏覽次數(shù):

MapReduce程序會根據(jù)輸入的文件產(chǎn)生多個map任務。Hadoop提供的Mapper類是實現(xiàn)Map任務的一個抽象基類,該基類提供了一個map()方法,默認情況下,Mapper類中的map()方法是沒有做任何處理的。

如果我們想自定義map()方法,我們只需要繼承Mapper類并重寫map()方法即可。接下來,我們以詞頻統(tǒng)計為例,自定義一個map()方法,具體代碼如文件所示。

文件 WordCountMapper.java

 import java.io.IOException;

 import org.apache.hadoop.io.IntWritable;

 import org.apache.hadoop.io.LongWritable;

 import org.apache.hadoop.io.Text;

 import org.apache.hadoop.mapreduce.Mapper;

 public class WordCountMapper extends Mapper<LongWritable, Text,

       Text, IntWritable> {

   @Override

   protected void map(LongWritable key, Text value, Mapper<

        LongWritable, Text, Text, IntWritable>.Context context)

       throws IOException, InterruptedException {

     // 接收傳入進來的一行文本,把數(shù)據(jù)類型轉換為String類型

     String line = value.toString();

     // 將這行內容按照分隔符切割

     String[] words = line.split(" ");

     // 遍歷數(shù)組,每出現(xiàn)一個單詞就標記一個數(shù)組1 例如:<單詞,1>

     for (String word : words) {

       // 使用context,把Map階段處理的數(shù)據(jù)發(fā)送給Reduce階段作為輸入數(shù)據(jù)

       **context.write(new Text(word), new IntWritable(1));**

     }

   }

 }



猜你喜歡:

2分鐘快速了解kafka 

Mysql幫助信息命令是什么意思?

0 分享到:
和我們在線交談!