zoukankan      html  css  js  c++  java
  • Hadoop学习笔记(1):WordCount程序的实现与总结

    开篇语:

    这几天开始学习Hadoop,花费了整整一天终于把伪分布式给搭好了,激动之情无法言表······

    搭好环境之后,按着书本的代码,实现了这个被誉为Hadoop中的HelloWorld的程序--WordCount,以此开启学习Hadoop的篇章。

    本篇旨在总结WordCount程序的基本结构和工作原理,有关环境的搭建这块,网上有很多的教程,大家可以自行找谷歌或百度。

    何为MapReduce:

    在开始看WordCount的代码之前,先简要了解下什么是MapReduce。HDFS和MapReduce是Hadoop的两个重要核心,其中MR是Hadoop的分布式计算模型。MapReduce主要分为两步Map步和Reduce步,引用网上流传很广的一个故事来解释,现在你要统计一个图书馆里面有多少本书,为了完成这个任务,你可以指派小明去统计书架1,指派小红去统计书架2,这个指派的过程就是Map步,最后,每个人统计完属于自己负责的书架后,再对每个人的结果进行累加统计,这个过程就是Reduce步。

    WordCount程序:

    程序的功能:假设现在有n个文本,WordCount程序就是利用MR计算模型来统计这n个文本中每个单词出现的总次数。

    图一

    现在有两个文件:

    •   File 0:有两行,第一行的内容为“Hello World”,第二行的内容为“Hello Hadoop”
    •   File 1:有两行,第一行的内容为“Bye World”,第二行的内容为“Bye Hadoop”

    假设我们现在要统计这两个文件每种单词出现的次数,首先我们要对每个文本进行处理,即把其中的句子划分成词语,按照上面讲到的统计图书的故事,我们会将这两个文件分派给两个人,让这两个人各自去处理,待这两个人都处理完成之后,再对结果进行汇总统计,在图中充当这两个人角色的就是Map1和Map2,Map步的输入为<key,value>对,输出也为<key,value>对,实现Map步的代码如下:

    复制代码
     1 // 继承Mapper类,Mapper类的四个泛型参数分别为:输入key类型,输入value类型,输出key类型,输出value类型
     2     public static class Map extends Mapper<LongWritable, Text, Text, IntWritable> {
     3         
     4         private final static IntWritable one = new IntWritable(1); //输出的value的类型,可以理解为int
     5         private Text word = new Text(); //输出的key的类型,可以理解为String
     6 
     7         @Override
     8         public void map(LongWritable key, Text value, Context context) 
     9                 throws IOException, InterruptedException {
    10             
    11             String line = value.toString();  //每行句子
    12             StringTokenizer tokenizer = new StringTokenizer(line);
    13             
    14             while (tokenizer.hasMoreTokens()) {
    15                 word.set(tokenizer.nextToken());
    16                 context.write(word, one);  //输出
    17             }
    18             
    19         }
    20     }
    复制代码

     现在来分析和解读一下代码中的Map步:

    • 首先,要实现Map步,应该实现一个类,这个类继承了Mapper类并且重写其中的map方法。
    • 现在来说下重写这个map方法有什么意义。继续拿统计图书的例子来说,当小明被指派到书架1统计图书的时候,小明可以偷懒,对于那些他不想统计的书,他可以不统计;小明也可以很尽责,统计的结果达到百分百准确。总而言之,小明只要拿出统计结果给负责汇总的人就可以了,至于他是怎么处理的,负责汇总的人管不着。而重写这个map方法,就对应于实现这个处理的过程,负责将输入的<key,value>对进行处理统计,并且输出<key,value>对给下一步处理。这部分代码参见图二中的第一个黄色框(Map步的输入)和第二个黄色框(Map步的输出)。

    图二

    WordCount程序中的Map步的输出结果为<单词,1>对,在这里有一个合并处理步骤,将拥有相同key值的键值对进行合并,形成一个<key,valuelist>,这个<key,valuelist>的键值对集合,作为Reduce步的输入。现在来看一下实现Reduce步的代码:

    复制代码
     1 // Reduce类,继承了Reducer类
     2     public static class Reduce extends
     3             Reducer<Text, IntWritable, Text, IntWritable> {
     4 
     5         @Override
     6                 //在这里,reduce步的输入相当于<单词,valuelist>,如<Hello,<1,1>>
     7         public void reduce(Text key, Iterable<IntWritable> values,
     8                 Context context) throws IOException, InterruptedException {
     9             int sum = 0;
    10             for (IntWritable val : values) {
    11                 sum += val.get();
    12             }
    13             context.write(key, new IntWritable(sum));
    14         }
    15     }
    复制代码

    现在来分析和解读一下代码中的Reduce步:

    • 要实现Reduce步,应该实现一个类,这个类继承了Reducer类并且重写其中的reduce方法。
    • 这个Reduce步就相当于在统计图书中那个汇总统计的人,负责对手下的工作结果进行汇总,Reduce步的输入和输出同样为<key,value>。这部分代码参见图三中的第一个绿色框(Reduce步的输入)和第二个绿色框(Reduce步的输出)。

    图三

    最后再来看一下主函数吧,在Hadoop中,每个MapReduce任务被当做一个Job(作业),在执行任务之前,首先要对任务进行一些配置,代码如下:

    复制代码
     1 Job job = new Job(); // 创建一个作业对象
     2 job.setJarByClass(WordCount.class); // 设置运行/处理该作业的类
     3 job.setJobName("WordCount");  
     4 
     5 FileInputFormat.addInputPath(job, new Path(args[0]));//设置这个作业输入数据的路径
     6 FileOutputFormat.setOutputPath(job, new Path(args[1]));//设置这个作业输出结果的路径
     7 
     8 job.setMapperClass(Map.class);//设置实现了Map步的类
     9 job.setReducerClass(Reduce.class);//设置实现了Reduce步的类
    10 
    11 job.setOutputKeyClass(Text.class);//设置输出结果key的类型
    12 job.setOutputValueClass(IntWritable.class);//设置输出结果value的类型
    13 
    14 System.exit(job.waitForCompletion(true) ? 0 : 1);//执行作业
    复制代码

    来看一下Job设置了哪些东西:

    • 设置处理该作业的类,setJarByClass()
    • 设置这个作业的名字,setJobName()
    • 设置这个作业输入数据所在的路径
    • 设置这个作业输出结果保存的路径
    • 设置实现了Map步的类,setMapperClass()
    • 设置实现了Reduce步的类,setReducerClass()
    • 设置输出结果key的类型,setOutputKeyClass()
    • 设置输出结果value的类型,setOuputValueClass()
    • 执行作业

    倒回看图一,会发现还有一个如图四的东西:

    图四

    那么图四中的这个TextInputFormat又是干吗的呢?

    TextInputFormat是Hadoop默认的输入方法,在TextInputFormat中,每个文件(或其一部分)都会单独作为Map的输入,之后,每一行数据都会产生一个<key,value>形式:其中key值是每个数据的记录在数据分片中的字节偏移量,而value值是每行的内容。所以,图5中画红圈的两个数据应该是有误的(在上面只是为了方便表示),正确的值应该是第二行第一个字符的偏移量才对。

    图五

    学习资料:

    陆嘉恒,《Hadoop实战》,机械工业出版社。

    最后附上完整源代码:

    复制代码
     1 import java.io.IOException;
     2 import java.util.StringTokenizer;
     3 
     4 import org.apache.hadoop.conf.Configuration;
     5 import org.apache.hadoop.fs.Path;
     6 import org.apache.hadoop.io.IntWritable;
     7 import org.apache.hadoop.io.LongWritable;
     8 import org.apache.hadoop.io.Text;
     9 import org.apache.hadoop.mapreduce.Job;
    10 import org.apache.hadoop.mapreduce.Mapper;
    11 import org.apache.hadoop.mapreduce.Reducer;
    12 import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
    13 import org.apache.hadoop.mapreduce.lib.input.TextInputFormat;
    14 import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
    15 import org.apache.hadoop.mapreduce.lib.output.TextOutputFormat;
    16 import org.apache.hadoop.util.GenericOptionsParser;
    17 import org.apache.hadoop.mapreduce.Reducer.Context;
    18 
    19 public class WordCount {
    20 
    21     // 继承Mapper类,Mapper类的四个泛型参数分别为:输入key类型,输入value类型,输出key类型,输出value类型
    22     public static class Map extends Mapper<LongWritable, Text, Text, IntWritable> {
    23         
    24         private final static IntWritable one = new IntWritable(1); // output value
    25         private Text word = new Text(); // output key
    26 
    27         @Override
    28         public void map(LongWritable key, Text value, Context context) 
    29                 throws IOException, InterruptedException {
    30             
    31             String line = value.toString();
    32             StringTokenizer tokenizer = new StringTokenizer(line);
    33             
    34             while (tokenizer.hasMoreTokens()) {
    35                 word.set(tokenizer.nextToken());
    36                 context.write(word, one);
    37             }
    38             
    39         }
    40     }
    41 
    42     // Reduce类,继承了Reducer类
    43     public static class Reduce extends
    44             Reducer<Text, IntWritable, Text, IntWritable> {
    45 
    46         @Override
    47         public void reduce(Text key, Iterable<IntWritable> values,
    48                 Context context) throws IOException, InterruptedException {
    49             int sum = 0;
    50             for (IntWritable val : values) {
    51                 sum += val.get();
    52             }
    53             context.write(key, new IntWritable(sum));
    54         }
    55     }
    56 
    57     public static void main(String[] args) throws Exception {
    58 
    59         if (args.length != 2) {
    60             System.err
    61                     .println("Usage: MaxTemperature <input path> <output path>");
    62             System.exit(-1);
    63         }
    64 
    65         Job job = new Job(); // 创建一个作业对象
    66         job.setJarByClass(WordCount.class); // 设置运行/处理该作业的类
    67         job.setJobName("WordCount");  
    68 
    69         FileInputFormat.addInputPath(job, new Path(args[0]));
    70         FileOutputFormat.setOutputPath(job, new Path(args[1]));
    71 
    72         job.setMapperClass(Map.class);
    73         job.setReducerClass(Reduce.class);
    74 
    75         job.setOutputKeyClass(Text.class);
    76         job.setOutputValueClass(IntWritable.class);
    77 
    78         System.exit(job.waitForCompletion(true) ? 0 : 1);
    79 
    80     }
    81 
    82 }
  • 相关阅读:
    jQuery杂项方法
    nodeJS实现路由功能
    nodeJS之HTTP
    nodeJS之TCP模块net
    nodeJS之事件events
    NodeJS之queryString
    chrome谷歌浏览器用这种方式清除缓存比较方便了,必须是调试模式才行
    DeepMind已将AlphaGo引入多领域 Al泡沫严重
    学习Linux的正确姿势
    现在90,00后经常上哪些网站?喜欢看啥网站?
  • 原文地址:https://www.cnblogs.com/shizhijie/p/9889508.html
Copyright © 2011-2022 走看看