zoukankan      html  css  js  c++  java
  • 大数据入门——MapReduce开发WordCount

    package com.imooc.hadoop.mapreduce;
    
    import org.apache.hadoop.conf.Configuration;
    import org.apache.hadoop.fs.Path;
    import org.apache.hadoop.io.LongWritable;
    import org.apache.hadoop.io.Text;
    import org.apache.hadoop.mapreduce.Job;
    import org.apache.hadoop.mapreduce.Mapper;
    import org.apache.hadoop.mapreduce.Reducer;
    
    import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
    import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
    
    import java.io.IOException;
    
    /**
     * 使用MapReduce开发WordCount应用程序
     */
    public class WordCountApp {
    
        /**
         * Map:读取输入的文件
         */
        public static class MyMapper extends Mapper<LongWritable, Text, Text, LongWritable>{
    
            LongWritable one = new LongWritable(1);
    
            @Override
            protected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {
    
                // 接收到的每一行数据
                String line = value.toString();
    
                //按照指定分隔符进行拆分
                String[] words = line.split(" ");
    
                for(String word :  words) {
                    // 通过上下文把map的处理结果输出
                    context.write(new Text(word), one);
                }
    
            }
        }
    
        /**
         * Reduce:归并操作
         */
        public static class MyReducer extends Reducer<Text, LongWritable, Text, LongWritable> {
    
            @Override
            protected void reduce(Text key, Iterable<LongWritable> values, Context context) throws IOException, InterruptedException {
    
                long sum = 0;
                for(LongWritable value : values) {
                    // 求key出现的次数总和
                    sum += value.get();
                }
    
                // 最终统计结果的输出
                context.write(key, new LongWritable(sum));
            }
        }
    
        /**
         * 定义Driver:封装了MapReduce作业的所有信息
         */
        public static void main(String[] args) throws Exception{
    
            //创建Configuration
            Configuration configuration = new Configuration();
    
            //创建Job
            Job job = Job.getInstance(configuration, "wordcount");
    
            //设置job的处理类
            job.setJarByClass(WordCountApp.class);
    
            //设置作业处理的输入路径
            FileInputFormat.setInputPaths(job, new Path(args[0]));
    
            //设置map相关参数
            job.setMapperClass(MyMapper.class);
            job.setMapOutputKeyClass(Text.class);
            job.setMapOutputValueClass(LongWritable.class);
    
            //设置reduce相关参数
            job.setReducerClass(MyReducer.class);
            job.setOutputKeyClass(Text.class);
            job.setOutputValueClass(LongWritable.class);
    
            //设置作业处理的输出路径
            FileOutputFormat.setOutputPath(job, new Path(args[1]));
    
            System.exit(job.waitForCompletion(true) ? 0 : 1);
        }
    }

     MapReduce运行机制

    wordcount: 统计文件中每个单词出现的次数

    借助于分布式计算框架来解决了: mapreduce

    分而治之


    (input) <k1, v1> -> map -> <k2, v2> -> combine -> <k2, v2> -> reduce -> <k3, v3> (output)

    核心概念
    Split:交由MapReduce作业来处理的数据块,是MapReduce中最小的计算单元
    HDFS:blocksize 是HDFS中最小的存储单元 128M
    默认情况下:他们两是一一对应的,当然我们也可以手工设置他们之间的关系(不建议)


    InputFormat:
    将我们的输入数据进行分片(split): InputSplit[] getSplits(JobConf job, int numSplits) throws IOException;
    TextInputFormat: 处理文本格式的数据

    OutputFormat: 输出

  • 相关阅读:
    J2EE开发环境
    Java核心api
    SCJP (SUN认证Java程序员)
    蓝领”变“金领”
    阿飞正传
    高效项目的七个习惯转载
    写程序的一些感想和教训(转载)
    学习的过程也是迭代的过程
    管理的艺术
    怎样成为优秀的软件模型设计者?[精华]
  • 原文地址:https://www.cnblogs.com/aishanyishi/p/9479694.html
Copyright © 2011-2022 走看看