zoukankan      html  css  js  c++  java
  • 大数据学习之Mapreduce

    MAPREDUCE详解

    1. MAPREDUCE原理

    Mapreduce是一个分布式运算程序的编程框架是用户开发“基于hadoop的数据分析应用”的核心框架;

    Mapreduce核心功能是将用户编写的业务逻辑代码和自带默认组件整合成一个完整的分布式运算程序,并发运行在一个hadoop集群上;

    1.1 为什么要MAPREDUCE

    1)海量数据在单机上处理因为硬件资源限制,无法胜任

    2)而一旦将单机版程序扩展到集群来分布式运行,将极大增加程序的复杂度和开发难度

    3)引入mapreduce框架后,开发人员可以将绝大部分工作集中在业务逻辑的开发上,而将分布式计算中的复杂性交由框架来处理

    设想一个海量数据场景下的wordcount需求:

    单机版:内存受限,磁盘受限,运算能力受限

    分布式:

    1、文件分布式存储(HDFS

    2、运算逻辑需要至少分成2个阶段(一个阶段独立并发,一个阶段汇聚)

    3、运算程序如何分发

    4、程序如何分配运算任务(切片)

    5、两阶段的程序如何启动?如何协调?

    6、整个程序运行过程中的监控?容错?重试?

    可见在程序由单机版扩成分布式时,会引入大量的复杂工作。为了提高开发效率,可以将分布式程序中的公共功能封装成框架,让开发人员可以将精力集中于业务逻辑。

    mapreduce就是这样一个分布式程序的通用框架,其应对以上问题的整体结构如下:

    1、MRAppMaster(mapreduce application master)

    2、MapTask

    3、ReduceTask

    1.2 MAPREDUCE框架结构及核心运行机制

    1.2.1 结构

    一个完整的mapreduce程序在分布式运行时有三类实例进程:

    1MRAppMaster:负责整个程序的过程调度及状态协调

    2mapTask:负责map阶段的整个数据处理流程

    3ReduceTask:负责reduce阶段的整个数据处理流程

    1.2.2 MR程序运行流程

    1.2.2.1 流程示意图

     

    1.2.2.2 流程解析

    1、 一个mr程序启动的时候,最先启动的是MRAppMasterMRAppMaster启动后根据本次job的描述信息,计算出需要的maptask实例数量,然后向集群申请机器启动相应数量的maptask进程

    2、 maptask进程启动之后,根据给定的数据切片范围进行数据处理,主体流程为:

    a) 利用客户指定的inputformat来获取RecordReader读取数据,形成输入KV

    b) 将输入KV对传递给客户定义的map()方法,做逻辑运算,并将map()方法输出的KV对收集到缓存

    c) 将缓存中的KV对按照K分区排序后不断溢写到磁盘文件

    3、 MRAppMaster监控到所有maptask进程任务完成之后,会根据客户指定的参数启动相应数量的reducetask进程,并告知reducetask进程要处理的数据范围(数据分区)

    4、 Reducetask进程启动之后,根据MRAppMaster告知的待处理数据所在位置,从若干台maptask运行所在机器上获取到若干个maptask输出结果文件,并在本地进行重新归并排序,然后按照相同keyKV为一个组,调用客户定义的reduce()方法进行逻辑运算,并收集运算输出的结果KV,然后调用客户指定的outputformat将结果数据输出到外部存储

    1.3 MAPREDUCE程序运行演示

    Hadoop的发布包中内置了一个hadoop-mapreduce-example-2.4.1.jar,这个jar包中有各种MR示例程序,可以通过以下步骤运行:

    启动hdfsyarn

    然后在集群中的任意一台服务器上启动执行程序(比如运行wordcount):

    hadoop jar hadoop-mapreduce-example-2.4.1.jar wordcount  /wordcount/data /wordcount/out

    2. MAPREDUCE实践

    2.1 MAPREDUCE 示例编写及编程规范

    2.1.1 编程规范

    (1)用户编写的程序分成三个部分MapperReducerDriver(提交运行mr程序的客户端)

    (2)Mapper的输入数据是KV对的形式(KV的类型可自定义)

    (3)Mapper的输出数据是KV对的形式(KV的类型可自定义)

    (4)Mapper中的业务逻辑写在map()方法中

    (5)map()方法(maptask进程)对每一个<K,V>调用一次

    (6)Reducer的输入数据类型对应Mapper的输出数据类型,也是KV

    (7)Reducer的业务逻辑写在reduce()方法中

    (8)Reducetask进程对每一组相同k<k,v>组调用一次reduce()方法

    (9)用户自定义的MapperReducer都要继承各自的父类

    (10)整个程序需要一个Drvier来进行提交,提交的是一个描述了各种必要信息的job对象

    2.1.2 wordcount示例编写

    需求:在一堆给定的文本文件中统计输出每一个单词出现的总次数

    (1)定义一个mapper

    //首先要定义四个泛型的类型

    //keyin:  LongWritable    valuein: Text

    //keyout: Text            valueout:IntWritable

    public class WordCountMapper extends Mapper<LongWritable, Text, Text, IntWritable>{

    //map方法的生命周期:  框架每传一行数据就被调用一次

    //key :  这一行的起始点在文件中的偏移量

    //value: 这一行的内容

    @Override

    protected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {

    //拿到一行数据转换为string

    String line = value.toString();

    //将这一行切分出各个单词

    String[] words = line.split(" ");

    //遍历数组,输出<单词,1>

    for(String word:words){

    context.write(new Text(word), new IntWritable(1));

    }

    }

    }

    (2)定义一个reducer

    //生命周期:框架每传递进来一个kv 组,reduce方法被调用一次

    @Override

    protected void reduce(Text key, Iterable<IntWritable> values, Context context) throws IOException, InterruptedException {

    //定义一个计数器

    int count = 0;

    //遍历这一组kv的所有v,累加到count

    for(IntWritable value:values){

    count += value.get();

    }

    context.write(key, new IntWritable(count));

    }

    }

    (3)定义一个主类,用来描述job并提交job

    public class WordCountRunner {

    //把业务逻辑相关的信息(哪个是mapper,哪个是reducer,要处理的数据在哪里,输出的结果放哪里……)描述成一个job对象

    //把这个描述好的job提交给集群去运行

    public static void main(String[] args) throws Exception {

    Configuration conf = new Configuration();

    Job wcjob = Job.getInstance(conf);

    //指定我这个job所在的jar

    // wcjob.setJar("/home/hadoop/wordcount.jar");

    wcjob.setJarByClass(WordCountRunner.class);

    wcjob.setMapperClass(WordCountMapper.class);

    wcjob.setReducerClass(WordCountReducer.class);

    //设置我们的业务逻辑Mapper类的输出keyvalue的数据类型

    wcjob.setMapOutputKeyClass(Text.class);

    wcjob.setMapOutputValueClass(IntWritable.class);

    //设置我们的业务逻辑Reducer类的输出keyvalue的数据类型

    wcjob.setOutputKeyClass(Text.class);

    wcjob.setOutputValueClass(IntWritable.class);

    //指定要处理的数据所在的位置

    FileInputFormat.setInputPaths(wcjob, "hdfs://hdp-server01:9000/wordcount/data/big.txt");

    //指定处理完成之后的结果所保存的位置

    FileOutputFormat.setOutputPath(wcjob, new Path("hdfs://hdp-server01:9000/wordcount/output/"));

    //yarn集群提交这个job

    boolean res = wcjob.waitForCompletion(true);

    System.exit(res?0:1);

    }

    2.2 MAPREDUCE程序运行模式

    2.2.1 本地运行模式

    (1)mapreduce程序是被提交给LocalJobRunner在本地以单进程的形式运行

    (2)而处理的数据及输出结果可以在本地文件系统,也可以在hdfs

    (3)怎样实现本地运行?写一个程序,不要带集群的配置文件(本质是你的mr程序的conf中是否有mapreduce.framework.name=local以及yarn.resourcemanager.hostname参数)

    (4)本地模式非常便于进行业务逻辑的debug,只要在eclipse中打断点即可

     

    如果在windows下想运行本地模式来测试程序逻辑,需要在windows中配置环境变量:

    HADOOP_HOME%  =  d:/hadoop-2.8.3

    %PATH% =  HADOOP_HOMEin

    并且要将d:/hadoop-2.8.3libbin目录替换成windows平台编译的版本

     

     

    2.2.2 集群运行模式

    (1)mapreduce程序提交给yarn集群resourcemanager,分发到很多的节点上并发执行

    (2)处理的数据和输出结果应该位于hdfs文件系统

    (3)提交集群的实现步骤:

    A、将程序打成JAR包,然后在集群的任意一个节点上用hadoop命令启动

         $ hadoop jar wordcount.jar cn.xiaoniu.bigdata.mrsimple.WordCountDriver inputpath outputpath

    B、直接在linuxeclipse中运行main方法

    (项目中要带参数:mapreduce.framework.name=yarn以及yarn的两个基本配置)

    C、如果要在windowseclipse中提交job给集群,则要修改YarnRunner

    mapreduce程序在集群中运行时的大体流程:

     

    附:在windows平台上访问hadoop时改变自身身份标识的方法之二:

     

    2.2.3 eclipse提交提交集群模式

    通过eclipse直接提交到集群上

    Configuration conf = new Configuration();

    conf.set("fs.defaultFS", "hdfs://bigdata01:9000");

    conf.set("mapreduce.framework.name","yarn");

    conf.set("yarn.resourcemanager.hostname", "bigdata01");

    conf.set("mapreduce.app-submission.cross-platform", "true");

    2.3 MAPREDUCE中的Combiner

    Combiner的使用要非常谨慎

     

    因为combinermapreduce过程中可能调用也可能不调用,可能调一次也可能调多次

     

    所以:combiner使用的原则是:有或没有都不能影响业务逻辑

     

    (1)combinerMR程序中MapperReducer之外的一种组件

    (2)combiner组件的父类就是Reducer

    (3)combinerreducer的区别在于运行的位置:

    Combiner是在每一个maptask所在的节点运行

    Reducer是接收全局所有Mapper的输出结果;

    (4) combiner的意义就是对每一个maptask的输出进行局部汇总,以减小网络传输量

    具体实现步骤:

    1、 自定义一个combiner继承Reducer,重写reduce方法

    2、 job中设置:  job.setCombinerClass(CustomCombiner.class)

    (5) combiner能够应用的前提是不能影响最终的业务逻辑

    而且,combiner的输出kv应该跟reducer的输入kv类型要对应起来

    2.4 mapreduce参数优化

    MapReduce重要配置参数

    2.4.1 资源相关参数

    (1) mapreduce.map.memory.mb: 一个Map Task可使用的资源上限(单位:MB),默认为1024。如果Map Task实际使用的资源量超过该值,则会被强制杀死。

    (2) mapreduce.reduce.memory.mb: 一个Reduce Task可使用的资源上限(单位:MB),默认为1024。如果Reduce Task实际使用的资源量超过该值,则会被强制杀死。

    (3) mapreduce.map.java.opts: Map TaskJVM参数,你可以在此配置默认的java heap size等参数, e.g.

    -Xmx1024m -verbose:gc -Xloggc:/tmp/@taskid@.gc” (@taskid@会被Hadoop框架自动换为相应的taskid, 默认值: “”

    (4) mapreduce.reduce.java.opts: Reduce TaskJVM参数,你可以在此配置默认的java heap size等参数, e.g.

    -Xmx1024m -verbose:gc -Xloggc:/tmp/@taskid@.gc, 默认值: “”

    (5) mapreduce.map.cpu.vcores: 每个Map task可使用的最多cpu core数目, 默认值: 1

    (6) mapreduce.map.cpu.vcores: 每个Reduce task可使用的最多cpu core数目, 默认值: 1

    2.4.2 容错相关参数

    (1) mapreduce.map.maxattempts: 每个Map Task最大重试次数,一旦重试参数超过该值,则认为Map Task运行失败,默认值:4

    (2) mapreduce.reduce.maxattempts: 每个Reduce Task最大重试次数,一旦重试参数超过该值,则认为Map Task运行失败,默认值:4

    (3) mapreduce.map.failures.maxpercent: 当失败的Map Task失败比例超过该值为,整个作业则失败,默认值为0. 如果你的应用程序允许丢弃部分输入数据,则该该值设为一个大于0的值,比如5,表示如果有低于5%Map Task失败(如果一个Map Task重试次数超过mapreduce.map.maxattempts,则认为这个Map Task失败,其对应的输入数据将不会产生任何结果),整个作业扔认为成功。

    (4) mapreduce.reduce.failures.maxpercent: 当失败的Reduce Task失败比例超过该值为,整个作业则失败,默认值为0.

    (5) mapreduce.task.timeout: Task超时时间,经常需要设置的一个参数,该参数表达的意思为:如果一个task在一定时间内没有任何进入,即不会读取新的数据,也没有输出数据,则认为该task处于block状态,可能是卡住了,也许永远会卡主,为了防止因为用户程序永远block住不退出,则强制设置了一个该超时时间(单位毫秒),默认是300000。如果你的程序对每条输入数据的处理时间过长(比如会访问数据库,通过网络拉取数据等),建议将该参数调大,该参数过小常出现的错误提示是“AttemptID:attempt_14267829456721_123456_m_000224_0 Timed out after 300 secsContainer killed by the ApplicationMaster.”。

    2.4.3 本地运行mapreduce

    设置以下几个参数:

    mapreduce.framework.name=local

    mapreduce.jobtracker.address=local

    fs.defaultFS=local

    2.4.4 效率和稳定性相关参数

    (1) mapreduce.map.speculative: 是否为Map Task打开推测执行机制,默认为false

    (2) mapreduce.reduce.speculative: 是否为Reduce Task打开推测执行机制,默认为false

    (3) mapreduce.job.user.classpath.first & mapreduce.task.classpath.user.precedence:当同一个class同时出现在用户jar包和hadoop jar中时,优先使用哪个jar包中的class,默认为false,表示优先使用hadoop jar中的class

    (4) mapreduce.input.fileinputformat.split.minsize: 每个Map Task处理的数据量(仅针对基于文件的Inputformat有效,比如TextInputFormatSequenceFileInputFormat),默认为一个block大小,即 134217728

    注:

    推断:当一个应用向YARN集群提交作业后,此作业的多个任务由于负载不均衡、资源分布不均等原因都会导致各个任务运行完成的时间不一致,甚至会出现一个任务明显慢于同一作业的其它任务的情况。如果对这种情况不加优化,最慢的任务最终会拖慢整个作业的整体执行进度。好在mapreduce框架提供了任务推断执行机制,当有必要时就启动一个备份任务。最终会采用备份任务和原任务中率先执行完的结果作为最终结果。

  • 相关阅读:
    Exp5
    Exp4
    Exp3
    Exp02
    【TPM】tpm搭建基础指南
    20155316 Exp1 PC平台逆向破解(5)M
    个人早期写的一些组件
    关于spring @scope("prorotype") 和 @aspectj 一起用的问题
    ThreadLocal内存泄漏需要注意的
    Spring IoC 容器大概流程
  • 原文地址:https://www.cnblogs.com/lq0310/p/9839120.html
Copyright © 2011-2022 走看看