zoukankan      html  css  js  c++  java
  • MapReduce

    1.1 MapReduce定义

      1.2 MapReduce优缺点

    1.2.优点

     

     1.2.缺点

     1.3 MapReduce核心思想

    1)分布式的运算程序往往需要分成至少2个阶段。

    2)第一个阶段的MapTask并发实例,完全并行运行,互不相干。

    3)第二个阶段的ReduceTask并发实例互不相干,但是他们的数据依赖于上一个阶段的所有MapTask并发实例的输出。

    4)MapReduce编程模型只能包含一个Map阶段和一个Reduce阶段,如果用户的业务逻辑非常复杂,那就只能多个MapReduce程序,串行运行。

    总结:分析WordCount数据流走向深入理解MapReduce核心思想。

    1.4 MapReduce进程

    1.7 MapReduce编程规范

    用户编写的程序分成三个部分:Mapper、Reducer和Driver。

     

     如果在IDEA上执行代码操作。

     在pom.xml文件中添加如下依赖

    在项目的src/main/resources目录下,新建一个文件,命名为“log4j.properties”

     log4j.properties

    2.1 序列化概述

     

     MapReduce框架原理

    3.1 InputFormat数据输入

     切片与MapTask并行度决定机制

    2.FileInputFormat切片源码解析(input.getSplits(job))

     

     FileInputFormat切片机制

     CombineTextInputFormat切片机制

    框架默认的TextInputFormat切片机制是对任务按文件规划切片,不管文件多小,都会是一个单独的切片,都会交给一个MapTask,这样如果有大量小文件,就会产生大量的MapTask,处理效率极其低下。

    MapReduce工作流程

     

    上面的流程是整个MapReduce最全工作流程,但是Shuffle过程只是从第7步开始到第16步结束,具体Shuffle过程详解,如下:

    1)MapTask收集我们的map()方法输出的kv对,放到内存缓冲区中

    2)从内存缓冲区不断溢出本地磁盘文件,可能会溢出多个文件

    3)多个溢出文件会被合并成大的溢出文件

    4)在溢出过程及合并的过程中,都要调用Partitioner进行分区和针对key进行排序

    5)ReduceTask根据自己的分区号,去各个MapTask机器上取相应的结果分区数据

    6)ReduceTask会取到同一个分区的来自不同MapTask的结果文件,ReduceTask会将这些文件再进行合并(归并排序)

    7)合并成大文件后,Shuffle的过程也就结束了,后面进入ReduceTask的逻辑运算过程(从文件中取出一个一个的键值对Group,调用用户自定义的reduce()方法)

    3.注意

    Shuffle中的缓冲区大小会影响到MapReduce程序的执行效率,原则上说,缓冲区越大,磁盘io的次数越少,执行速度就越快。

    缓冲区的大小可以通过参数调整,参数:io.sort.mb默认100M。

    Map方法之后,Reduce方法之前的数据处理过程称之为Shuffle

      Partition分区

     WritableComparable排序

     

     

    GroupingComparator分组(辅助排序

    对Reduce阶段的数据根据某一个或几个字段进行分组。

    分组排序步骤:

    (1)自定义类继承WritableComparator

    (2)重写compare()方法

    @Override

    public int compare(WritableComparable a, WritableComparable b) {

    // 比较的业务逻辑

    return result;

    }

    (3)创建一个构造将比较对象的类传给父类

    protected OrderGroupingComparator() {

    super(OrderBean.class, true);

    }

    MapTask工作机制

    1)Read阶段:MapTask通过用户编写的RecordReader,从输入InputSplit中解析出一个个key/value。

    (2)Map阶段:该节点主要是将解析出的key/value交给用户编写map()函数处理,并产生一系列新的key/value。

    (3)Collect收集阶段:在用户编写map()函数中,当数据处理完成后,一般会调用OutputCollector.collect()输出结果。在该函数内部,它会将生成的key/value分区(调用Partitioner),并写入一个环形内存缓冲区中。

    (4)Spill阶段:即“溢写”,当环形缓冲区满后,MapReduce会将数据写到本地磁盘上,生成一个临时文件。需要注意的是,将数据写入本地磁盘之前,先要对数据进行一次本地排序,并在必要时对数据进行合并、压缩等操作。

    溢写阶段详情:

    步骤1:利用快速排序算法对缓存区内的数据进行排序,排序方式是,先按照分区编号Partition进行排序,然后按照key进行排序。这样,经过排序后,数据以分区为单位聚集在一起,且同一分区内所有数据按照key有序。

    步骤2:按照分区编号由小到大依次将每个分区中的数据写入任务工作目录下的临时文件output/spillN.out(N表示当前溢写次数)中。如果用户设置了Combiner,则写入文件之前,对每个分区中的数据进行一次聚集操作。

    步骤3:将分区数据的元信息写到内存索引数据结构SpillRecord中,其中每个分区的元信息包括在临时文件中的偏移量、压缩前数据大小和压缩后数据大小。如果当前内存索引大小超过1MB,则将内存索引写到文件output/spillN.out.index中。

    (5)Combine阶段:当所有数据处理完成后,MapTask对所有临时文件进行一次合并,以确保最终只会生成一个数据文件。

    当所有数据处理完后,MapTask会将所有临时文件合并成一个大文件,并保存到文件output/file.out中,同时生成相应的索引文件output/file.out.index。

    在进行文件合并过程中,MapTask以分区为单位进行合并。对于某个分区,它将采用多轮递归合并的方式。每轮合并io.sort.factor(默认10)个文件,并将产生的文件重新加入待合并列表中,对文件排序后,重复以上过程,直到最终得到一个大文件。

    让每个MapTask最终只生成一个数据文件,可避免同时打开大量文件和同时读取大量小文件产生的随机读取带来的开销。

     ReduceTask工作机制

    (1)Copy阶段:ReduceTask从各个MapTask上远程拷贝一片数据,并针对某一片数据,如果其大小超过一定阈值,则写到磁盘上,否则直接放到内存中。

    (2)Merge阶段:在远程拷贝数据的同时,ReduceTask启动了两个后台线程对内存和磁盘上的文件进行合并,以防止内存使用过多或磁盘上文件过多。

    (3)Sort阶段:按照MapReduce语义,用户编写reduce()函数输入数据是按key进行聚集的一组数据。为了将key相同的数据聚在一起,Hadoop采用了基于排序的策略。由于各个MapTask已经实现对自己的处理结果进行了局部排序,因此,ReduceTask只需对所有数据进行一次归并排序即可。

    (4)Reduce阶段:reduce()函数将计算结果写到HDFS上。

     

     Join多种应用

    数据清洗(ETL)

    在运行核心业务MapReduce程序之前,往往要先对数据进行清洗,清理掉不符合用户要求的数据。清理的过程往往只需要运行Mapper程序,不需要运行Reduce程序。

     

     

     

     

     Hadoop数据压缩

    4.1 概述

     

     

     4.2 MR支持的压缩编码

    压缩格式

    hadoop自带?

    算法

    文件扩展名

    是否可切分

    换成压缩格式后,原来的程序是否需要修改

    DEFLATE

    是,直接使用

    DEFLATE

    .deflate

    和文本处理一样,不需要修改

    Gzip

    是,直接使用

    DEFLATE

    .gz

    和文本处理一样,不需要修改

    bzip2

    是,直接使用

    bzip2

    .bz2

    和文本处理一样,不需要修改

    LZO

    否,需要安装

    LZO

    .lzo

    需要建索引,还需要指定输入格式

    Snappy

    否,需要安装

    Snappy

    .snappy

    和文本处理一样,不需要修改

    压缩格式

    对应的编码/解码器

    DEFLATE

    org.apache.hadoop.io.compress.DefaultCodec

    gzip

    org.apache.hadoop.io.compress.GzipCodec

    bzip2

    org.apache.hadoop.io.compress.BZip2Codec

    LZO

    com.hadoop.compression.lzo.LzopCodec

    Snappy

    org.apache.hadoop.io.compress.SnappyCodec

    压缩算法

    原始文件大小

    压缩文件大小

    压缩速度

    解压速度

    gzip

    8.3GB

    1.8GB

    17.5MB/s

    58MB/s

    bzip2

    8.3GB

    1.1GB

    2.4MB/s

    9.5MB/s

    LZO

    8.3GB

    2.9GB

    49.3MB/s

    74.6MB/s

     

     

  • 相关阅读:
    Dubbo与Eureka
    对称加密与非对称加密
    [转] SpringBoot2.0集成WebSocket,实现后台向前端推送信息
    [转] Druid简介(Spring Boot + Mybatis + Druid数据源【自己定制】)
    [转] rsync+inotify实现文件实时同步
    [转] windows server 几大实时同步软件比较
    [转] Springboot 整合RabbitMq ,用心看完这一篇就够了
    [转] Windows环境下部署RabbitMQ
    [转] 分布式缓存 Redis 集群搭建
    [转] 吞吐量(TPS)、QPS、并发数、响应时间(RT)概念
  • 原文地址:https://www.cnblogs.com/liqian-/p/13381795.html
Copyright © 2011-2022 走看看