zoukankan      html  css  js  c++  java
  • MapReduce原理——分而治之

    一、MapReduce简介

    MapReduce是一种并行可扩展计算模型,并且有较好的容错性,是一个分布式运算程序的编程框架,核心功能是将用户编写的业务逻辑代码和自带默认组件整合成一个完整的分布式运算程序,并发运行在一个hadoop集群上,主要解决海量的离线数据的批处理,实现如下目标:

    • 易于编程
    • 良好的扩展性
    • 高容错性

    二、MapReduce并行处理的基本过程

    image

    一切都是从最上方的user program开始的,user program链接了MapReduce库,实现了最基本的Map函数和Reduce函数。图中执行的顺序都用数字标记了。

    1. MapReduce库先把userprogram的输入文件划分为M份(M为用户定义),如图左方所示分成了split0~4;然后使用fork将用户进程拷贝到集群内其它机器上。

    2. user program的副本中有一个称为master,其余称为worker,master是负责调度的,为空闲worker分配作业(Map作业或者Reduce作业),worker的数量也是
         可以由用户指定的。

    3. 被分配了Map作业的worker,开始读取对应分片的输入数据,Map作业数量是由M决定的,和split一一对应;Map作业从输入数据中抽取出键值对,每一个键值对
      都作为参数传递给map函数,map函数产生的中间键值对被缓存在内存中。

    4. 缓存的中间键值对会被定期写入本地磁盘,而且被分为R个区,R的大小是由用户定义的,将来每个区会对应一个Reduce作业;这些中间键值对的位置会被通报
          给master,master负责将信息转发给Reduce worker。

    5. master通知分配了Reduce作业的worker它负责的分区在什么位置(肯定不止一个地方,每个Map作业产生的中间键值对都可能映射到所有R个不同分区),当
      Reduce worker把所有它负责的中间键值对都读过来后,先对它们进行排序,使得相同键的键值对聚集在一起。因为不同的键可能会映射到同一个分区也就是
      同一个Reduce作业(谁让分区少呢),所以排序是必须的。

    6. reduce worker遍历排序后的中间键值对,对于每个唯一的键,都将键与关联的值传递给reduce函数,reduce函数产生的输出会添加到这个分区的输出文件中。

    7. 当所有的Map和Reduce作业都完成了,master唤醒正版的user program,MapReduce函数调用返回user program的代码。

    8. 所有执行完毕后,MapReduce输出放在了R个分区的输出文件中(分别对应一个Reduce作业)。用户通常并不需要合并这R个文件,而是将其作为输入交给另一
      个MapReduce程序处理。整个过程中,输入数据是来自底层分布式文件系统(GFS)的,中间数据是放在本地文件系统的,最终输出数据是写入底层分布式文件系统(GFFS)的。而且我们要注意Map/Reduce作业和map/reduce函数的区别:Map作业处理一个输入数据的分片,可能需要调用多次map函数来处理每个输入键值对;Reduce作业处理一个分区的中间键值对,期间要对每个不同的键调用一次reduce函数,Reduce作业最终也对应一个输出文件。

    MapReduce中Shuffle过程
    Shuffle的过程:描述数据从map task输出到reduce task输入的这段过程。
    image
    我们对Shuffle过程的期望是:
    ★ 完整地从map task端拉取数据到reduce task端
    ★ 跨界点拉取数据时,尽量减少对带宽的不必要消耗
    ★ 减小磁盘IO对task执行的影响

    先看map端:
    image

    详细流程:

    1. maptask收集我们的map()方法输出的kv对,放到内存缓冲区中
    2. 从内存缓冲区不断溢出本地磁盘文件,可能会溢出多个文件
    3. 多个溢出文件会被合并成大的溢出文件
    4. 在溢出过程中,及合并的过程中,都要调用partitoner进行分组和针对key进行排序

    再看reduce端:
    image

    详细流程:

    1. reducetask根据自己的分区号,去各个maptask机器上取相应的结果分区数据
    2. reducetask会取到同一个分区的来自不同maptask的结果文件,reducetask会将这些文件再进行合并(归并排序)
    3. 合并成大文件后,shuffle的过程也就结束了,后面进入reducetask的逻辑运算过程(从文件中取出一个一个的键值对group,调用用户自定义的reduce()方法)

    Shuffle中的缓冲区大小会影响到mapreduce程序的执行效率,原则上说,缓冲区越大,磁盘io的次数越少,执行速度就越快
    缓冲区的大小可以通过参数调整, 参数:io.sort.mb 默认100M
      

    三、MapReduce实际处理流程

    mapreduce 其实是分治算法的一种现,所谓分治算法就是“就是分而治之 ,将大的问题分解为相同类型的子问题(最好具有相同的规模),对子问题进行求解,然后合并成大问题的解。

    mapreduce就是分治法的一种,将输入进行分片,然后交给不同的task进行处理,然后合并成最终的解。 mapreduce实际的处理过程可以理解为Input->Map->Sort->Combine->Partition->Reduce->Output

    1. Input阶段
      数据以一定的格式传递给Mapper,有TextInputFormat,DBInputFormat,SequenceFileFormat等可以使用,在Job.setInputFormat可以设置,也可以自定义分片函数。
    2. map阶段
      对输入的(key,value)进行处理,即map(k1,v1)->list(k2,v2),使用Job.setMapperClass进行设置。
    3. Sort阶段
      对于Mapper的输出进行排序,使用Job.setOutputKeyComparatorClass进行设置,然后定义排序规则。
    4. Combine阶段
      这个阶段对于Sort之后又相同key的结果进行合并,使用Job.setCombinerClass进行设置,也可以自定义Combine Class类。
    5. Partition阶段
      将Mapper的中间结果按照key的范围划分为R份(Reduce作业的个数),默认使用HashPartioner(key.hashCode()&Integer.MAX_VALUE%numPartitions),也可以自定义划分的函数。使用Job.setPartitionClass设置。
    6. Reduce阶段
      对于Mapper阶段的结果进行进一步处理,Job.setReducerClass进行设置自定义的Reduce类。
    7. Output阶段
      Reducer输出数据的格式。

    四、一个job的运行流程

    Yarn是一个资源调度平台,负责为运算程序提供服务器运算资源,相当于一个分布式的操作系统平台,而mapreduce等运算程序则相当于运行于操作系统之上的应用程序。

    MapReduce运行在Yarn之上,其架构:
    image

    名称解释

    ResourceManager
    RM是一个全局的资源管理器,负责整个系统的资源管理与分配,主要包括两个组件:调度器Scheduler和应用程序管理器Applications Manager。

    调度器接收来自ApplicationMaster的应用程序资源请求,把集群中的资源以“容器”的形式分配给提出申请的应用程序,容器的选择通常考虑应用程序所要处理的数据的位置,就近选择,实现“计算向数据靠拢”。

    Container容器
    动态资源分配的单位,每个容器中都封装一定数量的CPU、内存、磁盘等资源,从而限制每个应用程序可以使用的资源量。

    ApplicationsManager应用程序管理器
    负责系统中所有应用程序的管理工作,主要包括应用程序提交,与调度器协商资源以启动、监控、重启ApplicationMaster。

    ResourceManager接收用户提交的作业(记住,hadoop中处理的用户程序都是以作业的形式来处理的,只是我们计算的时候把作业变成了一个个的map/reduce任务),按照作业的上下文信息及从NodeManager收集来的容器状态信息,启动调度过程,在NodeManager中启动一个容器为ApplicationMaster(applicationMaster的运行也占用资源,它是由resourceManager在nodeManager中启动的一个container)。

    其作用是:
    为应用程序申请资源,并分配给内部任务。
    负责这个任务的调度、监控与容错(任务失败时重申资源,重启任务)。

    NodeManager
    单个节点上的资源管理,每个节点上就有一个, 监控节点上容器的资源使用情况。
    跟踪节点健康状况。
    以“心跳”方式与ResourceManager保持通信。
    接收来自ResourceManager和ApplicationMaster的各种请求。

    Yarn工作流程:

    iamge

    YARN:资源(linux资源隔离机制:运算资源---运算程序jar/配置文件/CPU/内存/IO--从linux中开辟出诸如内存、处理器的container虚拟容器类似docker、openstack)调度系统,负责管理资源调度和任务分配

    1. 用户提交程序,包括ApplicationMaster程序,启动AM的命令和用户程序。
    2. YARN中的ResourceManager负责接收和处理来自客户端的程序,选择NodeManager中的一个容器,启动MR App Mst(ApplicationMaster)。
    3. MR App Mst创建后会先向 ResourceManager注册。
    4. MR App Mst轮询向ResourceManager申请资源。
    5. ResourceManager以容器的方式向提出申请的AM分配资源,NodeManager接收后创建容器容器Container。
    6. 在容器中启动任务,先执行MapTask,容错:如果有一个mapTask执行失败,请重新申请一个容器container。任务备份:一个mapTask执行慢,将重新申请container执行备份任务,取较快者。MapTask执行完成后,appmaster想RM申请指定数量的容器,运行reduceTask程序。
    7. 各个任务向Am报告状态与进度。
    8. 应用程序结束后,AM向RM注销并关闭自己。
  • 相关阅读:
    第2讲——处理数据
    第1讲——用C++写一个程序
    数论18——反演定理(莫比乌斯反演)
    数论17——反演定理(二项式反演)
    数论16——母函数
    数论15——抽屉原理
    数论14——容斥原理
    数论13——康托展开
    com.opensymphony.xwork2.config.ConfigurationManager.addConfigurationProvider
    Tomcat的杂七杂八
  • 原文地址:https://www.cnblogs.com/skyice/p/10425998.html
Copyright © 2011-2022 走看看