zoukankan      html  css  js  c++  java
  • 深入理解Hadoop读书笔记-1

    背景

    公司的物流业务系统目前实现了使用storm集群进行过门事件的实时计算处理,但是还有一个需求,我们需要存储每个标签上传的每条明细数据,然后进行定期的标签报表统计,这个是目前的实时计算框架无法满足的,需要考虑离线存储和计算引擎。

    标签的数据量是巨大的,此时存储在mysql中是不合适的,所以我们考虑了分布式存储系统HDFS。目前考虑的架构是,把每条明细数据存储到HDFS中,利用Hive或者其他类SQL的解析引擎,定期进行离线统计计算。

    查找相关资料后,我下载了深入理解Haddoop这本书,从大数据的一些基础原理开始调研,这一系列的笔记就是调研笔记。

    深入理解Hadoop

    1. 大数据的核心处理思想

      • 数据分布在多个节点并行处理
        • 提高处理速度
        • 同一个数据在不同节点有多份拷贝可以保持容错
      • 计算程序尽量靠近数据
      • 数据的处理尽量在本地完成
      • 顺序IO代替随机IO
    2. MapReduce的编程模型

      假设有海量的文档需要统计词频

      • 每个mapper处理一个输入文件,逐行处理数据,生成键值对
      • 排序键值对,根据reducer的个数,分发<key,lisy<值>>到不同的reducer处理(确保相同的key可以被分到同一个子集)
      • reducer任务合并多个相同key中的list<值>数据,输出键值对,最后合并到文件

    1. Hadoop1.X系统(守护进程)构成

      • NameNode:维护存储在HDFS上的所有文件的元数据信息,包括:数据块信息和数据块在节点的位置

      • Secondary NameNode:内务处理功能

      • Data Node:负责把真正的数据块存储在本地硬盘上

      • Job Tracker:调度子任务/监控任务和节点/失败子任务的重新调度

      • Task Tracker:运行在数据节点上,负责子任务的启动和管理

        还可以按照主从节点来分类:

      • 主节点

        • NN SN JT
      • 从节点

        • DN TT
    2. HDFS分布式文件系统为什么适合存储大文件而不适合存储大量的小文件?

      HDFS中文件会被分成多个数据块,每个数据块默认有三个备份,NN默认把信息保存在本地磁盘中,为了加快访问,会存储在内存中。假设有1G的一个文件和1000个1MB的文件,数据块默认大小为64MB,总数据块的数量为 1024/64 * 3 = 48块 和 1000 * 3 = 3000块的差距。(同一个文件可以存储在同一个数据块在中,不同文件不能存储在同一个数据块)

    3. 辅助名称节点的工作原理(待完成)

    4. HDFS的写入过程你能简单说说吗?

      1. 客户端需要像NN请求写入,NN会检查是否有权限

      2. 客户端接收到允许写入后,开始准备数据,当数据大小为一个块时,会调用NN请求数据节点信息

      3. NN创建文件,并生成块id,同时把数据节点相关的连接信息返回给客户端

      4. 客户端开始和节点1通信,等待节点1回复ACK

      5. 节点1存储数据,同时会与节点二通信,等待节点2返回ACK

      6. 节点3存储数据后,直接返回ACK

    5. 写入过程中存在哪些异常情况?

      • 写入错误-成功备份的块数量小于设置的数量

        当集群数量较小时,比如只有四台机器,如果默认开启三个数据块备份,那么当数据管道中有DN失败时,会去找其他健康的DN进行备份,假如两台DN都有问题,那么就无法满足最小3个数据块的备份需求。可以修改一个参数: dfs.client.block.write.replace-datanode-on-failure.enable 设置为false,表示如果在写入的pipeline有datanode失败的时候是否要切换到新的机器,默认为true。

      • 待添加..

    6. HDFS读文件机制

      1. 客户端请求NN读取文件

      2. NN返回文件的元数据信息

      3. 客户端直接访问对应数据节点获取数据块即可

    7. 简单说说 任务跟踪器和作业跟踪器的工作原理,各自负责什么?

      作业跟踪器负责接收客户端提交的任务,从名称节点获取输入文件的数据块信息,并采取数据就近原则把任务分配到 数据节点的任务跟踪器上。同时监控任务跟踪器的执行情况,在任务跟踪器节点故障时分配任务到其他的任务跟踪器节点。

      任务跟踪器负责实际执行任务,并且定时汇报心跳信息给作业跟踪器。

    1. Hadoop2.0中的Yarn都有什么组件?负责做什么?

      • 全局资源管理器:负责全局的资源调度
      • 节点管理器:负责具体节点的资源监控和资源分配
      • 应用程序管理器:每种应用有不同的应用程序管理器,负责分析任务数量,向全局资源管理器申请资源,监控任务运行情况,重新调度任务。
      • 容器:cpu和内存的抽象,任务和应用程序管理器都需要运行在容器中。
    2. Yarn提交任务的执行流程

      1. 客户端提交作业
      2. 全局资源管理器判断作业的类型,通过节点管理器给应用程序管理器分配容器
      3. 应用程序管理器运行在容器中,同时像全局资源管理器注册自己,申请任务资源
      4. 全局资源管理器确定资源后,通过节点管理器分配任务所需容器
      5. 运行在容器中的任务,通过应用特定的协议像应用程序管理器上报状态


  • 相关阅读:
    Linux共享wifi给Android手机
    史上最简单的Hibernate入门简单介绍
    TRIZ系列-创新原理-29-气动或液压结构原理
    使用GDI+进行图片处理时要注意的问题
    触发器系列(2) DataTrigger
    FizzBuzzWhizz问题python解法
    实现二值图像连通区标记之区域生长法
    《Java并发编程实战》第四章 对象的组合 读书笔记
    XCL-Charts画曲线图(CurveChart) 例2
    oracle中imp命令具体解释
  • 原文地址:https://www.cnblogs.com/ging/p/13541973.html
Copyright © 2011-2022 走看看