zoukankan      html  css  js  c++  java
  • 必须掌握的分布式文件存储系统—HDFS

    HDFS(Hadoop Distributed File System)分布式文件存储系统,主要为各类分布式计算框架如Spark、MapReduce等提供海量数据存储服务,同时HBase、Hive底层存储也依赖于HDFS。HDFS提供一个统一的抽象目录树,客户端可通过路径来访问文件,如hdfs://namenode:port/dir-a/a.data。HDFS集群分为两大角色:Namenode、Datanode(非HA模式会存在Secondary Namenode)

    Namenode

    Namenode是HDFS集群主节点,负责管理整个文件系统的元数据,所有的读写请求都要经过Namenode。

    元数据管理

    Namenode对元数据的管理采用了三种形式:

    1) 内存元数据:基于内存存储元数据,元数据比较完整

    2) fsimage文件:磁盘元数据镜像文件,在NameNode工作目录中,它不包含block所在的Datanode 信息

    3) edits文件:数据操作日志文件,用于衔接内存元数据和fsimage之间的操作日志,可通过日志运算出元数据

    fsimage + edits = 内存元数据

    注意:当客户端对hdfs中的文件进行新增或修改时,操作记录首先被记入edit日志文件,当客户端操作成功后,相应的元数据会更新到内存元数据中

    可以通过hdfs的一个工具来查看edits中的信息

    bin/hdfs  oev  -i  edits  -o  edits.xml

    查看fsimage

    bin/hdfs  oiv  -i  fsimage_0000000000000000087  -p  XML  -o  fsimage.xml

    元数据的checkpoint(非HA模式)

    Secondary Namenode每隔一段时间会检查Namenode上的fsimage和edits文件是否需要合并,如触发设置的条件就开始下载最新的fsimage和所有的edits文件到本地,并加载到内存中进行合并,然后将合并之后获得的新的fsimage上传到Namenode。checkpoint操作的触发条件主要配置参数:

    dfs.namenode.checkpoint.check.period=60  #检查触发条件是否满足的频率,单位秒

    dfs.namenode.checkpoint.dir=file://${hadoop.tmp.dir}/dfs/namesecondary

    dfs.namenode.checkpoint.edits.dir=${dfs.namenode.checkpoint.dir}

    #以上两个参数做checkpoint操作时,secondary namenode的本地工作目录,主要处理fsimage和edits文件的

    dfs.namenode.checkpoint.max-retries=3  #最大重试次数

    dfs.namenode.checkpoint.period=3600  #两次checkpoint之间的时间间隔3600秒

    dfs.namenode.checkpoint.txns=1000000  #两次checkpoint之间最大的操作记录

    checkpoint作用

    1. 加快Namenode启动Namenode启动时,会合并磁盘上的fsimage文件和edits文件,得到完整的元数据信息,但如果fsimage和edits文件非常大,这个合并过程就会非常慢,导致HDFS长时间处于安全模式中而无法正常提供服务。SecondaryNamenode的checkpoint机制可以缓解这一问题

    2. 数据恢复Namenode和SecondaryNamenode的工作目录存储结构完全相同,当Namenode故障退出需要重新恢复时,可以从SecondaryNamenode的工作目录中将fsimage拷贝到Namenode的工作目录,以恢复Namenode的元数据。但是SecondaryNamenode最后一次合并之后的更新操作的元数据将会丢失,最好Namenode元数据的文件夹放在多个磁盘上面进行冗余,降低数据丢失的可能性。

    注意事项:

    1. SecondaryNamenode只有在第一次进行元数据合并时需要从Namenode下载fsimage到本地。SecondaryNamenode在第一次元数据合并完成并上传到Namenode后,所持有的fsimage已是最新的fsimage,无需再从Namenode处获取,而只需要获取edits文件即可。

    2. SecondaryNamenode从Namenode上将要合并的edits和fsimage拷贝到自己当前服务器上,然后将fsimage和edits反序列化到SecondaryNamenode的内存中,进行计算合并。因此一般需要把Namenode和SecondaryNamenode分别部署到不同的机器上面,且SecondaryNamenode服务器配置要求一般不低于Namenode。

    3. SecondaryNamenode不是充当Namenode的“备服务器”,它的主要作用是进行元数据的checkpoint

    Datanode

    Datanode作为HDFS集群从节点,负责存储管理用户的文件块数据,并定期向Namenode汇报自身所持有的block信息(这点很重要,因为,当集群中发生某些block副本失效时,集群如何恢复block初始副本数量的问题)。

    关于Datanode两个重要的参数:

    1. 通过心跳信息上报参数

    <property>

    <name>dfs.blockreport.intervalMsec</name>

    <value>3600000</value>

    <description>Determines block reporting interval in milliseconds.</description>

    </property>

    2. Datanode掉线判断时限参数

    Datanode进程死亡或者网络故障造成Datanode无法与Namenode通信时,Namenode不会立即把该Datanode判定为死亡,要经过一段时间,这段时间称作超时时长。HDFS默认的超时时长为10分钟30秒。如果定义超时时间为timeout,则超时时长的计算公式为:

    timeout = 2 * heartbeat.recheck.interval(默认5分钟) + 10 * dfs.heartbeat.interval(默认3秒)。

    <property>

            <name>heartbeat.recheck.interval</name>

            # 单位毫秒

            <value>2000</value>

    </property>

    <property>

            <name>dfs.heartbeat.interval</name>

            # 单位秒

            <value>1</value>

    </property>

    HDFS写数据流程

    了解了Namenode和Datanode的作用后,就很容易理解HDFS读写数据流程,这个也是面试中经常问的问题。

    HDFS写数据流程

    注意:

    1.文件block块切分和上传是在客户端进行的操作

    2.Datanode之间本身是建立了一个RPC通信建立pipeline

    3.客户端先从磁盘读取数据放到一个本地内存缓存,开始往Datanode1上传第一个block,以packet为单位,Datanode1收到一个packet就会传给Datanode2,Datanode2传给Datanode3;Datanode1每传一个packet会放入一个应答队列等待应答

    4.当一个block传输完成之后,客户端会通知Namenode存储块完毕,Namenode将元数据同步到内存中

    5. Datanode之间pipeline传输文件时,一般按照就近可用原则

    a) 首先就近挑选一台机器

    b) 优先选择另一个机架上的Datanode

    c) 在本机架上再随机挑选一台

    HDFS读数据流程

    注意:

    1. Datanode发送数据,是从磁盘里面读取数据放入流,以packet为单位来做校验

    2. 客户端以packet为单位接收,先在本地缓存,然后写入目标文件

    客户端将要读取的文件路径发送给namenode,namenode获取文件的元信息(主要是block的存放位置信息)返回给客户端,客户端根据返回的信息找到相应datanode逐个获取文件的block并在客户端本地进行数据追加合并从而获得整个文件

    HDFS HA机制

    HA:高可用,通过双Namenode消除单点故障。

    双Namenode协调工作的要点:

    1. 元数据管理方式需要改变

    a) 内存中各自保存一份元数据

    b) edits日志只能有一份,只有active状态的Namenode节点可以做写操作

    c) 两个Namenode都可以读取edits

    d) 共享的edits放在一个共享存储中管理(qjournal和NFS两个主流实现,图中以放在一个共享存储中管理(qjournal和为例)

    2. 需要一个状态管理功能模块

    a) 实现了一个zk failover,常驻在每一个Namenode所在的节点

    b) 每一个zk failover负责监控自己所在Namenode节点,利用zk进行状态标识,当需要进行状态切换时,由zk failover来负责切换,切换时需要防止brain split现象的发生


    关注微信公众号:大数据学习与分享,获取更对技术干货

  • 相关阅读:
    Chrome cookies folder
    Fat URLs Client Identification
    User Login Client Identification
    Client IP Address Client Identification
    HTTP Headers Client Identification
    The Personal Touch Client Identification 个性化接触 客户识别
    购物车 cookie session
    购物车删除商品,总价变化 innerHTML = ''并没有删除节点,内容仍存在
    453
    购物车-删除单行商品-HTMLTableElement.deleteRow()
  • 原文地址:https://www.cnblogs.com/bigdatalearnshare/p/13869526.html
Copyright © 2011-2022 走看看