zoukankan      html  css  js  c++  java
  • hadoop-DataNode工作机制

    1.DataNode工作机制

      

      1.一个数据块在DataNode上以文件形式存储在磁盘上,包括两个文件,一个是数据本身,一个是元数据包括数据块的长度,块数据的效验和,以及时间戳;

      2.DataNode启动后向NameNode注册,通过后,周期性的向NameNode上报所有的块信息;

      3.心跳是每三秒一次,心跳返回结果带有NameNode给该DataNode的命令如复制块数据到另一台机器,或删除某个数据块。如果超过10分钟没有收到某个DataNode的心跳,则认为该节点不可用;

      4.集群运行中可以安全加入和退出一些机器;

    2.数据完整性

      1.当DataNode读取block的时候,它会计算checksum;

      2.如果计算后的checksum,与block创建时值不一样,说明block已经损坏;

      3.client读取其他DataNode上的block;

      4.DataNode在其文件创建后周期验证checksum;

        

    3.掉线时限参数设置

      DataNode进程死亡或者网络故障造成DataNode无法与NameNode通信,NameNode不会立即把该节点判定为死亡,要进过一段时间,这段时间暂称作超时时长。HDFS默认的超时时长为10分钟+30秒。如果定义超时时间为timeout,则超时时长的计算公式为:

    timeout = 2 * dfs.namenode.heartbeat.recheck-interval + 10 * dfs.heartbeat.interval。

      而默认的dfs.namenode.heartbeat.recheck-interval大小为五分钟,dfs.heartbeat.interval默认为三秒;

      需要注意的是hdfs-site.xml配置文件的heartbeat.recheck.interval的单位为毫秒,dfs.heartbeat.interval的单位为秒;

    <property>
        <name>dfs.namenode.heartbeat.recheck-interval</name>
        <value>300000</value>
    </property>
    <property>
        <name> dfs.heartbeat.interval </name>
        <value>3</value>
    </property>

    4.服役新数据节点

      随着公司业务的增长,数据量越来越大,原有的数据节点的容量已经不能满足存储数据的需求,需要在原有的集群基础上添加新的数据节点;

      4.1 环境准备

        4.1.1 克隆一台虚拟机

        4.1.2 修改ip地址和主机名称

        4.1.3 修改xcall和xsync文件,增加新增节点的同步ssh

        4.1.4 删除原来HDFS文件系统留存的文件/opt/module/hadoop/data

        4.1.5 服役新节点具体步骤

          (1) 在NameNode的/opt/module/hadoop/etc/hadoop目录下创建dfs.hosts文件,内容如下:

    #添加如下主机名称(包含新服役的节点)
    hadoop102
    hadoop103
    hadoop104
    hadoop105

          (2) 在NameNode的hdfs-site.xml配置文件中增加dfs.hosts属性

    <property>
        <name>dfs.hosts</name>
        <value>/opt/module/hadoop/etc/hadoop/dfs.hosts</value>
    </property>

          (3)刷新NameNode

    hdfs dfsadmin -refreshNodes

          (4) 更新resourcemanager节点

    yarn rmadmin -refreshNodes

          (5) 在NameNode的/opt/module/hadoop/etc/hadoop目录下的slaves文件中增加新主机名称

    #增加 105 
    hadoop102
    hadoop103
    hadoop104
    hadoop105

            分发给其他集群

    ./xsync xsync
    ./xsync /opt/module/hadoop/etc/hadoop/

          (6)单独命令启动新的数据节点和节点管理器

    hadoop-daemon.sh start datanode
    yarn-daemon.sh start nodemanager

          (7) 在web浏览器上检查是否OK

          (8) 如果数据不均衡,可以用命令实现集群的在平衡

    ./start-balancer.sh

    5.服役旧数据节点

      5.1 添加白名单

        添加到白名单的主节点,都允许犯法NameNode,不在白名单的主机节点,都会被退出;

          5.1.1 在NameNode的/opt/module/hadoop/etc/hadoop目录下创建whitelist文件

            

          5.1.2 在NameNode的hdfs-site.xml配置文件中增加dfs.hosts属性 

         <property>
            <name>dfs.hosts</name>
            <value>/opt/module/hadoop/etc/hadoop/whitelist</value>
         </property>

          5.1.3 刷新NameNode,刷新resourcemanager    

     hdfs dfsadmin -refreshNodes
    yarn rmadmin -refreshNodes

          

            在启动白名单的时候,黑名单中的主机自动删除了,挂掉了;

      5.2 添加黑名单

        在黑名单上面的主机都会被强制退出

          5.2.1 在NameNode的/opt/module/hadoop/etc/hadoop目录下创建blacklist文件

            

          5.2.2 在NameNode的hdfs-site.xml配置文件中增加dfs.hosts.exclude属性

    <property>
        <name>dfs.hosts.exclude</name>
        <value>/opt/module/hadoop/etc/hadoop/blacklist</value>
    </property>

          5.2.3 刷新NameNode,刷新resourcemanager

     hdfs dfsadmin -refreshNodes
    yarn rmadmin -refreshNodes

        

    6.DataNode多目录

      6.1 DataNode也可以配置成多个目录,每个目录存储的数据不一样;即:数据不是副本;

      6.2 配置如下【hdfs-site.xml】

    <property>
        <name>dfs.datanode.data.dir</name>
        <value>file:///${hadoop.tmp.dir}/dfs/data1,file:///${hadoop.tmp.dir}/dfs/data2</value>
    </property>

        

  • 相关阅读:
    Unity3D在各平台上的路径
    Unity简单的单例模式
    C#遍历枚举(Enum)
    C#常用的流类型(FileStream,SteamWriter/StreamReader,MemoryStream等)
    编写一个C程序,运行时输入a,b,c三个值,输出其中最大者
    精确一维搜索算法(直接法)
    Java一维数组求和
    java 导出EXCEL
    Java判断字符串的数字类型(小数、整数)
    网址存储
  • 原文地址:https://www.cnblogs.com/wnwn/p/12560223.html
Copyright © 2011-2022 走看看