zoukankan      html  css  js  c++  java
  • Hadoop 动态扩容 增加节点

    • 基础准备

      在基础准备部分,主要是设置hadoop运行的系统环境

      1. 修改系统hostname(通过hostname和/etc/sysconfig/network进行修改)

      2. 修改hosts文件,将集群所有节点hosts配置进去(集群所有节点保持hosts文件统一)

      3. 设置NameNode(两台HA均需要)到DataNode的免密码登录(ssh-copy-id命令实现,可以免去cp *.pub文件后的权限修改)

      4. 修改主节点slave文件,添加新增节点的ip信息(集群重启时使用)

      5. 将hadoop的配置文件scp到新的节点上

    • 添加DataNode

      对于新添加的DataNode节点,需要启动datanode进程,从而将其添加入集群

      1. 在新增的节点上,运行hadoop-daemon.sh start datanode即可

      2. 然后在namenode通过hdfs dfsadmin -report查看集群情况

      3. 最后还需要对hdfs负载设置均衡,因为默认的数据传输带宽比较低,可以设置为64M,即hdfs dfsadmin -setBalancerBandwidth 67108864即可

      4. 默认balancer的threshold为10%,即各个节点与集群总的存储使用率相差不超过10%,我们可将其设置为5%

      5. 然后启动Balancer,sbin/start-balancer.sh -threshold 5,等待集群自均衡完成即可

    • 添加Nodemanager

      由于Hadoop 2.X引入了YARN框架,所以对于每个计算节点都可以通过NodeManager进行管理,同理启动NodeManager进程后,即可将其加入集群

      1. 在新增节点,运行yarn-daemon.sh start nodemanager即可

      2. 在ResourceManager,通过yarn node -list查看集群情况

  • 相关阅读:
    函数的逻辑读成零
    SQL逻辑读变成零
    体系结构中共享池研究
    执行计划基础 动态采样
    执行计划基础 统计信息
    识别低效率的SQL语句
    oracle 知识
    XPATH 带命名空间数据的读取
    ACTIVITI 研究代码 之 模版模式
    ACTIVITI 源码研究之命令模式执行
  • 原文地址:https://www.cnblogs.com/mengzj233/p/9759457.html
Copyright © 2011-2022 走看看