zoukankan      html  css  js  c++  java
  • Hadoop高可用配置过程(dudu)

    前提:开启所有的虚拟机!!!!

    第一步,停掉hadoop,linux命令窗口中停掉hdfs :    stop-all.sh,

    第二步,克隆,把克隆192.168.31.100给192.168.31.105,

          操作是点击鼠标右键→一直下一步,修改一下虚拟机名称

    第三步,在【105】启动虚拟机,打开105,在命令中修改参数

      ①配置hostname:sudo nano hostname /etc/hostname      将 改为是s105

      ②配置静态ip :sudo nano /etc/sysconfig/network-scripts/ifcfg-ens33  最后改成105

      ③重启:roboot

    剩下的都在101中操作

    在【101】中

      ③修改hosts:sudo nano /etc/hosts  添加:

       192.168.79.100  s100
            192.168.79.101  s101
            192.168.79.102  s102
            192.168.79.103  s103
            192.168.79.104  s104
            192.168.79.105  s105

       ④分发,直接粘贴到命令行:

    sudo scp /etc/hosts root@s102:/etc/
    sudo scp /etc/hosts root@s103:/etc/
    sudo scp /etc/hosts root@s104:/etc/
    sudo scp /etc/hosts root@s105:/etc/

    ⑤创建ha目录,修改符号链接,在目录 /soft/hadoop/etc下进行,即cd /soft/hadoop/etc

      cp -r full/ ha

      ln -sfT ha hadoop

    二、修改配置文件:在【101】中

      1.core-site.xml,将下面代码复制进去

    命令:nano  /soft/hadoop/etc/hadoop  core-site.xml
        --------------------------------------

    <?xml version="1.0" encoding="UTF-8"?>
    <?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
    
    <configuration>
        <property>
            <name>fs.defaultFS</name>
            <value>hdfs://mycluster</value>
        </property>
        <property>
            <name>hadoop.tmp.dir</name>
            <value>/home/centos/ha</value>
        </property>
        <property>
          <name>dfs.journalnode.edits.dir</name>
          <value>/home/centos/ha/journal</value>
        </property>
    </configuration>
    View Code

      2.hdfs-site.xml,将下面代码复制进去

      命令:nano  /soft/hadoop/etc/hadoop  hdfs-site.xml

    <?xml version="1.0" encoding="UTF-8"?>
    <?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
    
    <configuration>
        <property>
            <name>dfs.replication</name>
            <value>3</value>
        </property>
        <!-- 声明名字服务 -->
        <property>
          <name>dfs.nameservices</name>
          <value>mycluster</value>
        </property>
        <!-- 声明两个节点名称 -->
        <property>
          <name>dfs.ha.namenodes.mycluster</name>
          <value>nn1,nn2</value>
        </property>
        <!-- 声明节点名称指定的真实主机名 -->
        <property>
          <name>dfs.namenode.rpc-address.mycluster.nn1</name>
          <value>s101:8020</value>
        </property>
        <property>
          <name>dfs.namenode.rpc-address.mycluster.nn2</name>
          <value>s105:8020</value>
        </property>
        <!-- 声明节点名称指定的真实主机名web端口 -->
        <property>
          <name>dfs.namenode.http-address.mycluster.nn1</name>
          <value>s101:50070</value>
        </property>
        <property>
          <name>dfs.namenode.http-address.mycluster.nn2</name>
          <value>s105:50070</value>
        </property>
        <property>
          <name>dfs.namenode.shared.edits.dir</name>
          <value>qjournal://s104:8485;s103:8485;s102:8485/mycluster</value>
        </property>
        <property>
          <name>dfs.client.failover.proxy.provider.mycluster</name>
          <value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>
        </property>
        <property>
          <name>dfs.ha.fencing.methods</name>
          <value>
            sshfence
            shell(/bin/true)
          </value>
        </property>
    </configuration>    
    View Code

      3、同步配置文件

    scp -r /soft/hadoop/etc centos@s102:/soft/hadoop/
    scp -r /soft/hadoop/etc centos@s103:/soft/hadoop/
    scp -r /soft/hadoop/etc centos@s104:/soft/hadoop/
    scp -r /soft/hadoop/etc centos@s105:/soft/hadoop/
        
     4、修改符号链接
    ssh s102 ln -sfT /soft/hadoop/etc/ha /soft/hadoop/etc/hadoop
    ssh s103 ln -sfT /soft/hadoop/etc/ha /soft/hadoop/etc/hadoop
    ssh s104 ln -sfT /soft/hadoop/etc/ha /soft/hadoop/etc/hadoop
    ssh s105 ln -sfT /soft/hadoop/etc/ha /soft/hadoop/etc/hadoop

     5、启动journalnode
     hadoop-daemons.sh start journalnode
            
     6、格式化文件系统
     hdfs namenode -format
            
    7、将s101的~/ha目录同步到s105节点
    scp -r ~/ha centos@s105:~/
            
    8、start-dfs.sh

    9、将s101的namenode变为激活状态(active)
            hdfs haadmin -transitionToActive nn1
            
    10、检查进程
            s101和s105:用jps命令
                namenode

  • 相关阅读:
    (44)FreeRTOS学习之一
    (43)软件架构设计思想总结
    (42)嵌入式项目中常用到的C语言技能总结
    (41)freeRTOS之任务管理
    (40)每个新手程序员都会犯的5个错误
    (39)23种设计模式研究之十【状态模式】
    (38)23种设计模式研究之九【迭代器模式和组合模式】
    (37)23种设计模式研究之八【模板方法模式】
    (36)23种设计模式研究之七【适配器模式和外观模式】
    (35)23种设计模式研究之六【命令模式】
  • 原文地址:https://www.cnblogs.com/akinodoo/p/10119270.html
Copyright © 2011-2022 走看看