zoukankan      html  css  js  c++  java
  • 启动Hadoop HA Hbase zookeeper spark

    服务器角色
    服务器 192.168.58.180 192.168.58.181 192.168.58.182 192.168.58.183
    Name CentOSMaster Slvae1 Slave2 StandByNameNode
    NameNode  Yes      Yes
    DataNode    Yes  Yes  Yes
    journalNode    Yes  yes  Yes
    ZooKeeper  Yes  Yes    Yes
    ZKFC  Yes      Yes
    Spark  Yes      Yes
    hbase Yes Yes    
    Slave2没有zookeeper,所以hbase装在183和181,不过由于hbase.rootdir必须在hdfs上,所以估计还是只能搭载在180和183上。
    就是不知道zk和hbase必须对应,就是说2个hbase,三个zk不知道行不。


    备注:我的公钥文件在/home/hxsyl/.ssh下不在/root/hxsyl下,通过

    find / -name id_rsa

      查找


    1.
    分别在每个机器上运行命令zkServer.sh start或者在$ZOOKEEPER_HOME/bin目录下运行./zkServer.sh start命令。然后可以通过命令jps来查看Zookeeper启动的进程QuorumPeerMain。 
    可通过zkServer.sh status命令来查看Zookeeper状态。正常是机器中只有一个leader,其他的都是follow 
    $ZOOKEEPER_HOME/bin/zkServer.sh start
    

      slave2不要zk了

    DN节点是命令行模式,但是ssh IP “启动”命令显示成功了,但是ip里没进程,但是这种stop就可以 马丹,咋回事  只能去命令杭霞窍


    2.主节点执行
    hdfs zkfc -formatZK
    

      注意:最后的zk是大写,否则

    6/11/30 20:31:45 FATAL tools.DFSZKFailoverController: Got a fatal error, exiting now
    org.apache.hadoop.HadoopIllegalArgumentException: Bad argument: -formatzk
    

      

    这个必须设置自动故障切换为true。

    他会根据$HADOOP_HOME/etc/hadoop/core-site.xml文件中ha.zookeeper.quorum的值来进行初始化。


    这个需要确定开启了自动ha切换,否则不行。
    但是现在
    DFSZKFailoverController并没有启动,start zkfc后才可以,然后才是一个active,一个standby,


    3.
    注意:所有操作均在Hadoop部署目录下进行。 启动Hadoop集群: Step1 : 在各个JournalNode节点上,输入以下命令启动journalnode服务:
    $HADOOP_HOME/sbin/hadoop-daemon.sh start journalnode
    或者在mster执行
    $HADOOP_HOME/sbin/hadoop-daemons.sh start journalnode
    注意第二种启动方法master节点并不是journalNode,需要单独启动,挺值得时候单独停止

    s2没有journalNode。
    4. 在[nn1]上,对其进行格式化,并启动: bin/hdfs namenode -format sbin/hadoop-daemon.sh start namenode 5. 在[nn2]上,同步nn1的元数据信息: bin/hdfs namenode -bootstrapStandby 6. 启动[nn2]: sbin/hadoop-daemon.sh start namenode 经过以上四步操作,nn1和nn2均处理standby状态 7. 将[nn1]切换为Active

    有问题 如何配置自动切换的话 这个不要,强制手动 出现脑列问题....
    
    bin/hdfs haadmin -transitionToActive nn1
    强制切换是 --forcemanual nn1,有人说重启zkfc,我先格式化还是然后启动zkfc,说zkfc在运行。
    然后重启hbase即可。
    8.
    此时两个都是standby,standby也可以启动datanode。 在[nn1]上,启动所有datanode sbin/hadoop-daemons.sh start datanode
    9.启动yarn
    sbin/start-yarn.sh

    在master1上多出ResourceManager进程,在slave1 slave2 slave3上多出NodeManager进程

    10.启动zkfc
    sbin/hadoop-daemon.sh start zkfc
    

      注意这个和上面的启动journalNode式样的,damons的并没有启动master的zkfc,需要单独启动。

    11.

    sbin/mr-jobhistory-daemon.sh  start historyserver     原文配置在Stand上,我改成CentOSMaster上了。
    

     

    11.启动hbase

    bin/start-hbase.sh

    关闭Hadoop集群: 在[nn1]上,输入以下命令 sbin/stop-dfs.sh 并没有停止上面的yarn和历史服务器 主节点的journalNode也没停止
    各个节点的zookeeper也没停止

    hbase停止很慢 查看master日志发现一直在等待Regionserver 那么先停止它 hbase-daemons.sh stop regionserver
    进入spark的sbin目录下
    start-all.sh
    ./start-history-server.sh
    bin/spark-shell
     
    12.关闭
    a.zookeeper
    $ZOOKEEPER_HOME/bin/zkServer.sh stop     一个一个关闭



  • 相关阅读:
    ES6基础之——对象表达式
    ES6基础之——函数的名字name属性
    ES6基础之——解构参数 Destructured Parameters
    ES6基础之——展开操作符Spread和剩余操作符Rest
    ES6基础之——箭头函数Arrow Fuctions
    ES6基础——默认参数 Default Parameter Values
    node.js 调用第三方服务
    node 创建server 及加载静态页面
    VUE插件-图片濑加载
    Less函数说明
  • 原文地址:https://www.cnblogs.com/hxsyl/p/6027515.html
Copyright © 2011-2022 走看看