zoukankan      html  css  js  c++  java
  • Hadoop 2.2.0启动脚本——sbin/start-dfs.sh

    1. 执行hdfs-config.sh

    2. 如果参数个数超过1,读取第一个参数。

       -upgrade则继续,即dataStartOpt="",nameStartOpt="$@";

       -rollback,则dataStartOpt="-rollback",nameStartOpt="-rollback $@"

    3. 执行bin/hdfs getconf -namenodes获取NAMENODES 

       执行sbin/hadoop-daemons.sh" --config "$HADOOP_CONF_DIR" --hostnames "$NAMENODES" --script "$bin/hdfs" start namenode $nameStartOpt

    5. 如果设置HADOOP_SECURE_DN_USER,则需要运行start-secure-dns.sh as root;

       如果未设置,则sbin/hadoop-daemons.sh" --config "$HADOOP_CONF_DIR" --script "$bin/hdfs" start datanode $dataStartOpt

    6. 执行bin/hdfs getconf -secondarynamenodes获取SECONDARY_NAMENODES, 

       同NAMENODES

    7. SHARED_EDITS_DIR,TODO...

    8. AUTOHA_ENABLED,TODO...

  • 相关阅读:
    maven安装和四大特性
    rabbitMQ的安装和创建用户
    java小白之面向对象
    java初级笔记
    laravel 的升级
    prepare
    获取客户端真实IP
    apache nginx 区别
    七猫面试
    linux基本命令
  • 原文地址:https://www.cnblogs.com/hujunfei/p/3617964.html
Copyright © 2011-2022 走看看