zoukankan      html  css  js  c++  java
  • Datenode无法启动

       执行start-dfs.sh后,或者执行datenode没有启动。很大一部分原因是因为在第一次格式化dfs后,启动并使用了hadoop,后来又重新执行了格式化命令

    这时主节点namenode的clusterID会重新生成,而从节点datanode的clusterID 保持不变导致的。

    解决方法:

    1.查看路径:


    配置hadoop-2.6.4的各项文件(注意:路径不同,命令也不一样)

      cd

        cd  hadoop/hadoop-2.6.4  

          cd  etc/hadoop 

            gedit  hdfs-site.xml    //修改代码


     

    找到如下代码:

    <property>

       <name>dfs.namenode.name.dir</name>

       <value>file:/home/tianjiale/hadoop/dfs/name</value>

       <final>true</final>

    </property>

    <property>

       <name>dfs.datanode.data.dir</name>

       <value>file:/home/tianjiale/hadoop/dfs/data</value>    

       <final>true</final>

    </property>

    <property>

       <name>dfs.replication</name>

       <value>2</value>

    </property>


     <value> 里面的路径需要注意

     2.查看namenode和datanode的clusterID是否相同。

         

       

       如果clusterID不相同,则将namenode的clusterID赋值给datanode的clusterID。

       然后重新运行脚本start-dfs.sh.

       最后jps查询看看。

     

    tianjiale菜鸟名企梦
  • 相关阅读:
    访当当网的图标
    关于手触
    关于位置——CSSOM视图模式(CSSOM View Module)相关整理
    js 进制 转换
    函数的引用, 关于内存的开销
    一些
    HTML特殊符号对照表
    页面选中文字的javascript
    获取元素相对于页面的位置 和 页面高度 和 页面滚动高度
    i+1 和 i++ 的区别
  • 原文地址:https://www.cnblogs.com/tianjiale/p/9685664.html
Copyright © 2011-2022 走看看