zoukankan      html  css  js  c++  java
  • Hadoop 2.2.0的高可用性集群中遇到的一些问题(64位)

    1:主节点的50070端口无法访问

    是因为主节点的NameNode没有运行起来,使用start-all.sh 启动的话就会有这个问题,使用两个单独的脚本 start-dfs.sh 和 start-yarn.sh来启动的话就可以访问了

    也可以使用启动NameNode的脚本来单独启动NameNode(hadoop-daemon.sh  --script hdfs start namenode)

    2:主节点的8088端口集群查看页面无法看到主节点的原因

    是因为主节点的NodeManager没有运行起来.. 启动起来就可以了,启动脚本是yarn-daemon.sh start nodemanager

    3:从节点的DataNode运行不起来的解决方法(具体原因还不清楚,可能是namespaceID不一致,哪里看这个ID也不是很清楚)目前只提供解决办法

    停止各节点的服务:stop-dfs.sh && stop-yarn.sh

    删除/tmp  /home/hadoop/dfs/data 或name(跟配置文件对应的namenode和datanode的目录)  /home/hadoop/tmp   这三个目录下的数据

    重启系统

    格式化hdfs 

    启动服务:start-dfs.sh && start-yarn.sh  这时从节点的数据服务应该都正常启动起来了...

  • 相关阅读:
    三数之和
    罗马数字与整数
    Oracle 开启或关闭归档
    Oracle RMAN scripts to delete archivelog
    Oracle check TBS usage
    Oracle kill locked sessions
    场景9 深入RAC运行原理
    场景7 Data Guard
    场景4 Data Warehouse Management 数据仓库
    场景5 Performance Management
  • 原文地址:https://www.cnblogs.com/fuxulook/p/3581827.html
Copyright © 2011-2022 走看看