zoukankan      html  css  js  c++  java
  • Hadoop中HDFS和MapReduce的启动问题

      当你在启动HDFS和MapReduce的时候,大家都可能习惯了,

    只要在其中一台关联的虚拟机上启动,或者是在含有namenode的机器上进行启动。

    启动的方法可以分别启动dfs和yarn,如start-dfs.sh,start-yarn.sh;也可以一起启动,start-all.sh。

      然后会jps查看一下启动的情况,如果你够幸运,所有的节点node和manager都会启动,

    但是如果你发现,你的启动情况只有节点node启动正常,而resourceManager却无法启动。

    无论你重新启动,或者是关机重启,都无法启动到resourceManager。你可能会去查看配置文件,但是

    你会发现,无论你对配置文件做了些什么,似乎都起不到作用。

      那么,这么多废话后,关键来了,如何解决:

    1、首先,你要清楚的知道,当初你配置文件时,resourceManager的位置是哪台机器。即value的设置。

    2.在你设置resourceManager所在的机器上启动yarn。

    这样才会正常生效。这个问题困扰了我三个月之久,今天终于得到解决,并对其进行了验证,验证有效。

  • 相关阅读:
    分布式消息系统Kafka初步
    webService 学习
    一个周末掌握IT前沿技术之node.js篇
    mount
    dd
    fsck
    resize2fs
    mkfs
    parted
    tune2fs
  • 原文地址:https://www.cnblogs.com/qianshuixianyu/p/9455401.html
Copyright © 2011-2022 走看看