zoukankan      html  css  js  c++  java
  • [hadoop]无法关闭hadoop集群解决方法

    很久没管hadoop集群,用stop-all.sh想关掉报错:

    [root@master bin]# ./stop-all.sh
    no jobtracker to stop
    slave2: no tasktracker to stop
    slave1: no tasktracker to stop
    no namenode to stop
    slave1: no datanode to stop
    slave2: no datanode to stop
    master: no secondarynamenode to stop

    问题原因在于hadoop启动停止都是通过hadoop-deamon.sh文件,脚本是通过pid文件来停止hadoop服务的。而集群默认配置的pid文件位于/tmp目录下,linux系统默认每30天清理一次/tmp目录下的文件,pid文件丢失将导致无法正确关闭相应进程。

    由于pid文件已经无法找回,所以只能先用jps获取进程号,然后用kill -9杀掉对应进程,停止集群。

    要彻底解决这个问题得在集群关闭之前修改conf/hadoop-env.sh文件,增加export HADOOP_PID_DIR=/usr/local/src/hadoop-1.2.1指定pid文件存放路径。

  • 相关阅读:
    水木清华小爬虫
    不让复制是不可能的----js获取选中文字
    [转]nonlocal和global
    LLVM和clang
    Megcup2017 Dogfood
    史莱姆自爆问题
    前端颜色表
    [转]论文十诫
    返利网盈利模式
    事务的四个属性ACID
  • 原文地址:https://www.cnblogs.com/yowamushi/p/8012617.html
Copyright © 2011-2022 走看看