zoukankan      html  css  js  c++  java
  • hadoop完全分布式搭建

    一、安装jdk、hadoop

    1. 解压jdk、hadoop压缩包:

    注意在主节点上解压安装

    # tar -zxvf jdk-8u201-linux-x64.tar.gz  -C /usr/lcoal/src

    # tar -zxvf hadoop-2.6.0.tar.gz -C /usr/local

      2. 配置环境变量 编辑/etc/profile文件:

    加入(里面的安装目录自己修改!!)

    配置机器映射关系:(如何修改Linux系统IP地址自己问百度)

    master主机:/etc/hostname 修改主机主节点为 master  修改IP地址192.168.56.1  

    在每台机器 /etc/hosts文件添加:

     192.168.56.1 master

    192.168.56.2 slaves

    192.168.56.3 slaves2

    slaves:/etc/hostname 修改为slaves    修改IP地址192.168.56.2

    slaves2:/etc/hostname 修改为slaves2  修改IP地址192.168.56.3

    完成这一步所有机器重启生效。

     3.配置免密码登录ssh:
    # ssh-keygen -t rsa

    # cd .ssh/

    # ssh-copy-id master

    # ssh-copy-id slaves

    # ssh-copy-id slaves2

    测试登录:
    # ssh master

    # chmod 600 ~/.ssh/authorized_keys 

     4. 配置hadoop文件:

    在本人园子内的hadoop随笔内,请查看另一篇文档。

      格式化文件:

    # cd /usr/local/hadoop

    # bin/hdfs namenode  -format

     5.将文件发送到奴隶节点:

    #scp -r /etc/profile slaves:/etc/profile

    #scp -r /etc/profile slaves2:/etc/profile

    # scp -r /usr/local/src/jdk1.8.0_201 slaves:/usr/local/

    # scp -r /usr/local/src/jdk1.8.0_201 slaves2:/usr/local/

    # scp -r /usr/local/hadoop slaves:/usr/local/

    # scp -r /usr/local/hadoop slaves2:/usr/local/

     6.启动hadoop:

    # cd /usr/local/hadoop

    # sbin/start-dfs.sh

    # sbin/start-yarn.sh

    # sbin/start-all.sh

  • 相关阅读:
    [PY3]——heap模块 和 堆排序
    [PY3]——求TopN/BtmN 和 排序问题的解决
    [转载+补充][PY3]——环境配置(2)——windows下安装pycharm并连接Linux的python环境
    [转载+补充]windows下SVN客户端的安装
    [Visual studio code 常见问题解决] ——中文乱码、
    Smrty模版总结(转)
    cms内容模型标签
    phpcms图文总结(转)
    phpcms总结(转)
    PHP总结
  • 原文地址:https://www.cnblogs.com/Zeng02/p/11785579.html
Copyright © 2011-2022 走看看