zoukankan      html  css  js  c++  java
  • 分布式部署Hadoop 2.x概述

    部署环境及软件:

      VMware Workstation 10

      CentOS 7

      Hadoop 2.5

    环境部署

    1、准备虚拟机

      可先建立一台虚拟机,

      需要安装jdk,准备好haddop软件包,

      然后通过VMware克隆获得相同配置虚拟机。

    2、主机名、IP地址等设置

      三台机器:

    192.168.50.131 192.168.50.132 192.168.50.133
    hadoop-senior01 hadoop-senior02 hadoop-senior03

      配置映射:

        /etc/hosts

          192.168.50.131 hadoop-senior01.LCode.com hadoop-senior01

          192.168.50.132 hadoop-senior02.LCode.com hadoop-senior02

          192.168.50.133 hadoop-senior03.LCode.com hadoop-senior03

    3、修改配置文件

      三台机器,为了防止一台机器挂掉导致系统全部挂掉,

      从而将NameNode,ResourceManager,SecondaryNameNode部署到不同的机器。

      规划如下:

        HDFS文件系统  YARN云操作系统  JobHistoryServer历史服务监控

        hadoop-senior01    NameNode,JobHistoryServer,DataNode,NodeManager

        hadoop-senior02    ResourceManager,DataNode,NodeManager

        hadoop-senior03    SecondaryNameNode,DataNode,NodeManager

      配置文件($hadoop/etc/hadoop下):相关配置的属性值可查官方文档

    • HDFS
        • hadoop-env.sh         //设置JAVA_HOME
        • core-site.xml       //配置NameNode的主机地址
        • hdfs-site.xml            //配置SecondaryNameNode的主机地址
        • slaves                      //每一行代表一台机器,遍历文件每行,每台机器均创建DataNode
    • YARN
        • yarn-env.sh              //设置JAVA_HOME       
        • yarn-site.xml            //配置ResourceManager的主机地址
        • slaves                      //对应每台机器创建的DataNode,每台机器也需要创建NodeManager
    • MapReduce
        • mapred-env.sh        //设置JAVA_HOME        
        • mapred-site.xml      //设置JobHistoryServer的主机地址

    4.配置主从节点机器的ssh免密登录(用来使用start-dfs.sh等同时启动多种服务时无需频繁输入密码)

      进入当前用户的根目录下的.ssh文件夹(没有就创建一下即可),

      然后输入ssh-keygen -t rsa,连续四下回车。

      再通过ssh-copy-id haddop-senior02.LCode.com命令,再输入yes和密码,进行连接即可。

    5.分发配置文件到每台机器  

       使用scp命令将hadoop文件夹整个分发到其余两台机器即可。     

       scp -r $hadoop lcode@hadoop-senior02.lcode.com:/opt/app/

    6.启动测试

      可以逐一启动NameNode,DataNode,ResourceManager,NodeManager等。

      也可以使用start-dfs.sh,start-yarn.sh启动hdfs,yarn的相关服务。

      进行简单的应用测试

               * hdfs

                     读写操作

                     bin/hdfs dfs -mkdir -p /user/lcode/tmp/conf

                     bin/hdfs dfs -put etc/hadoop/*-site.xml /user/lcode/tmp/conf

                     bin/hdfs dfs -text /user/lcode/tmp/conf/core-site.xml

               * yarn

                     run jar

               * mapreduce

                     bin/yarn jar share/hadoop/mapreduce/hadoop*example*.jar wordcount /user/lcode/mapreuce/wordcount/input /user/lcode/mapreduce/wordcount/output

  • 相关阅读:
    iOS AutoLayout的用法
    UIPickerView的使用(一)
    UIPickerView的使用(二)
    logging模块
    configparser模块
    hashlib模块
    json & pickle 模块
    对表的操作
    表记录曾删改查
    库、表曾删改查和存储引擎
  • 原文地址:https://www.cnblogs.com/Zlcode/p/8447320.html
Copyright © 2011-2022 走看看