zoukankan      html  css  js  c++  java
  • Hadoop(二) HADOOP集群搭建

    一、HADOOP集群搭建

      1、集群简介

    HADOOP集群具体来说包含两个集群:HDFS集群和YARN集群,两者逻辑上分离,但物理上常在一起

    HDFS集群:

    负责海量数据的存储,集群中的角色主要有 NameNode / DataNode

    YARN集群:

    负责海量数据运算时的资源调度,集群中的角色主要有 ResourceManager /NodeManager

    (那mapreduce是什么呢?它其实是一个应用程序开发包)

     

    本集群搭建案例,以5节点为例进行搭建,角色分配如下:

     2、服务器准备  

    本案例使用虚拟机服务器来搭建HADOOP集群,所用软件及版本:

    A.Vmware 11.0

    B.Centos  6.5  64bit

       3、网络环境准备

    A 、采用NAT方式联网

    B、网关地址:192.168.137.1

    C、3个服务器节点IP地址:192.168.137.31、192.168.137.32192.168.137.33

    D 、子网掩码:255.255.255.0

       4、服务器系统设置

    A.  添加HADOOP用户

    B.HADOOP用户分配sudoer权限

    C. 同步时间

    D. 设置主机名

         hdp-node-01

         hdp-node-02

         hdp-node-03

    E. 配置内网域名映射:

      192.168.137.31          hdp-node-01

      192.168.137.32          hdp-node-02

      192.168.137.33          hdp-node-03

    F. 配置ssh免密登陆

    G. 配置防火墙

    5、Jdk环境安装

      上传jdk安装包

      规划安装目录  /home/hadoop/apps/jdk_1.7.65

      解压安装包

      配置环境变量 /etc/profile

    6、HADOOP安装部署

    ü  上传HADOOP安装包

    ü  规划安装目录  /home/hadoop/apps/hadoop-2.6.1

    ü  解压安装包

    ü  修改配置文件  $HADOOP_HOME/etc/hadoop/

        最简化配置如下:(默认是后面有.template文件。)

          vi  hadoop-env.sh

    # The java implementation to use.

    export JAVA_HOME=/home/hadoop/apps/jdk1.7.0_51

          vi  core-site.xml

    <configuration>

    <property>

    <name>fs.defaultFS</name>

    <value>hdfs://hdp-node-01:9000</value>

    </property>

    <property>

    <name>hadoop.tmp.dir</name>

    <value>/home/HADOOP/apps/hadoop-2.6.1/tmp</value>

    </property>

    </configuration>

    vi  hdfs-site.xml

    <configuration>

    <property>

    <name>dfs.namenode.name.dir</name>

    <value>/home/hadoop/data/name</value>

    </property>

    <property>

    <name>dfs.datanode.data.dir</name>

    <value>/home/hadoop/data/data</value>

    </property>

    <property>

    <name>dfs.replication</name>

    <value>3</value>

    </property>

    <property>

    <name>dfs.secondary.http.address</name>

    <value>hdp-node-01:50090</value>

    </property>

    </configuration>

         vi  mapred-site.xml

    <configuration>

    <property>

    <name>mapreduce.framework.name</name>

    <value>yarn</value>

    </property>

    </configuration>

       vi  yarn-site.xml

    <configuration>

    <property>

    <name>yarn.resourcemanager.hostname</name>

    <value>hadoop01</value>

    </property>

    <property>

    <name>yarn.nodemanager.aux-services</name>

    <value>mapreduce_shuffle</value>

    </property>

    </configuration>

       vi  salves

    hdp-node-01

    hdp-node-02

    hdp-node-03

     7、启动集群

    初始化HDFS
    bin/hadoop  namenode  -format

    启动HDFS
    sbin/start-dfs.sh

    启动YARN
    sbin/start-yarn.sh

    单个启动

    hadoop-de

     8、测试

      A、上传文件到HDFS

        从本地上传一个文本文件到hdfs的/wordcount/input目录下    

    [HADOOP@hdp-node-01 ~]$ HADOOP fs -mkdir -p /wordcount/input

    [HADOOP@hdp-node-01 ~]$ HADOOP fs -put /home/HADOOP/somewords.txt  /wordcount/input

    B、运行一个mapreduce程序

    HADOOP安装目录下,运行一个示例mr程序      

    cd $HADOOP_HOME/share/hadoop/mapreduce/

    hadoop jar mapredcue-example-2.6.1.jar wordcount /wordcount/input  /wordcount/output

     

     

  • 相关阅读:
    P1017 进制转换
    P1100 高低位交换
    P1469 找筷子
    P1866 编号
    SQL常用语句(T-SQL、PL/SQL)
    Proxyer内网穿透配置教程
    使用JS检测自定义协议是否存在
    C# 代码启动ClickOnce应用
    SQL Server 异地备份到远程共享文件夹异常处理
    发布ClickOnce应用程序步骤与URL传参应用
  • 原文地址:https://www.cnblogs.com/ldsweely/p/9412361.html
Copyright © 2011-2022 走看看