zoukankan      html  css  js  c++  java
  • (八)hadoop的安装

    补充:同步一下三台服务器的时间啦~~

    =======================================================================================================================================

    Hadoop安装(完全分布式安装)

    1、先在一台机器上安装   其他的远程发送

    2、我们这里假设hadoop01是namenode                                   datanode

                               hadoop02是secondarynamenode                 datanode

                               hadoop03是resourcemanager                       datanode

     

    我们现在hadoop01上进行操作

    1、上传hadoop压缩包

    2、解压缩

    1)创建apps文件夹

    2),将上传的hadoop压缩包放入apps中

    mv hadoop-2.7.6.tar.gz apps/

    3)解压 hadoop

    tar -zxvf hadoop-2.7.6.tar.gz 

    3、修改配置文件( 在 /home/hadoop/apps/hadoop-2.7.6/etc/hadoop/  目录下)

         3.1 vim hadoop-env.sh

    export JAVA_HOME=/usr/local/java/jdk1.8.0_71

     

     3.2 vim core-site.xml

     加在<configuration>标签中间

    
    

    <property>
    <name>hadoop.tmp.dir</name>
    <value>/home/hadoop/data/hadoopdata</value>
    <description>Abase for other temporary directories.</description>
    </property>
    <property>
    <name>fs.defaultFS</name>
    <value>hdfs://hadoop01:9000</value>
    </property>

     

     

     3.3 vim hdfs-site.xml

    <property>
            <name>dfs.namenode.name.dir</name>
            <value>/home/hadoop/data/hadoopdata/name</value>
            <description>为了保证元数据的安全一般配置多个不同目录</description>
    </property>
    <property>
            <name>dfs.datanode.data.dir</name>
            <value>/home/hadoop/data/hadoopdata/data</value>
            <description>datanode 的数据存储目录</description>
    </property>
    <property>
            <name>dfs.replication</name>
            <value>2</value>
            <description>HDFS 的数据块的副本存储个数</description>
    </property>
    <property>
            <name>dfs.secondary.http.address</name>
            <value>hadoop02:50090</value>
    <description>secondarynamenode 运行节点的信息,和 namenode 不同节点</description>
    </property>
     

    3.4

    我们先把 mapred-site.xml.template  复制一份 名字就叫作

    mapred-site.xml

    cp mapred-site.xml.template mapred-site.xml

    vim mapred-site.xml

    <property>
      <name>mapreduce.framework.name</name>
      <value>yarn</value>
    </property>

    3.5 vim yarn-site.xml

    <property>
            <name>yarn.resourcemanager.hostname</name>
            <value>hadoop03<alue>
    </property>
    <property>
            <name>yarn.nodemanager.aux-services</name>
            <value>mapreduce_shuffle<alue>
            <description>YARN 集群为 MapReduce 程序提供的 shuffle 服务</description>
    </property>

    3.6 vim slaves

    删除原来的localhost

    加入下面三个   中间不可以有空格  不可以有空行

    敲完第一个直接回车(中间不可以有空格)

    敲完第二个直接回车

    敲完第三个保存

    4、配置hadoop环境变量

    sudo vim /etc/profile

    export JAVA_HOME=/usr/local/javak1.8.0_73
    export HADOOP_HOME=/home/hadoop/apps/hadoop-2.7.6
    export PATH=$JAVA_HOME/bin:$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

     

    source /etc/profile   重新加载一下配置文件

     验证:hadoop version

     5、远程发送到其他两个节点

    scp -r hadoop-2.7.6 hadoop02:$PWD
    scp -r hadoop-2.7.6 hadoop03:$PWD

    sudo scp /etc/profile hadoop02:/etc/
    sudo scp /etc/profile hadoop03:/etc/

     最后每个服务器都要

    source /etc/profile

    验证我们其他两台服务器是否成功

    hadoop version

    6.如果三台服务器都搭建好的话执行下面的操作

    (1)初始化

           只需要在一台机器上执行,一定在namenode节点上的  hdfs的主节点上

           我们这里假设hadoop01是namenode  所以在hadoop01上执行这个命令
           hadoop namenode -format

    (2)启动hdfs 在hadoop01 上执行

             start-dfs.sh   

    (3)启动yarn(在hadoop03上执行   假设hadoop03是resourcemanager   yarn的主节点)

            start-yarn.sh

    7、验证

    在浏览器中输入:

    hadoop01:50070
    hadoop03:8088

     大功告成~~~~~

  • 相关阅读:
    PID控制算法原理(抛弃公式,从本质上真正理解PID控制)(转)
    用三张图片详解Asp.Net 全生命周期
    Maven 3 入门 核心概念
    Maven 3 入门 HelloWorld
    Spring 3.x MVC 入门3 使用内容协商来实现多视图
    Nosql之Mongodb 1 安装配置与基本操作
    Spring 3.x MVC 入门31 使用内容协商来实现多视图 示例
    Nosql之Mongodb 2 高级查询
    Maven 3 入门 如何创建一个web应用程序
    Spring 3.x MVC 入门4 @ResponseBody & @RequestBody
  • 原文地址:https://www.cnblogs.com/zhaozishuang/p/9315223.html
Copyright © 2011-2022 走看看