zoukankan      html  css  js  c++  java
  • Hadoop集群搭建

    本人也是初学者,学习过程中做的笔记。能力有限,有不足之处欢迎指教!!!!

    一、环境配置

    操作系统:Centos 7

    jdk:1.8

    Hadoop 2.7.6

    三个节点主机名分别为 master  node1  node2

    二、安装前的准备

      1、安装jdk

      把jdk的jar包上传到/usr/local/soft目录下

      解压到当前目录 (我这里解压过了,就不演示了下图展现的是解压过的结果)

     tar -zxvf jdk-8u171-linux-x64.tar.gz

      配置环境变量 

     vim /etc/profile

     刷新一下

      source /etc/profile

      2、永久关闭防火墙

       

     systemctl disable firewalld.service  这里是Centos 7 的命令

      3、配置SSH免密

        创建秘钥

          

    ssh-keygen -t rsa 一直回车

        秘钥分发

          ssh-copy-id 主机名或ip地址

          

    1 ssh-copy-id -i master
    2 
    3 ssh-copy-id -i node1
    4 
    5 ssh-copy-id -i node2

          实现免密码登录到子节点

        注意:如果执行出错,进入/root/.ssh删除里面所有内容,从新执行

    三、下面开始今天的主题 集群的搭建

    (以下操作在主机master上进行)  

    1、上传Hadoop  jar包到/usr/local/soft  

     2、解压安装到当前文件夹

    tar -zxvf hadoop-2.7.6.tar.gz

    下面先配置Hadoop的环境变量

    增加hadoop环境变量,将bin和sbin都配置到PATh中

    1 export HADOOP_HOME=/usr/local/soft/hadoop-2.7.6
    2 :$HADOOP_HOME/bin:$HADOOP_HOME/sbin  #增加到文件末尾

     

    刷新一下环境

    source /etc/profile

    下面开始修改文件

    进入目录

     cd /usr/local/soft/hadoop-2.7.6/etc/hadoop

    1、修改slaves

     vim slaves

    删除原来的所有内容,修改为如下

    2、修改hadoop-env.sh文件

    vim hadoop-env.sh
    export JAVA_HOME=/usr/local/soft/jdk1.8.0_171

    (这里推荐在notepad++安装下NppFTP插件,可以连接虚拟机在Windows平台直接操作修改文件,复制粘贴很方便

      安装使用教程自行搜索,这里就不写了)

    3、修改 core-site.xml

    vim core-site.xml
     1 <configuration>
     2     <property>
     3         <name>fs.defaultFS</name>
     4         <value>hdfs://master:9000</value>
     5     </property>
     6     <property>
     7         <name>hadoop.tmp.dir</name>
     8         <value>/usr/local/soft/hadoop-2.7.6/tmp</value>
     9     </property>
    10     <property>
    11         <name>fs.trash.interval</name>
    12         <value>1440</value>
    13     </property>
    14 </configuration>

    将下面的配置参数加入进去修改成对应自己的

    4、修改 hdfs-site.xml dfs.replication设置为1

    vim  hdfs-site.xml 
     1 <configuration>
     2     <property>
     3         <name>dfs.replication</name>
     4         <value>1</value>
     5     </property>
     6     <property>
     7         <name>dfs.permissions</name>
     8         <value>false</value>
     9     </property>
    10 </configuration>

    5、修改yarn-site.xml

    vim yarn-site.xml
     1 <configuration>
     2 
     3     <property>
     4         <name>yarn.resourcemanager.hostname</name>
     5         <value>master</value>
     6     </property>
     7     <property>
     8         <name>yarn.nodemanager.aux-services</name>
     9         <value>mapreduce_shuffle</value>
    10     </property>
    11     <property>
    12         <name>yarn.log-aggregation-enable</name>
    13         <value>true</value>
    14     </property>
    15     <property>
    16         <name>yarn.log-aggregation.retain-seconds</name>
    17         <value>604800</value>
    18     </property>
    19     <property>  
    20         <name>yarn.nodemanager.resource.memory-mb</name>  
    21         <value>20480</value>  
    22     </property>  
    23     <property>  
    24         <name>yarn.scheduler.minimum-allocation-mb</name>  
    25         <value>2048</value>  
    26     </property>  
    27     <property>  
    28         <name>yarn.nodemanager.vmem-pmem-ratio</name>  
    29         <value>2.1</value>  
    30     </property>
    31 
    32 </configuration>

    6、修改 mapred-site.xml(将mapred-site.xml.template 复制一份为 mapred-site.xml

    命令:

    cp mapred-site.xml.template mapred-site.xml

    vim  mapred-site.xml
     1 <configuration>
     2 
     3     <property>
     4         <name>mapreduce.framework.name</name>
     5         <value>yarn</value>
     6     </property>
     7     <property>  
     8         <name>mapreduce.jobhistory.address</name>  
     9         <value>master:10020</value>  
    10     </property>  
    11     <property>  
    12         <name>mapreduce.jobhistory.webapp.address</name>  
    13         <value>master:19888</value>  
    14     </property>
    15 
    16 </configuration>

    7、hadoop的安装目录分别拷贝到其他子节点

    scp -r /usr/local/soft/hadoop-2.7.6 node1:/usr/local/soft/

    scp -r /usr/local/soft/hadoop-2.7.6 node2:/usr/local/soft/

    8、格式化namenode(在master中运行)

    hdfs namenode -format

    9、启动hadoop

    start-all.sh

    输入yes

    10、验证 是否安装成功

    启动完成后通过jps命令查看验证进程:jps

    主节点进程为下面几个(下面是进程名称,不是命令):

    Namenode

    secondarnamenode

    resourcemanager

    子节点进程 (在node1node2上分别输入命令:jps

    datanode

    nodenodemanager

     

     验证hdfs

    windows电脑登录浏览器(强烈建议chrome浏览器)

    master:50070

    刚装好的hadoop应该是空的什么都没有

    到这里我们就大功告成了,赶紧拍个快照保存一下把

  • 相关阅读:
    ASP.NET 表单验证 Part.1(理解表单验证)
    Silverlight 简介 Part.3(设计 Siverlight 页面)
    ASP.NET 成员资格 Part.3(LoginStatus、LoginView、PasswordRecovery)
    ASP.NET 网站部署 Part.1(安装IIS、复制文件部署网站)
    ASP.NET Dynamic Data Part.1(创建动态数据应用程序)
    ASP.NET 安全模型 Part.2(SSL)
    ASP.NET MVC Part.2(扩展基本的 MVC 应用程序)
    ASP.NET 网站部署 Part.2(使用 Web 部署)
    开发高级 Web 部件
    创建 Web 部件(WebPart 类、简单的 Web 部件)
  • 原文地址:https://www.cnblogs.com/yy-yang/p/14615048.html
Copyright © 2011-2022 走看看