zoukankan      html  css  js  c++  java
  • Hadoop分布式集群安装

       

    1. 环境准备

       

    • 操作系统使用ubuntu-16.04.2 64位
    • JDK使用jdk1.8
    • Hadoop使用Hadoop 2.8版本

       

    1. 镜像下载 

    • 操作系统

       

    操作系统使用ubuntu-16.04.2-desktop-amd64.iso

    下载地址:https://www.ubuntu.com/download/desktop

    用户名:dblab 密码:welcome1>

    •  Jdk

    Jdk使用jdk-8u121-linux-x64.tar.gz

    下载地址:http://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html

       

    •  Hadoop

    Hadoop版本:hadoop-2.8.0.tar.gz

    下载地址:http://hadoop.apache.org/releases.html

    •  Spark

    Spark版本:spark-2.1.0-bin-hadoop2.7.tgz

    下载地址:http://spark.apache.org/downloads.html

       

       

       

    1. 安装Ubuntu

       

    1. 选择启动盘

       

    1. 选择语言

       

    1. 安装更新和第三方软件

      直接点击继续按钮

       

    1. 确认安装类型

      选择"其他选项",点击继续

    2. 新建分区表

       

    点击"新建分区表" 按钮

       

    1. 创建分区,添加交换空间和根目录

      一般来说,我们选择512MB到1G大小作为交换空间,剩下空间全部用来作为根目录

      选中空闲,点击"+" 按钮,创建交换空间

       

       

    1. 创建根目录

       

    1. 开始安装

       

    1. 选择时区

      默认即可,点击"继续"

       

    1. 键盘布局

      左右都选择汉语

       

    1. 设置用户名密码,密码b

       

    1. 系统自动安装

       

       

    Ctrl+alt+T 打开终端,执行下面的命令

    sudo apt-get install virtualbox-guest-dkms

       

       

       

    1. 新增用户

    1、增加一个名为hadoop的用户

    sudo useradd -m hadoop -s /bin/bash

    这条命令创建了可以登陆的 hadoop 用户,并使用 /bin/bash 作为 shell

       

    2、为hadoop用户设置密码,密码设置为hadoop

    sudo passwd hadoop

       

    3、为hadoop 用户增加管理员权限

    sudo adduser hadoop sudo

       

    4、注销当前用户返回登陆界面,再登陆界面选择刚创建的hadoop用户登陆

    5、更新apt

    用hadoop用户登陆后,先更新一下apt,

    sudo apt-get update

       

    6、安装vim

    使用下面的命令安装vim

    sudo apt-get install vim

       

    1. 安装SSH、配置SSH无密码登陆

    Ubuntu 默认安装了SSH client ,此外还需要安装SSH server:

    $ sudo apt-get install openssh-server

    安装后,可以使用如下命令登陆本机:

    $ ssh localhost

       

    输入密码可以登陆到本机,我们需要配置称ssh无密码登陆比较方便

       

    退出刚才的ssh

    exit # 退出刚才的 ssh localhost

    cd ~/.ssh/ # 若没有该目录,请先执行一次ssh localhost

    ssh-keygen -t rsa # 会有提示,都按回车就可以

    cat ./id_rsa.pub >> ./authorized_keys # 加入授权

       

    此时ssh localhost 命令无需密码可以直接登陆

       

    备注:

    Linux 系统中,~ 代表的是用户的主文件夹,即 "/home/用户名" 这个目录,如你的用户名为 hadoop,则 ~ 就代表 "/home/hadoop/"。此外,命令中的 # 后面的文字是注释,只需要输入前面命令即可。

       

    在保证了三台主机电脑都能连接到本地localhost后,还需要让master主机免密码登录slave01slave02主机。在master执行如下命令,将masterid_rsa.pub传送给两台slave主机。

    1. scp ~/.ssh/id_rsa.pub hadoop@slave01:/home/hadoop/
      						
    2. scp ~/.ssh/id_rsa.pub hadoop@slave02:/home/hadoop/
      						

       

    slave01slave02 主机上分别运行ls命令

    可以看到id_rsa.pub 文件

    现在将master的公钥加入各自的节点上

       

    master主机上通过ssh slave01 可以直接登陆到slave01

       

    如果masterslave01的用户名不同

    还需要在master上修改~/.ssh/config文件,如果没有此文件,自己创建一个

    Host master
    

      user Hadoop
    

    Host slave01
    

      user hadoop01
    

       

    1. 修改hostname

    查看当前主机名:

    hostname

    修改主机名为master

    sudo vim /etc/hostname

    配置hosts

    sudo vim /etc/hosts

    重启

    1. 安装JDK

    下载jdk压缩包方式安装:

       

    1. 解压缩放到指定目录

    创建目录:

    sudo mkdir /usr/java

       

    解压缩到该目录:

    sudo tar -zxvf jdk-8u121-linux-x64.tar.gz -C /usr/java

       

    1. 修改环境变量

    sudo vim ~/.bashrc

    文件末尾追加下面内容

    #set oracle jdk environment
    export JAVA_HOME=/usr/java/jdk1.8.0_131 ##
    这里要注意目录要换成自己解压的jdk 目录

    export CLASSPATH=.:${JAVA_HOME}/lib:${JAVA_HOME}/jre/lib

    export PATH=${JAVA_HOME}/bin:$PATH

       

    使环境变量马上生效

    source ~/.bashrc

    1. 设置默认jdk版本
    2. 测试jdk

    Java -version

    自动安装

    sudo add-apt-repository ppa:webupd8team/java

    sudo apt-get update

    sudo apt-get insall oracle-java8-installer

       

    1.  安装配置spark

     

    1. 安装hadoop

    2. 解压缩到指定目录:

    sudo tar -zxf ~/下载/hadoop-2.7.3.tar.gz -C /usr/local # 解压到/usr/local中

    cd /usr/local/

    sudo mv ./hadoop-2.8.0/ ./hadoop # 将文件夹名改为hadoop

    sudo chown -R hadoop ./hadoop # 修改文件权限

       

    1. 配置环境变量

    sudo vim ~/.bashrc

       

    export HADOOP_HOME=/usr/local/hadoop-2.8.0

    export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

       

    使配置生效

    source ~/.bashrc

       

    1. 配置hadoop

    修改core-site.xml

    sudo vim /usr/local/Hadoop-2.8.0/etc/Hadoop/core-site.xml

       

    <configuration>

    <property>

    <name>hadoop.tmp.dir</name>

    <value>file:/usr/local/hadoop/tmp</value>

    <description>Abase for other temporary directories.</description>

    </property>

    <property>

    <name>fs.defaultFS</name>

    <value>hdfs://master:9000</value>

    </property>

    </configuration>

    修改hdfs-site.xml

    sudo vim /usr/local/Hadoop-2.8.0/etc/Hadoop/hdfs-site.xml

    <configuration>
    					

    
    				<property>
    					

    
    				<name>dfs.namenode.secondary.http-address</name>
    							

    
    				<value>Master:50090</value>
    							

    
    				</property>
    					

    
    				<property>
    					

    
    				<name>dfs.replication</name>
    					

    
    				<value>1</value>
    							

    
    				</property>
    					

    
    				<property>
    					

    
    				<name>dfs.namenode.name.dir</name>
    							

    
    				<value>file:/usr/local/hadoop/tmp/dfs/name</value>
    							

    
    				</property>
    					

    
    				<property>
    					

    
    				<name>dfs.datanode.data.dir</name>
    							

    
    				<value>file:/usr/local/hadoop/tmp/dfs/data</value>
    							

    
    				</property>
    					

    </configuration>
    					

       

    修改mapred-site.xml(复制mapred-site.xml.template,再修改文件名)

    cp /usr/local/Hadoop-2.8.0/etc/Hadoop/mapred-site.xml.template /usr/local/Hadoop-2.8.0/etc/Hadoop/mapred-site.xml

       

    sudo vim /usr/local/Hadoop-2.8.0/etc/Hadoop/mapred-site.xml

       

    <configuration>
    					

    
    				<property>
    					

    
    				<name>mapreduce.framework.name</name>
    							

    
    				<value>yarn</value>
    							

    
    				</property>
    					

    
    				<property>
    					

    
    				<name>mapreduce.jobhistory.address</name>
    							

    
    				<value>Master:10020</value>
    							

    
    				</property>
    					

    
    				<property>
    					

    
    				<name>mapreduce.jobhistory.webapp.address</name>
    							

    
    				<value>Master:19888</value>
    							

    
    				</property>
    					

    </configuration>
    					

       

    修改yarn-site.xml

    sudo vim /usr/local/Hadoop-2.8.0/etc/Hadoop/yarn-site.xml

       

    <configuration>
    					

    
    				<property>
    					

    
    				<name>yarn.resourcemanager.hostname</name>
    							

    
    				<value>Master</value>
    							

    
    				</property>
    					

    
    				<property>
    					

    
    				<name>yarn.nodemanager.aux-services</name>
    							

    
    				<value>mapreduce_shuffle</value>
    							

    
    				</property>
    					

    </configuration>
    					

       

    修改slaves

    sudo vim /usr/local/hadoop-2.8.0/etc/hadoop/slaves

       

    配置好后,将 master 上的 /usr/local/Hadoop-2.8.0 文件夹复制到各个节点上。在 master 节点主机上执行:

       

    1. cd /usr/local
    2. sudo rm -r ./hadoop/tmp # 删除 Hadoop 临时文件
    3. sudo rm -r ./hadoop/logs/* # 删除日志文件
    4. tar -zcf ~/hadoop.master.tar.gz ./Hadoop-2.8.0 # 先压缩再复制
    5. cd ~
    6. scp ./hadoop.master.tar.gz Slave1:/home/hadoop

    slave01,slave02节点上执行:

    1. sudo rm -rf /usr/local/Hadoop-2.8.0/ #存在的目录删除
    2. sudo tar -zxf ~/hadoop.master.tar.gz -C /usr/local # 解压缩到指定目录
    3. sudo chown -R hadoop /usr/local/hadoop # 更改权限

       

       

       

    1. 启动hadoop集群

    首次启动需要先在 Master 节点执行 NameNode 的格式化:

    1. hdfs namenode -format # 首次运行需要执行初始化,之后不需要

       

       

    接着可以启动 hadoop 了,启动需要在 Master 节点上进行:

    1. start-dfs.sh
    2. start-yarn.sh
    3. mr-jobhistory-daemon.sh start historyserver

       

    在集群环境中正确配置JAVA_HOME 后还会报如下错误:

       

    所以要修改hadoop-env.sh 配置文件:

    sudo vim /usr/local/hadoop-2.8.0/etc/hadoop/hadoop-env.sh

    添加修改JAVA_HOME 信息

       

    运行后,在masterslave01,slave02运行jps命令,查看:

    Jps

       

       

    启动集群后

       

    ResourceManager运行在主节点master上,可以Web控制台查看状态, 访问如下地址: 

    http://master:8088/

       

    通过登录Web控制台,查看HDFS集群状态,访问如下地址:

    http://master:50070/

       

    NodeManager运行在从节点上,可以通过Web控制台查看对应节点的资源状态,例如节点slave01:

    http://slave1:8042/

     

    1. 安装配置spark

      1. 安装spark

    从windows 将spark安装文件发布到master系统上(命令行下使用pscp命令)

     

    D:workspacestudysoft>pscp spark-2.1.0-bin-hadoop2.7.tar hadoop@master:~/下载

  • 相关阅读:
    2019 ECfianl
    Codeforces Round #610 (Div. 2)
    IOS设计模式之三:MVC模式
    MVC3快速搭建Web应用(二)
    IOS设计模式之四:观察者模式
    MVC3快速搭建Web应用(一)
    Three20 NetWork
    IOS设计模式之一:单例模式
    IOS设计模式之二:Delegate模式
    写博客的意义
  • 原文地址:https://www.cnblogs.com/vitas/p/6811929.html
Copyright © 2011-2022 走看看