zoukankan      html  css  js  c++  java
  • 云计算环境Hadoop安装与配置

     一.Ubuntu怎么开启/关闭防火墙
    在Ubuntu中,使用sudo ufw status命令查看当前防火墙状态。
    不活动,是关闭状态。
    在Ubuntu中,使用sudo ufw enable命令来开启防火墙。
    在Ubuntu中,使用sudo ufw disable命令来关闭防火墙。

    二.创建hadoop用户

    如果你安装Ubuntu的时候不是使用的"hadoop"用户, 那么需要增加一个名为hadoop的用户.

    1)首先按ctrl+alt+t打开终端窗口,输入如下命令创建新用户:

    sudo useradd -m hadoop -s/bin/bash

    2)接着可以使用如下命令设置密码,可以简单的设置为hadoop, 按提示输入两次密码:

    sudo passwd hadoop

    3)可以为hadoop用户增加管理员权限, 方便部署, 避免一些新手来说比较棘手的权限问题.

    三.更新apt

    ubuntu如何切换到其他用户

    如果是字符终端切换的话,用 “su - 其他用户名”,这个命令就可以了。
    1. hadoop 用户登录后,我们先更新一下 apt,后续我们使用 apt 安装软件,如果没更新可能有一些软件安装不了。

    2. ctrl+alt+t 打开终端窗口,

    3. 执行如下命令:

    
    

    sudo apt-get update

    
    
    

     

     

    安装SSH、配置SSH无密码登陆

     

    1. 集群、单节点模式都需要用到 SSH 登陆(类似于远程登陆,你可以登录某台 Linux 主机,

    2. 并且在上面运行命令),Ubuntu 默认已安装了 SSH client,此外还需要安装 SSH server

    sudo apt-get install openssh-server

     

     

    2. 安装后,可以使用如下命令登陆本机(此时会有如下提示(SSH首次登陆提示),输入 yes

    然后按提示输入密码 hadoop,这样就登陆到本机了, 但这样登陆是需要每次输入密码的,

    我们需要配置成SSH无密码登陆比较方便)

    ssh localhost

     

     

     

    3) 首先退出刚才的 ssh,就回到了我们原先的终端窗口,然后利用 ssh-keygen 生成密钥,

         并将密钥加入到授权中:

    exit # 退出刚才的 ssh localhost

    cd ~/.ssh/ # 若没有该目录,请先执行一次ssh localhost

     

    ssh-keygen -t rsa # 会有提示,都按回车就可以

     

    cat ./id_rsa.pub >> ./authorized_keys # 加入授权

     

     

    此时再用 ssh localhost 命令,无需输入密码就可以直接登陆了,如下图所示

     

     

            安装配置JDK

    1. Java环境可选择 Oracle JDK,或是 OpenJDK,通过命令安装 OpenJDK 7

    sudo apt-get install openjdk-8-jre openjdk-8-jdk

    1. 在文件最前面添加如下单独一行:

    vi ~/.bashrc # 设置JAVA_HOME

    export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64

    1. 使 JAVA_HOME 变量生效:

    source ~/.bashrc # 使变量设置生效

     

     

    在单节点(伪分布式)环境下运行HADOOP

     

        1.安装 Hadoop 2

    cd ~/下载

    sudo tar -zxvf ./hadoop-2.6.0.tar.gz -C /usr/local # 解压到/usr/local

    cd /usr/local/

    sudo mv ./hadoop-2.6.0/ ./hadoop # 将文件夹名改为hadoop

    sudo chown -R hadoop ./hadoop # 修改文件权限

                             

          2.进行伪分布式配置

    修改配置文件 core-site.xml (vim /usr/local/hadoop/etc/hadoop/core-site.xml)

    <configuration>

    <property>

    <name>hadoop.tmp.dir</name>

    <value>file:/usr/local/hadoop/tmp</value>

    <description>Abase for other temporary directories.</description>

    </property>

    <property>

    <name>fs.defaultFS</name>

    <value>hdfs://localhost:9000</value>

    </property>

    </configuration>

    文件 hdfs-site.xmldfs.replication 一般设为 3,但我们只有一个 Slave 节点,所以 dfs.replication 的值还是设为 1

    <configuration>

    <property>

    <name>dfs.namenode.secondary.http-address</name>

    <value>Master:50090</value>

    </property>

    <property>

    <name>dfs.replication</name>

    <value>1</value>

    </property>

    <property>

    <name>dfs.namenode.name.dir</name>

    <value>file:/usr/local/hadoop/tmp/dfs/name</value>

    </property>

    <property>

    <name>dfs.datanode.data.dir</name>

    <value>file:/usr/local/hadoop/tmp/dfs/data</value>

    </property>

    </configuration>

    文件 mapred-site.xml (可能需要先重命名,默认文件名为 mapred-site.xml.template),然后配置修改如下:

    <configuration>

    <property>

    <name>mapreduce.framework.name</name>

    <value>yarn</value>

    </property>

    <property>

    <name>mapreduce.jobhistory.address</name>

    <value>Master:10020</value>

    </property>

    <property>

    <name>mapreduce.jobhistory.webapp.address</name>

    <value>Master:19888</value>

    </property>

    </configuration>

    文件 yarn-site.xml

    <configuration>

    <property>

    <name>yarn.resourcemanager.hostname</name>

    <value>Master</value>

    </property>

    <property>

    <name>yarn.nodemanager.aux-services</name>

    <value>mapreduce_shuffle</value>

    </property>

    </configuration>

     

     

     

            3.启动 Hadoop:

    cd /usr/local/hadoop

    bin/hdfs namenode -format # namenode 格式化

    sbin/start-dfs.sh # 开启守护进程

    jps # 判断是否启动成功

     

         4.运行 WordCount 实例

    bin/hdfs dfs -mkdir -p /user/hadoop # 创建HDFS目录

    bin/hdfs dfs -mkdir input

    bin/hdfs dfs -put etc/hadoop/*.xml input # 将配置文件作为输入

    bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.8.2.jar wordcount input output

    bin/hdfs dfs -cat output/* # 查看输出

     

     

     

     

     

     

     

     

     

  • 相关阅读:
    汇编与反汇编
    在Mac环境下跑汇编
    使用python-openCV对摄像头捕捉的镜头进行二值化并打上文字
    关于js中的setTimeout和setInterval
    在MacOX下安装python-opencv
    为什么在保护模式下IA-32处理器最高可访问4GB的内存
    Mac上常用的一些命令
    说说chrome上的JS调试
    Steganography-图片隐写术
    Makefile-filter和filter-out
  • 原文地址:https://www.cnblogs.com/liweikuan/p/14762302.html
Copyright © 2011-2022 走看看