zoukankan      html  css  js  c++  java
  • Ubuntu16.04下安装Hadoop

    一、记录理由

      刚开始只是想要学习怎么使用Hive的。想着安装应该很简单,没想到花了整整一天的时间来安装,为了避免下次犯同样的错误,特此记录。

    二、安装Hadoop

    网上教你怎么安装Hadoop的文章有很多,质量参差不齐,作为一名刚刚入门的菜鸟,我就记录一个完整的菜鸟版吧。

    (1)环境准备

      1. Vmware

      2. Ubuntu16.04

      (2)  安装jdk和openssh

      请执行以下命令:

        $ sudo apt-get install openjdk-8-jdk

        $ sudo apt-get install openssh-server

        $ sudo /etc/init.d/ssh start

        $ ps -e | grep ssh

        $ ssh-keygen -t dsa -P ''

        $ cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys

        $ ssh localhost

      (3)添加Hadoop用户组合用户

                $  sudo su

                $ addgroup hadoop

                $ adduser --ingroup hadoop hadoop            

                $ password hadoop  //为hadoop账号设置密码

        $  adduser hadoop sudo

        $  su hadoop

        键入hadoop的密码:

      (4) 下载Hadoop

                

               执行以上过程的时候,要先去上面的网站上看一看有没有对应的hadoop-2.2.0.tar.gz,没有的话就换成有的版本

          在这个过程中如果有出现permission denieied提示的话,就在命令的最前面加上sudo

      (5) 配置环境

        $ sudo vim ~/.bashrc

        在.bashrc这个文件的最后面加上:

                

           export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64
        export HADOOP_HOME=/usr/local/hadoop 
        export HADOOP_MAPRED_HOME=$HADOOP_HOME 
        export HADOOP_COMMON_HOME=$HADOOP_HOME 
        export HADOOP_HDFS_HOME=$HADOOP_HOME 
        export YARN_HOME=$HADOOP_HOME
           export PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/bin

        保存之后退出.bashrc文件

                 

                  $ sudo cd /usr/local/hadoop/etc/hadoop

        $ sudo vim hadoop-env.sh

        在hadoop-env.sh文件的最末端加上以下内容

        export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64/

        export HADOOP_COMMON_LIB_NATIVE_DIR="/usr/local/hadoop/lib/native/"
        export HADOOP_OPTS="$HADOOP_OPTS -Djava.library.path=/usr/local/hadoop/lib/"

        保存之后退出hadoop-env.sh文件

                 退出terminal再打开

      (6)配置Hadoop

        $ su hadoop

        $ cd /usr/local/hadoop/etc/hadoop

        $ sudo vim core-site.xml

    <property>  
       <name>fs.default.name</name>  
       <value>hdfs://localhost:9000</value>  
    </property>

        $ sudo vim yarn-site.xml

    <property>  
       <name>yarn.nodemanager.aux-services</name>  
       <value>mapreduce_shuffle</value>  
    </property>  
    <property>  
       <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>  
       <value>org.apache.hadoop.mapred.ShuffleHandler</value>  
    </property>  
    

        $ sudo mv mapred-site.xml.template mapred-site.xml

        $ sudo vim mapred-site.xml

    property>  
       <name>mapreduce.framework.name</name>  
       <value>yarn</value>  
    </property>

        $ sudo mkdir -p ~/mydata/hdfs/namenode

        $ sudo mkdir -p ~/mydata/hdfs/datanode

        $ sudo vim hdfs-site.xml

    <property>  
       <name>dfs.replication</name>  
       <value>1</value>  
     </property>  
     <property>  
       <name>dfs.namenode.name.dir</name>  
       <value>file:/home/hduser/mydata/hdfs/namenode</value>  
     </property>  
     <property>  
       <name>dfs.datanode.data.dir</name>  
       <value>file:/home/hduser/mydata/hdfs/datanode</value>  
     </property>  

      (6) 格式化namenode, 启动服务

      $ sudo cd /usr/local/hadoop/

      $ ./bin/hdfs namenode -format

      $ ./start-dfs.sh && start-yarn.sh

      $ jps

      顺利的话这里要能看到 SecondaryNameNode, NameNode, DataNode, NodeManager, ResourceManager, Jps

      (7)测试

      在浏览器上键入: http://localhost:50070/  会出现hadoop页面; 键入:http://localhost:8088也会出现有一个页面

    三、安装Hive

    在安装了测试了Hadoop之后就可以安装Hive。为了避免篇幅过长,我把如何安装Hive移到下一篇博客。

  • 相关阅读:
    字符串的操作
    vue2.0状态
    vue2.0 Loding组件(收集转载)
    动态加载js文件,并在加载成功后执行回调函数
    Vue2.0 keep-alive 后组件不使用缓存
    前端必要知识汇总
    Vue2.0的群组路由
    video视频限时观看
    iOS军火库-好用的ActionSheetView
    我的网络层是这么设计的
  • 原文地址:https://www.cnblogs.com/whatyouknow123/p/8904183.html
Copyright © 2011-2022 走看看