zoukankan      html  css  js  c++  java
  • hadoop-0.20.2安装配置

    该环境在Vmware Workstation 12 上安装配置一共三台机器master,slave1,slave2.

    操作系统:Cenos 7.0

    hadoop 版本:hadoop-0.20.2,版本比较老,资料比较多,便于入门学习。

    官网找不到可以在http://pan.baidu.com/s/1eQFFBH4下载。

    1.基本环境准备(3台机器)

    1. VMware上生成三台装有centos 7的机器,主机名分别命名为master,slave1, slave2。(时间可以通过复制的方式)
    2. 网络配置:每个节点都配置静态IP。修改/etc/hosts文件:

        192.168.2.1 master

        192.168.2.2 slave1

        192.168.2.3 slave2 

    2.java环境配置(3台机器)(由于不清楚默认的java安装环境,这里重新安装配置了jdk1.6.0_45)

    1. 查看本机上安装的java   java -version  rpm -qa | grep java
    2. 卸载 yum  -y remove java
    3. 下载安装jdk:http://download.csdn.net/download/javahr/7291125
    4. 降下的修改为可执行文件:chmod +x  javaXXX.bin
    5. 运行 ./jdk-6u45-linux-x64.bin
    6. 便于管理,将java安装到/usr/java     mkdir /usr/java         mv  jdk1.6.0_45  /usr/java
    7. 配置环境变量:在~/.bashrc 文件中加入  

        export JAVA_HOME=/usr/java/jdk1.6.0_45
        export CLASSPATH=.:$JAVA_HOME/jre/lib/rt.jar:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
        export PATH=$PATH:$JAVA_HOME/bin

             8.javac 查看安装结果

    3.ssh免密码登陆

        这是集群配置中很基础的部分,就不多写了,很简单,但是很中要。最后的结果是人任意两个节点之间可以免密码登陆,在master结点上ssh slave1 ssh slave2,ssh master...

    3.Hadoop-0.20.2安装配置(在一台机器上安装配置好后复制到其他节点上,少量修改即可

     1.hadoop的安装很简单,只需在上面的链接中下载hadoop源码,选个合适的目录解压缩就可以了。

      tar -xzvf hadoop-0.20.2.tar.gz

           mv hadoop-0.20.2   /home/hadoop/  (我的安装目录)

       2.hadoop的配置内容比较多,这里介绍几个重要的:

              (1)vim  ~/.bashrc 增加

                    export HADOOP_HOME=/home/hadoop/hadoop-0.20.2

        export JAVA_HOME=/usr/java/jdk1.6.0_45

        export JRE_HOME=$JAVA_HOME/jre

        export CLASSPATH=.:$JAVA_HOME/lib:$JRE_HOME/lib:$CLASSPATH
        export PATH=$JAVA_HOME/bin:$PATH:$JRE_HOME/lib:$HADOOP_HOME/bin

            (2)vim  $HADOOP_HOME/conf/hadoop-env.sh

                   # The java implementation to use. Required.

        export JAVA_HOME=/usr/java/jdk1.6.0_45

        (3)vim $HADOOP_HOME/conf/core-site.xml

        <configuration>

        <property><name>fs.default.name</name><value>hdfs://master:9000</value></property>         #复制
        </configuration>

            (4)vim $HADOOP_HOME/conf/hdfs-site.xml   

        <configuration>

        <property><name>dfs.replication</name><value>2</value></property>   //副本数
        <property><name>dfs.data.dir</name><value>/home/hadoop/hadoop-0.20.2/storage/data/</value></property>      //本地数据存储目录,自己设置
        <property><name>dfs.name.dir</name><value>/home/hadoop/hadoop-0.20.2/storage/name/</value></property> 
        </configuration>

            (5)vim  $HADOOP_HOME/conf/mapred-site.xml

        <configuration>

        <property><name>mapred.job.tracker</name><value>master:9001</value></property>    //复制
        </configuration>

       (6)vim master

                 master

             (7)slaves

         slave1

        slave2

     3.启动。在hadoop安装目录的bin子目录下有些脚本用于hadoop的启动和关闭。

       执行hadoop namenode -formate 格式化文件系统

       执行start-all.sh 启动后台进程。

      4.查看安装结果。在jdk的安装目录的bin子目录下的jps命令。可用于检查后台进程,如果进程都看启动了,表明安装成功了。

            

    5.   通过hadoop安装目录下的bin子目录里的start-all.sh启动后台进程。

      运行hadoop dfsadmin -report 查看个节点运行状态

      或在浏览器上输入http://192.168.2.1:50070(master节点IP)   http://192.168.2.1:5530(查看jobtracker)

                 

         

  • 相关阅读:
    tableView小细节
    iOS5 切换中文键盘时覆盖输入框的解决方案
    NSBundle读取txt文件,图片,plist
    iOS OC 字符串处理
    图片拉伸 几种方式
    UIAlertView小结
    新来报道
    VC6.0之Debug调试总结
    关于C++中的临时对象问题
    与临时对象的斗争(下)
  • 原文地址:https://www.cnblogs.com/wxquare/p/4841294.html
Copyright © 2011-2022 走看看