zoukankan      html  css  js  c++  java
  • Hadoop-2.6.5安装

    简介

    Hadoop是一个由Apache基金会所开发的分布式系统基础架构。

    用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力进行高速运算和存储。

    Hadoop实现了一个分布式文件系统(Hadoop Distributed File System),简称HDFS。HDFS有高容错性的特点,并且设计用来部署在低廉的(low-cost)硬件上;而且它提供高吞吐量(high throughput)来访问应用程序的数据,适合那些有着超大数据集(large data set)的应用程序。HDFS放宽了(relax)POSIX的要求,可以以流的形式访问(streaming access)文件系统中的数据。

    Hadoop的框架最核心的设计就是:HDFS和MapReduce。HDFS为海量的数据提供了存储,则MapReduce为海量的数据提供了计算。

    环境说明

    角色

    主机名

    IP

    功能

    存储分区

    Master

    controller

    192.168.128.166

    NameNode|Secondarynamenode|JobTracker

    /data

    Slave

    compute

    192.168.128.165

    DataNode|TaskTracker

    /data

    Hadoop部署
    
    部署Hadoop需要Master与所有Salve主机实现无秘密访问登录,即配置免秘钥登录,相关配置见:http://www.cnblogs.com/Dev0ps/p/8259099.html
    
    修改主机名并且加入hosts文件:
    
    192.168.128.166   controller
    
    192.168.128.165   compute
    
    安装java环境:
    
    [root@controller ~]# yum install -y java
    
    [root@controller jvm]# vim  /etc/profile 
    
    添加以下java环境
    
        #set java environment 
    
        JAVA_HOME=/usr/lib/jvm/jre-1.8.0-openjdk-1.8.0.151-5.b12.el7_4.x86_64
    
        PATH=$PATH:$JAVA_HOME/bin 
    
        CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar 
    
        export JAVA_HOME  CLASSPATH  PATH 
    
     [root@controller jvm]# source /etc/profile
    
    [root@controller ~]# cd /usr/local/
    
    [root@controller local]# wget http://mirrors.shuosc.org/apache/hadoop/common/hadoop-2.6.5/hadoop-2.6.5.tar.gz
    
    [root@controller local]# tar xf hadoop-2.6.5.tar.gz
    
    [root@controller local]# cd hadoop-2.6.5/etc/hadoop/
    
    修改hadoop-env.sh
    
    [root@controller hadoop]# vim hadoop-env.sh
    
    export    JAVA_HOME=/usr/lib/jvm/jre-1.8.0-openjdk-1.8.0.151-5.b12.el7_4.x86_64
    
    修改core-site.xml
    
    [root@controller hadoop]# vim core-site.xml
    
    <configuration>
    
    <!-- 设置提供HDFS服务的主机名和端口号,即NameNode运行的节点 --> 
    
    <property>
    
    <name>fs.default.name</name>
    
    <value>hdfs://controller:9000</value>
    
    <final>true</final>
    
    </property>
    
    <!-- 指定hadoop运行时产生文件的存储路径 -->  
    
    <property>
    
    <name>hadoop.tmp.dir</name>
    
    <value>/usr/local/hadoop/tmp</value>
    
    <description>A base for other temporary directories</description>
    
    </property>
    </configuration>
    
    修改hdfs-site.xml
    
    [root@controller hadoop]# vim hdfs-site.xml
    
    <configuration>
    
    <property>
    
    <name>dfs.name.dir</name>
    
    <value>/usr/local/hadoop/name</value>
    
    <final>true</final>
    
    </property>
    
    <property>
    
    <name>dfs.data.dir</name>
    
    <value>/usr/local/hadoop/data</value>
    
    <final>true</final>
    
    </property>
    
       <!-- 设置hdfs中文件保存的份数,伪分布式设为1 -->  
    
    <property>
    
    <name>dfs.replication</name>
    
    <value>1</value>
    
    <final>true</final>
    
    </property>
    
    </configuration>
    
     
    
    修改mapred-site.xml
    
    [root@controller hadoop]# vim mapred-site.xml
    
    <configuration>
    
    <property>
    
    <name>mapred.job.tracker</name>
    
    <value>192.168.128.166:9001</value>
    
    <final>true</final>
    
    </property>
    
    </configuration>
    
    配置环境变量
    
    export HADOOP_INSTALL=/usr/local/hadoop
    
    export PATH=$PATH:$HADOOP_INSTALL/bin 
    
    export HADOOP_COMMON_LIB_NATIVE_DIR=/usr/local/hadoop/lib/native 
    
    export HADOOP_OPTS=-Djava.library.path=/usr/local/hadoop/lib
    
    格式化hdsf
    
    hdfs namenode –format
    
    启动服务
    
    [root@controller hadoop]# /usr/local/hadoop/sbin/start-all.sh
    
    访问hadoop的管理界面:  
    
    HDFS管理界面:http://xxxx:50070  
    
    MR管理界面:http://xxxx:8088  
    
  • 相关阅读:
    全字母短句
    java 遍历map的方法
    实现num1、num2交换,无中间变量
    N多条短信,用什么算法从中找出相似内容的来?
    Linux基础_磁盘分区
    Linux基础_软链接,硬链接
    Linux基础_系统启动流程
    Linux基础_合并,归档,压缩,dump,编辑器
    Linux基础_Linux操作系统简介
    计算机基础_操作系统
  • 原文地址:https://www.cnblogs.com/Dev0ps/p/8276936.html
Copyright © 2011-2022 走看看