zoukankan      html  css  js  c++  java
  • Hadoop初探

    本文转自:https://blog.csdn.net/column/details/14334.html

    前言

    Hadoop是什么? 用百科上的话说:“Hadoop是一个由Apache基金会所开发的分布式系统基础架构。用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力进行高速运算和存储。” 可能有些抽象,这个问题可以在一步步学习Hadoop的各种知识以后再回过头来重新看待。

    Hadoop大家族

    Hadoop不是一个单一的项目,经过10年的发展,Hadoop已经成为了一个拥有近20个产品的庞大家族。 其中最核心的包括以下9个产品,并且我们将按照下面的顺序一步步学习。

    Hadoop:是Apache开源组织的一个分布式计算开源框架,提供了一个分布式文件系统子项目(HDFS)和支持MapReduce分布式计算的软件架构 Hive:基于Hadoop的一个数据仓库工具 Pig:基于Hadoop的大规模数据分析工具 Zookeeper:是一个为分布式应用所设计的分布的、开源的协调服务,它主要是用来解决分布式应用中经常遇到的一些数据管理问题,简化分布式应用协调及其管理的难度,提供高性能的分布式服务 HBase:是一个高可靠性、高性能、面向列、可伸缩的分布式存储系统,利用HBase技术可在廉价PC Server上搭建起大规模结构化存储集群 Mahout:基于Hadoop的机器学习和数据挖掘的一个分布式框架 Sqoop:是一个用来将Hadoop和关系型数据库中的数据相互转移的工具,可以将一个关系型数据库(MySQL ,Oracle ,Postgres等)中的数据导进到Hadoop的HDFS中,也可以将HDFS的数据导进到关系型数据库中。 Cassandra::是一套开源分布式NoSQL数据库系统 Flume:是一个分布的、可靠的、高可用的海量日志聚合的系统,可用于日志数据收集,日志数据处理,日志数据传输。


    好,接下来开始正式学习Hadoop。

    1 环境搭建

    Hadoop安装有如下三种方式:

    单机模式:安装简单,几乎不用作任何配置,但仅限于调试用途; 伪分布模式:在单节点上同时启动NameNode、DataNode、JobTracker、TaskTracker、 Secondary Namenode等5个进程,模拟分布式运行的各个节点; 完全分布式模式:正常的Hadoop集群,由多个各司其职的节点构成

    接下来,我们进行伪分布式环境的搭建。

    操作系统:Ubuntu 16.04 LTS JDK: JDK1.8 Hadoop:2.6.0

    S1 创建hadoop用户

    首先切换到root用户

    
    
    1 su root
     

    创建用户,设置密码,并为其分配管理员权限

    useradd -m hadoop -s /bin/bash
    passwd hadoop
    adduser hadoop sudo

    创建成功后注销当前用户,使用hadoop用户重新登入。

    S2 更新apt

    后续需要使用apt进行软件的安装,在这里先更新一下apt,执行如下命令:

    sudo apt-get update

    S3 安装vim

    安装用于修改文件的vim

    sudo apt-get install vim

    S4 安装SSH

    安装SSH用于远程登陆控制。 ubuntu默认安装了SSH client,我们需要安装SSH server,使用如下命令:

    sudo apt-get install openssh-server

    使用如下命令即可登入本机

    ssh localhost

    S5 安装JDK

    首先在官网下载jdk1.8安装包,我下载的是: jdk-8u111-linux-x64.tar.gz 在usr/lib目录下新建jvm文件夹并授权:

    cd /user/lib
    sudo mkdir jvm
    sudo chown hadoop ./jvm
    sudo chmod -R 777 ./jvm

    将下载的安装包拷贝到jvm目录下。 在jvm目录下,执行下面命令进行解压,并重命名

    sudo tar zxvf jdk-8u111-linux-x64.tar.gz
    sudo mv jdk1.8.0_111 java

    继续在jvm目录下执行下面命令进入vim编辑器,按”I”进入编辑模式,

    vim ~/.bashrc

    光标移到最前面,输入下面内容(必须写到开头,写在末尾在后边会出现找不到java_home的情况):

    
    export JAVA_HOME=/usr/lib/jvm/java
    export JRE_HOME=${JAVA_HOME}/jre
    export CLASSPATH=.:${JAVA_HOME}/lib;${JRE_HOME}/lib
    export PATH=${JAVA_HOME}/bin:$PATH

    先按ESC键,然后按shift+zz保存退出,回到命令行模式输入下面命令使修改生效

    source ~/.bashrc

    这样就配置完了,可以使用下面命令验证是否安装成功。

    echo ¥JAVA_HOME
    java -version
    $JAVA_HOME/bin/java -version

    S6 安装Hadoop2

    http://mirror.bit.edu.cn/apache/hadoop/common/ 页面下载hadoop-2.6.0.tar.gz和hadoop-2.6.0.tar.gz.mds

    新建hadoop文件并授权

    cd /usr/local
    sudo mkdir hadoop
    sudo chown hadoop ./hadoop
    sudo chmod -R 777 ./hadoop

    将下载好的文件拷贝到该目录下 执行下面命令(我也不清楚干嘛用)

    cat /usr/local/hadoop/hadoop-2.6.0.tar.gz.mds|grep 'MD5'
    md5sum /usr/local/hadoop/hadoop-2.6.0.tar.gz|tr "a-z" "A-Z"

    切换到/usr/local/hadoop目录,进行解压并重命名:

    cd /usr/local/hadoop
    sudo tar -zxf hadoop-2.6.0.tar.gz
    sudo mv hadoop-2.6.0 hadoop2

    hadoop解压后即可用,使用下面命令验证:

    cd /usr/local/hadoop/hadoop2
    ./bin/hadoop version

    S7 伪分布式配置

    Hadoop的运行方式是以配置文件决定的。 文件位于/usr/local/hadoop/hadoop2/etc/hadoop/中,需要对core-site.xmlh和hdfs-site.xml文件进行修改。 先为用户授权:

    cd /usr/local/hadoop
    sudo chown hadoop ./hadoop2
    sudo chmod -R 777 ./hadoop2

    执行下面命令:

    cd /usr/local/hadoop/hadoop2
    gedit ./etc/hadoop/core-site.xml

    修改为如下配置并保存:

    <configuration>
            <property>
                 <name>dfs.replication</name>
                 <value>1</value>
            </property>
            <property>
                 <name>dfs.namenode.name.dir</name>
                 <value>file:/usr/local/hadoop/hadoop2/tmp/dfs/name</value>
            </property>
            <property>
                 <name>dfs.datanode.data.dir</name>
                 <value>file:/usr/local/hadoop/tmp/dfs/data</value>
            </property>
    </configuration>

    执行下面命令:

    gedit ./etc/hadoop/hdfs-site.xml

    修改为如下配置并保存:

    <configuration>
            <property>
                 <name>dfs.replication</name>
                 <value>1</value>
            </property>
            <property>
                 <name>dfs.namenode.name.dir</name>
                 <value>file:/usr/local/hadoop/tmp/dfs/name</value>
            </property>
            <property>
                 <name>dfs.datanode.data.dir</name>
                 <value>file:/usr/local/hadoop/tmp/dfs/data</value>
            </property>
    </configuration>

    如果需要改为非分布式,再把修改的内容删掉即可。 执行下面命令进行namenode的格式化(hadoop2目录下执行)

    ./bin/hdfs namenode -format

    看到Successfully formatted即为成功。 执行下面命令开去NameNodeDataNode的守护进程

    ./sbin/start-dfs.sh

    按提示一步步操作,启动完成后使用下面命令验证:

    jps

    出现“NameNode”、”DataNode” 和 “SecondaryNameNode”即表示启动成功。SecondaryNameNode没有启动的话请重新启动,其他两个没有启动的话检查之前的配置。 启动成功后,浏览器地址栏输入:localhost:50070可以查看NameNode和Datanode的信息。

    2 Hadoop初探

    把环境搭建好,心里就踏实了,接下来先了解一些必要的理论知识。

    2.1 为什么用Hadoop?

    任何事物的产生都有其必然性。 从2012年开始,大数据这个词被越来越多的提及,现在我们已经进入了大数据时代。在这个信息爆炸的时代,每天产生的数据量十分庞大。而大数据也不仅仅只是说数据多,大数据有四个特点: 数据量大,类型繁多,价值密度低,速度快时效高。 根据这几个特点,我们需要一个东西,具备以下功能:

    1.可以存储大量数据

    2.可以快速处理大量数据

    3.可以从大量数据中进行分析

    于是就产生了Hadoop这个模型:

    看起来就像一个系统,HDFS和MapReduce是底层,Hive,Pig,Mathout,Zookeeper,Flume,Sqoop,HBase是基于底层系统的一些软件。 所以Hadoop核心中的核心是HDFS和MapReduce。

    所以说: Hadoop就是一个用于处理大数据的计算框架,Hadoop具有分布式、可靠、可伸缩的特性。 分布式:Hadoop通过将文件和任务分配到众多的计算机节点上来提高效率。 可靠:由于是分布式的,所以其中一个或几个节点出现故障,并不会影响整个程序的运行。 可伸缩:任何一个节点的添加和删除都不会影响程序的运行。

    2.2 单节点体系

    实际应用中我们是使用一个有N多台计算机构成的集群(也可以使用多个创建多个虚拟机来模拟)来使用Hadoop的,如果仅仅只有一台计算机,那就失去了Hadoop存在的意义。 每台计算机,我们称之为一个节点,我们需要为每一个节点都配置Hadoop,通过上边的配置过程,我们可以知道,单节点(即每一台计算机)adoop的体系结构就像下面的图;

    2.2 HDFS

    HDFS全称是Hadoop Distribute file system ,即Hadoopp分布式文件系统。 现在的数据量已经达到了PB级(1PB=1024T),对于单个硬盘来说,存储这个数量级的数据具有相当大的压力。所以很自然的我们就会想到将数据切割开来,存储到多个计算机中,由此诞生了分布式文件系统。 为了实现数据的可靠性安全性,HDFS会对每份数据创建副本,默认值是3,及默认情况下一份数据存储在三个不同的节点上,由此导致HDFS具有如下特点:

    1.高度的数据冗余**:这也是没有办法的事,要提高可靠性,冗余是必不可少的。

    2.适合一次写入,多次读取:由于在写入数据的时候需要为数据创建副本,所以写入的成本很高,如果涉及到了高频率的IO写入,不适合使用Hadoop

    3.适合存储大文件,不适合小文件:在HDFS中存在Block的概念,Block是HDFS的存储单元,默认是64M,很多企业已经调整为128M。在存储文件时,会把大文件分割开来存储在一个个的Block块中,一个Block块只会存储一个文件。所以如果存储的小文件过多将造成大量存储空间的浪费。

    4.对硬件的要求低:可以运用于廉价的商业服务器上,不需要使用性能很高但昂贵的服务器。

    2.2.1 NameNode,dataNode以及secondary namenode

    HDFS集群是以Master-Slave模式运行的,其实也可以像nginx中那样说成是Master-worker,一个意思。主要涉及到两种节点,一是nameNode,即Master,另一个是大量的dataNode即worker. 下图是Apache官网关于NameNode和dataNode的关系图:

    NameNode只有一个,负责维护整个文件系统的元数据,这里的元数据包含每个文件、文件位置以及这些文件及其所在的DataNode内的所有数据块的内存映射。 dataNode存在于每一个节点中,负责具体的工作,包括为读写请求提供服务以及按照NameNode的指令执行数据块创建、删除和复制。 客户端(client)代表用户与namenode和datanode交互来访问整个文件系统。客户端提供了一些列的文件系统接口,因此我们在编程时,几乎无须知道datanode和namenode,即可完成我们所需要的功能。 secondary NameNode 要了解secondary NameNode,首先需要先了解namenode的容错机制。 从上图可以看出,一个Hadoop集群中只要一个nameNode,一旦namenode出现故障,整个集群将会瘫痪,所以namenode必须要有良好的容错机制。 第一种方式是远程备份:即在namenode将数据写入磁盘时,同步在一个远程服务器上创建数据的副本。 第二种方式是使用辅助namenode即secondary namenode: 首先我们需要知道的是namenode将数据保存在了Namespace镜像和操作日志中,secondary namenode的主要作用是将这两个文件定期进行合并。 但是由于是定期执行,secondaryname并不能实时同步主namenode的数据,所以一旦namenode挂掉,不可避免的会造成数据丢失,所以稳妥的方式就是结合两种方法,当主namenode宕掉时,将secondary namenode的数据拷贝到secondary namenode,然后再让secondarynamenode充当namenode的作用。

    2.3 MapReduce

    MapReduce是Hadoop的分布式计算框架,现在我们只做初步的了解。 MapReduce=Map+Reduce,即MapReduce分为Map的过程和Reduce的过程。这两个刚才都是需要我们通过程序来控制的。 先看下面这张图:

    这张图是在网上找的。 如上图所示就是MapReduce处理的一个完整的过程。 Input:最左边是输入的过程,输入了图示的数据。 Split分片:mapreduce会根据输入的文件计算分片,每个分片对应与一个map任务。而分片的过程和HDFS密切相关,比如HDFS的一个block大小为64M,我们输入的三个文件分比为10M,65M,128M,这样的话第一个文件生成一个10M的分片,第二个文件生成一个64M的分片和一个1M的分片,第三个文件生生成两个64M的分片,这样的话就会一共生成5个分片。 Map:map阶段是由编程人员通过代码来控制的,图中所示的大概内容就是将字符串分割开来,作为键存储在map中,值的位置存储1,表示数量。 shuffle洗牌:洗牌阶段,由于之前生成map中存在很多键相同的map,在洗牌阶段将键相同的进行合并。 Reduce:reduce阶段也是有开发人员通过代码控制,本例中是将键相同的map的value值进行求和,得出最终的map 这样最后输出的数据就是每个字符串出现的次数。

    总结

    写到这里,这篇文章就基本上告一段落了,这篇文章主要包含两个内容: 1.在Ubuntu环境搭建伪分布式Hadoop环境。 2.关于Hadoop的一些简单的必要的理论知识,主要是HDFS和MapReduce

    本文转自:https://blog.csdn.net/u012116457/article/details/53859594

  • 相关阅读:
    vue-hbuilder打包-调取摄像头或上传图片
    vue使用websoket(非封装)
    vue项目hbuilder打包-微信登录调取手机微信登录权限
    登录信息localStorage存储
    vue的三种组件传值方式
    vue-axios设置公共的请求ip
    hive基本配置
    The server time zone value 'EDT' is unrecognized or represents more than one time zone.
    hive启动时 java.net.ConnectException:拒绝连接
    FAILED: HiveException java.lang.RuntimeException: Unable to instantiate org.apache.hadoop.hive.ql.me
  • 原文地址:https://www.cnblogs.com/linbo3168/p/9051437.html
Copyright © 2011-2022 走看看