zoukankan      html  css  js  c++  java
  • HDFS原理解析(总体架构,读写操作流程)

    前言

    HDFS 是一个能够面向大规模数据使用的,可进行扩展的文件存储与传递系统。是一种允许文件通过网络在多台主机上分享的文件系统,可让多机器上的多用户分享文件和 存储空间。让实际上是通过网络来访问文件的动作,由程序与用户看来,就像是访问本地的磁盘一般。即使系统中有某些节点脱机,整体来说系统仍然可以持续运作 而不会有数据损失。

    一、HDFS体系结构

    技术分享

    1、Namenode
    Namenode是整个文件系统的管理节点。它维护着整个文件系统的文件目录树,文件/目录的元信息和每个文件对应的数据块列表, 接收用户的操作请求。
    文件包括:
    ①fsimage:元数据镜像文件。存储某一时段NameNode内存元数据信息。
    ②edits:操作日志文件。
    ③fstime:保存最近一次checkpoint的时间
    以上这些文件是保存在linux的文件系统中。通过hdfs-site.xml的dfs.namenode.name.dir属性进行设置。

    查看NameNode的fsimage与edits内容
    这个两个文件中的内容使用普通文本编辑器是无法直接查看的,幸运的是hadoop为此准备了专门的工具用于查看文件的内容,这些工具分别为oev和oiv,可以使用hdfs调用执行。

    启动服务器:bin/hdfs oiv -i 某个fsimage文件

    bash$ bin/hdfs oiv -i fsimage
    14/04/07 13:25:14 INFO offlineImageViewer.WebImageViewer: WebImageViewer started.
    Listening on /127.0.0.1:5978. Press Ctrl+C to stop the viewer.

    查看内容:bin/hdfs dfs -ls -R webhdfs://127.0.0.1:5978/

    bash$ bin/hdfs dfs -ls webhdfs://127.0.0.1:5978/
    Found 2 items
    drwxrwx–* - root supergroup 0 2014-03-26 20:16 webhdfs://127.0.0.1:5978/tmp
    drwxr-xr-x - root supergroup 0 2014-03-31 14:08 webhdfs://127.0.0.1:5978/user

    导出fsimage的内容:bin/hdfs oiv -p XML -i
    tmp/dfs/name/current/fsimage_0000000000000000055 -o fsimage.xml

    bash$ bin/hdfs oiv -p XML -i fsimage -o fsimage.xml
    0000055 -o fsimage.xml

    查看edtis的内容:bin/hdfs oev -i
    tmp/dfs/name/current/edits_0000000000000000057-0000000000000000186 -o edits.xml

    bash$ bin/hdfs oev -i
    tmp/dfs/name/current/edits_0000000000000000057-0000000000000000186 -o edits.xml

    2、Datanode
    提供真实文件数据的存储服务。
    文件块( block): 最基本的存储单位。
    对于文件内容而言,一个文件的长度大小是size,那么从文件的0偏移开始,按照固定的大小,顺序对文件进行划分并编号,划分好的每一个块称一个Block。 HDFS默认Block大小是128MB, 因此,一个256MB文件,共有256/128=2个Block.
    与普通文件系统不同的是,在 HDFS中,如果一个文件小于一个数据块的大小,并不占用整个数据块存储空间。
    Replication:多复本。默认是三个。通过hdfs-site.xml的dfs.replication属性进行设置。

    二、数据存储操作

    1、数据存储: block
    默认数据块大小为128MB,可配置。若文件大小不到128MB,则单独存成一个block。
    为何数据块如此之大?
    数据传输时间超过寻道时间(高吞吐率)
    一个文件存储方式?
    按大小被切分成若干个block,存储到不同节点上,默认情况下每个block有三个副本。
    技术分享
    HDFS Block的设计理念:一个文件由哪些块组成。一个块存储在哪些节点上。好处:易于分摊到各个节点。如下:

    block1:node1,node2,node3
    block2:node2,node3,node4
    block3:node4,mode5,node6
    block4:node5,node6.node7

    2、数据存储: staging
    HDFS client上传数据到HDFS时,首先,在本地缓存数据,当数据达到一个block大小时,请求NameNode分配一个block。 NameNode会把block所在的DataNode的地址告诉HDFS client。 HDFS client会直接和DataNode通信,把数据写到DataNode节点一个block文件中。

    3、数据存储:读文件操作
    技术分享
    1.首先调用FileSystem对象的open方法,其实是一个DistributedFileSystem的实例。

    2.DistributedFileSystem通过rpc获得文件的第一批block的locations,同一个block按照重复数会返回多个locations,这些locations按照hadoop拓扑结构排序,距离客户端近的排在前面。

    3.前两步会返回一个FSDataInputStream对象,该对象会被封装DFSInputStream对象,DFSInputStream可 以方便的管理datanode和namenode数据流。客户端调用read方法,DFSInputStream最会找出离客户端最近的datanode 并连接。

    4.数据从datanode源源不断的流向客户端。

    5.如果第一块的数据读完了,就会关闭指向第一块的datanode连接,接着读取下一块。这些操作对客户端来说是透明的,客户端的角度看来只是读一个持续不断的流。

    6.如果第一批block都读完了, DFSInputStream就会去namenode拿下一批block的locations,然后继续读,如果所有的块都读完,这时就会关闭掉所有的流。
    如果在读数据的时候, DFSInputStream和datanode的通讯发生异常,就会尝试正在读的block的排序第二近的datanode,并且会记录哪个 datanode发生错误,剩余的blocks读的时候就会直接跳过该datanode。 DFSInputStream也会检查block数据校验和,如果发现一个坏的block,就会先报告到namenode节点,然后 DFSInputStream在其他的datanode上读该block的镜像。

    该设计就是客户端直接连接datanode来检索数据并且namenode来负责为每一个block提供最优的datanode, namenode仅仅处理block location的请求,这些信息都加载在namenode的内存中,hdfs通过datanode集群可以承受大量客户端的并发访问。

    4、数据存储:写文件操作
    技术分享

    1.客户端通过调用DistributedFileSystem的create方法创建新文件。

    2.DistributedFileSystem通过RPC调用namenode去创建一个没有blocks关联的新文件,创建前, namenode会做各种校验,比如文件是否存在,客户端有无权限去创建等。如果校验通过, namenode就会记录下新文件,否则就会抛出IO异常。

    3.前两步结束后,会返回FSDataOutputStream的对象,与读文件的时候相似, FSDataOutputStream被封装成DFSOutputStream。DFSOutputStream可以协调namenode和 datanode。客户端开始写数据到DFSOutputStream,DFSOutputStream会把数据切成一个个小的packet,然后排成队 列data quene。

    4.DataStreamer会去处理接受data quene,它先询问namenode这个新的block最适合存储的在哪几个datanode里(比如重复数是3,那么就找到3个最适合的 datanode),把他们排成一个pipeline。DataStreamer把packet按队列输出到管道的第一个datanode中,第一个 datanode又把packet输出到第二个datanode中,以此类推。

    5.DFSOutputStream还有一个对列叫ack quene,也是由packet组成,等待datanode的收到响应,当pipeline中的所有datanode都表示已经收到的时候,这时akc quene才会把对应的packet包移除掉。
    如果在写的过程中某个datanode发生错误,会采取以下几步:
    1) pipeline被关闭掉;
    2)为了防止防止丢包ack quene里的packet会同步到data quene里;
    3)把产生错误的datanode上当前在写但未完成的block删掉;
    4)block剩下的部分被写到剩下的两个正常的datanode中;
    5)namenode找到另外的datanode去创建这个块的复制。当然,这些操作对客户端来说是无感知的。

    6.客户端完成写数据后调用close方法关闭写入流。

    7.DataStreamer把剩余得包都刷到pipeline里,然后等待ack信息,收到最后一个ack后,通知datanode把文件标视为已完成。

    注意:客户端执行write操作后,写完的block才是可见的,正在写的block对客户端是不可见的,只有 调用sync方法,客户端才确保该文件的写操作已经全部完成,当客户端调用close方法时,会默认调用sync方法。是否需要手动调用取决你根据程序需 要在数据健壮性和吞吐率之间的权衡。

  • 相关阅读:
    poj 2485 Highways 最小生成树
    hdu 3415 Max Sum of MaxKsubsequence
    poj 3026 Borg Maze
    poj 2823 Sliding Window 单调队列
    poj 1258 AgriNet
    hdu 1045 Fire Net (二分图匹配)
    poj 1789 Truck History MST(最小生成树)
    fafu 1181 割点
    减肥瘦身健康秘方
    人生的问题
  • 原文地址:https://www.cnblogs.com/xubiao/p/5579080.html
Copyright © 2011-2022 走看看