zoukankan      html  css  js  c++  java
  • HDSF读写文件

    HDFS 读取文件

    HDFS的文件读取原理,主要包括以下几个步骤:

    1、首先调用FileSystem对象的open方法,其实获取的是一个DistributedFileSystem的   实例。

    2、DistributedFileSystem通过RPC(远程过程调用)获得文件的第一批block的

    locations,同一block按照重复数会返回多个locations,这些locations按照hadoop拓  扑结构排序,距离客户端近的排在前面。

    3、前两步会返回一个FSDataInputStream对象,该对象会被封装成 DFSInputStream 对象,DFSInputStream可以方便的管理datanode和namenode数据流。客户端调用

    read方 法,DFSInputStream就会找出离客户端最近的datanode并连接datanode。

    4、数据从datanode源源不断的流向客户端。

    5、如果第一个block块的数据读完了,就会关闭指向第一个block块的datanode连接,   接着读取下一个block块。这些操作对客户端来说是透明的,从客户端的角度来看只是    读一个持续不断的流。

    6、如果第一批block都读完了,DFSInputStream就会去namenode拿下一批blocks的location,然后继续读,如果所有的block块都读完,这时就会关闭掉所有的流。

    HDFS 写入文件

    HDFS的文件写入原理,主要包括以下几个步骤:

    1.客户端通过调用 DistributedFileSystem 的create方法,创建一个新的文件。

    2.DistributedFileSystem  通过  RPC(远程过程调用)调用   NameNode,去创建一个没有blocks关联的新文件。创建前,NameNode  会做各种校验,比如文件是否存在, 客户端有无权限去创建等。如果校验通过,NameNode 就会记录下新文件,否则就会抛出IO异常。

    3.前两步结束后会返回 FSDataOutputStream 的对象,和读文件的时候相似,FSDataOutputStream 被封装成 DFSOutputStream,DFSOutputStream 可以协调NameNode和 DataNode。客户端开始写数据到DFSOutputStream,DFSOutputStream会把数据切成一个个小packet,然后排成队列data queue。

    4.DataStreamer 会去处理接受 data queue,它先问询 NameNode 这个新的 block 最适合存储的在哪几个DataNode里,比如重复数是3,那么就找到3个最适合的

    DataNode,把它们排成一个 pipeline。DataStreamer 把 packet 按队列输出到管道的第一个 DataNode 中,第一个 DataNode又把 packet 输出到第二个 DataNode 中,以此类推。

    5.DFSOutputStream 还有一个队列叫 ack queue,也是由 packet 组成,等待DataNode的收到响应,当pipeline中的所有DataNode都表示已经收到的时候,这时akc queue才会把对应的packet包移除掉。

    6.客户端完成写数据后,调用close方法关闭写入流。

    7.DataStreamer 把剩余的包都刷到 pipeline 里,然后等待 ack 信息,收到最后一个ack 后,通知 DataNode 把文件标示为已完成。

  • 相关阅读:
    Win10怎么默认用Windows照片查看程序打开图片
    Class类文件结构——访问标志
    栈的压入弹出序列
    Java中length,length()以及size()的区别
    包含min函数的栈
    extends和implements的区别
    顺时针打印矩阵
    二叉树的镜像
    Class类文件结构解读——常量池
    进制、字(word)、字节(byte)、位(bit)的关系
  • 原文地址:https://www.cnblogs.com/wakerwang/p/9537290.html
Copyright © 2011-2022 走看看