zoukankan      html  css  js  c++  java
  • Hadoop之HDFS详解

    1、HDFS的概念和特性
      它是一个文件系统,其次是分布式的
      重要特性:
        1).HDFS中的文件在物理上是分块存储(block),新版默认128M
        2).客户端通过路径来访问文件,形如:hdfs://namenode:port/dir-a/dir-b/dir-c/file.data
        3).目录结构及文件分块信息(元数据)的管理由namenode节点承担
        4).文件的各个block的存储管理由datanode节点承担
        5).HDFS是设计成适应一次写入,多次读出的场景,且不支持文件的修改

      (注:适合用来做数据分析,并不适合用来做网盘应用,因为,不便修改,延迟大,网络开销大,成本太高)


    2、HDFS基本操作篇
      客户端使用 :hadoop fs -ls /
      1、hdfs命令行客户端的命令参数
        [-appendToFile <localsrc> ... <dst>]
        [-cat [-ignoreCrc] <src> ...]
        [-checksum <src> ...]
        [-chgrp [-R] GROUP PATH...]
        [-chmod [-R] <MODE[,MODE]... | OCTALMODE> PATH...]
        [-chown [-R] [OWNER][:[GROUP]] PATH...]
        [-copyFromLocal [-f] [-p] <localsrc> ... <dst>]
        [-copyToLocal [-p] [-ignoreCrc] [-crc] <src> ... <localdst>]
        [-count [-q] <path> ...]
        [-cp [-f] [-p] <src> ... <dst>]
        [-createSnapshot <snapshotDir> [<snapshotName>]]
        [-deleteSnapshot <snapshotDir> <snapshotName>]
        [-df [-h] [<path> ...]]
        [-du [-s] [-h] <path> ...]
        [-expunge]
        [-get [-p] [-ignoreCrc] [-crc] <src> ... <localdst>]
        [-getfacl [-R] <path>]
        [-getmerge [-nl] <src> <localdst>]
        [-help [cmd ...]]
        [-ls [-d] [-h] [-R] [<path> ...]]
        [-mkdir [-p] <path> ...]
        [-moveFromLocal <localsrc> ... <dst>]
        [-moveToLocal <src> <localdst>]
        [-mv <src> ... <dst>]
        [-put [-f] [-p] <localsrc> ... <dst>]
        [-renameSnapshot <snapshotDir> <oldName> <newName>]
        [-rm [-f] [-r|-R] [-skipTrash] <src> ...]
        [-rmdir [--ignore-fail-on-non-empty] <dir> ...]
        [-setfacl [-R] [{-b|-k} {-m|-x <acl_spec>} <path>]|[--set <acl_spec> <path>]]
        [-setrep [-R] [-w] <rep> <path> ...]
        [-stat [format] <path> ...]
        [-tail [-f] <file>]
        [-test -[defsz] <path>]
        [-text [-ignoreCrc] <src> ...]
        [-touchz <path> ...]
        [-usage [cmd ...]]

      参数介绍:
        -help
          功能:输出这个命令参数手册
        -ls
          功能:显示目录信息
          示例: hadoop fs -ls hdfs://hadoop-server01:9000/
          备注:这些参数中,所有的hdfs路径都可以简写
          -->hadoop fs -ls / 等同于上一条命令的效果
        -mkdir
          功能:在hdfs上创建目录
          示例:hadoop fs -mkdir -p /aaa/bbb/cc/dd
        -moveFromLocal
          功能:从本地剪切粘贴到hdfs
          示例:hadoop fs - moveFromLocal /home/hadoop/a.txt /aaa/bbb/cc/dd
        -moveToLocal
          功能:从hdfs剪切粘贴到本地
          示例:hadoop fs - moveToLocal /aaa/bbb/cc/dd /home/hadoop/a.txt
        -appendToFile
          功能:追加一个文件到已经存在的文件末尾
          示例:hadoop fs -appendToFile ./hello.txt hdfs://hadoop-server01:9000/hello.txt
          可以简写为:
          Hadoop fs -appendToFile ./hello.txt /hello.txt
        -cat
          功能:显示文件内容
          示例:hadoop fs -cat /hello.txt
        -tail
          功能:显示一个文件的末尾
          示例:hadoop fs -tail /weblog/access_log.1
        -text
          功能:以字符形式打印一个文件的内容
          示例:hadoop fs -text /weblog/access_log.1
        -chgrp
        -chmod
        -chown
          功能:linux文件系统中的用法一样,对文件所属权限
          示例:
            adoop fs -chmod 666 /hello.txt
            hadoop fs -chown someuser:somegrp /hello.txt
        -copyFromLocal
          功能:从本地文件系统中拷贝文件到hdfs路径去
          示例:hadoop fs -copyFromLocal ./jdk.tar.gz /aaa/
        -copyToLocal
          功能:从hdfs拷贝到本地
          示例:hadoop fs -copyToLocal /aaa/jdk.tar.gz
        -cp
          功能:从hdfs的一个路径拷贝hdfs的另一个路径
          示例: hadoop fs -cp /aaa/jdk.tar.gz /bbb/jdk.tar.gz.2
        -mv
          功能:在hdfs目录中移动文件
          示例: hadoop fs -mv /aaa/jdk.tar.gz /
        -get
          功能:等同于copyToLocal,就是从hdfs下载文件到本地
          示例:hadoop fs -get /aaa/jdk.tar.gz
        -getmerge
          功能:合并下载多个文件
          示例:比如hdfs的目录 /aaa/下有多个文件:log.1, log.2,log.3,...
          hadoop fs -getmerge /aaa/log.* ./log.sum
        -put
          功能:等同于copyFromLocal
          示例:hadoop fs -put /aaa/jdk.tar.gz /bbb/jdk.tar.gz.2
        -rm
          功能:删除文件或文件夹
          示例:hadoop fs -rm -r /aaa/bbb/
        -rmdir
          功能:删除空目录
          示例:hadoop fs -rmdir /aaa/bbb/ccc
        -df
          功能:统计文件系统的可用空间信息
          示例:hadoop fs -df -h /
        -du
          功能:统计文件夹的大小信息
          示例:
            hadoop fs -du -s -h /aaa/*
        -count
          功能:统计一个指定目录下的文件节点数量
          示例:hadoop fs -count /aaa/
        -setrep
          功能:设置hdfs中文件的副本数量
          示例:hadoop fs -setrep 3 /aaa/jdk.tar.gz
          <这里设置的副本数只是记录在namenode的元数据中,是否真的会有这么多副本,还得看datanode的数量>


    3、概述
      1. HDFS集群分为两大角色:NameNode、DataNode
      2. NameNode负责管理整个文件系统的元数据
      3. DataNode 负责管理用户的文件数据块
      4. 文件会按照固定的大小(blocksize)切成若干块后分布式存储在若干台datanode上
      5. 每一个文件块可以有多个副本,并存放在不同的datanode上
      6. Datanode会定期向Namenode汇报自身所保存的文件block信息,而namenode则会负责保持文件的副本数量
      7. HDFS的内部工作机制对客户端保持透明,客户端请求访问HDFS都是通过向namenode申请来进行

    4、HDFS写数据流程
      客户端要向HDFS写数据,首先要跟namenode通信以确认可以写文件并获得接收文件block的datanode,
      然后,客户端按顺序将文件逐个block传递给相应datanode,并由接收到block的datanode负责向
      其他datanode复制block的副本

      详细步骤解析:
        1、根namenode通信请求上传文件,namenode检查目标文件是否已存在,父目录是否存在
        2、namenode返回是否可以上传
        3、client请求第一个 block该传输到哪些datanode服务器上
        4、namenode返回3个datanode服务器ABC
        5、client请求3台dn中的一台A上传数据(本质上是一个RPC调用,建立pipeline),A收到请求会继续调用B,然后B调用C,将真个pipeline建立完成,逐级返回客户端
        6、client开始往A上传第一个block(先从磁盘读取数据放到一个本地内存缓存),以packet为单位,A收到一个packet就会传给B,B传给C;A每传一个packet会放入一个应答队列等待应答
        7、当一个block传输完成之后,client再次请求namenode上传第二个block的服务器。

    5、HDFS读数据流程
      客户端将要读取的文件路径发送给namenode,namenode获取文件的元信息(主要是block的存放位置信息)
      返回给客户端,客户端根据返回的信息找到相应datanode逐个获取文件的block并在客户端
      本地进行数据追加合并从而获得整个文件

      详细步骤解析
        1、跟namenode通信查询元数据,找到文件块所在的datanode服务器
        2、挑选一台datanode(就近原则,然后随机)服务器,请求建立socket流
        3、datanode开始发送数据(从磁盘里面读取数据放入流,以packet为单位来做校验)
        4、客户端以packet为单位接收,现在本地缓存,然后写入目标文件


    6、Namenode的工作机制
      1、NAMENODE职责
        负责客户端请求的响应
        元数据的管理(查询,修改)

      2、元数据管理
        namenode对数据的管理采用了三种存储形式:
        内存元数据(NameSystem)
        磁盘元数据镜像文件
        数据操作日志文件(可通过日志运算出元数据)

      3、元数据存储机制
        A、内存中有一份完整的元数据(内存meta data)
        B、磁盘有一个“准完整”的元数据镜像(fsimage)文件(在namenode的工作目录中)
        C、用于衔接内存metadata和持久化元数据镜像fsimage之间的操作日志(edits文件)注:当客户端对hdfs中的文件进行新增或者修改操作,操作记录首先被记入edits日志文件中,当客户端操作成功后,相应的元数据会更新到内存meta.data中


      4、元数据的checkpoint
        每隔一段时间,会由secondary namenode将namenode上积累的所有edits和一个最新的fsimage下载到本地,
        并加载到内存进行merge(这个过程称为checkpoint)

        checkpoint操作的触发条件配置参数
          dfs.namenode.checkpoint.check.period=60 #检查触发条件是否满足的频率,60秒
          dfs.namenode.checkpoint.dir=file://${hadoop.tmp.dir}/dfs/namesecondary
          #以上两个参数做checkpoint操作时,secondary namenode的本地工作目录
          dfs.namenode.checkpoint.edits.dir=${dfs.namenode.checkpoint.dir}

          dfs.namenode.checkpoint.max-retries=3 #最大重试次数
          dfs.namenode.checkpoint.period=3600 #两次checkpoint之间的时间间隔3600秒
          dfs.namenode.checkpoint.txns=1000000 #两次checkpoint之间最大的操作记录

      checkpoint的附带作用
        namenode和secondary namenode的工作目录存储结构完全相同,所以,当namenode故障退出需要
        重新恢复时,可以从secondary namenode的工作目录中将fsimage拷贝到namenode的工作目录,
        以恢复namenode的元数据

    7、DataNode的工作机制
      1、Datanode工作职责:
        存储管理用户的文件块数据
        定期向namenode汇报自身所持有的block信息(通过心跳信息上报)
        (这点很重要,因为,当集群中发生某些block副本失效时,集群如何恢复block初始副本数量的问题)


      2、Datanode掉线判断时限参数
        datanode进程死亡或者网络故障造成datanode无法与namenode通信,namenode不会立即把该节点判定为死亡,
        要经过一段时间,这段时间暂称作超时时长。HDFS默认的超时时长为10分钟+30秒。如果定义超时时间为timeout
        ,则超时时长的计算公式为:
        timeout = 2 * heartbeat.recheck.interval + 10 * dfs.heartbeat.interval。

    8、HDFS的java操作
        hdfs在生产应用中主要是客户端的开发,其核心步骤是从hdfs提供的api中构造一个HDFS的访问客户端对象,
      然后通过该客户端对象操作(增删改查)HDFS上的文件

      window下开发的说明
      建议在linux下进行hadoop应用的开发,不会存在兼容性问题。如在window上做客户端应用开发,需要设置以下环境:
        A、在windows的某个目录下解压一个hadoop的安装包
        B、将安装包下的lib和bin目录用对应windows版本平台编译的本地库替换
        C、在window系统中配置HADOOP_HOME指向你解压的安装包
        D、在windows系统的path变量中加入hadoop的bin目录


      8.1 获取api中的客户对象
        如果我们的代码中没有指定fs.defaultFS,并且工程classpath下也没有给定相应的配置,conf中的默认值
        就来自于hadoop的jar包中的core-default.xml,默认值为: file:///,则获取的将不是
        一个DistributedFileSystem的实例,而是一个本地文件系统的客户端对象

      8.2 HDFS客户端操作数据
        文件的增删改查



  • 相关阅读:
    观察者模式
    如何通过反射创建对象?
    java8新特性
    idea 常用快捷键--标蓝
    java多线程基础篇-01
    zookeeper单机版及操作
    redis和jedis常用api
    Mac连接服务器
    redis基本介绍及安装01
    docker 安装mobsf及部分命令01
  • 原文地址:https://www.cnblogs.com/atomicbomb/p/9904578.html
Copyright © 2011-2022 走看看