zoukankan      html  css  js  c++  java
  • HDFS 的 API 操作

    一、环境准备

    1. 配置 windows 的环境变量 

      在此处下载 windows 的依赖项 https://gitee.com/parasol_ry/hadoop/tree/master/hadoop-3.1.0/bin

      配置环境变量:

      

       

      在 IDEA 中创建一个 Maven 工程 HdfsClientDemo,并导入相应的依赖坐标+日志添加

    <dependencies>
            <dependency>
                <groupId>org.apache.hadoop</groupId>
                <artifactId>hadoop-client</artifactId>
                <version>3.1.3</version>
            </dependency>
            <dependency>
                <groupId>junit</groupId>
                <artifactId>junit</artifactId>
                <version>4.12</version>
            </dependency>
            <dependency>
                <groupId>org.slf4j</groupId>
                <artifactId>slf4j-log4j12</artifactId>
                <version>1.7.30</version>
            </dependency>
    </dependencies>
    

      在项目的 src/main/resources 目录下,新建一个文件,命名为“log4j.properties”,在文件 中填入

    log4j.rootLogger=INFO, stdout 
    log4j.appender.stdout=org.apache.log4j.ConsoleAppender 
    log4j.appender.stdout.layout=org.apache.log4j.PatternLayout 
    log4j.appender.stdout.layout.ConversionPattern=%d %p [%c] - %m%n 
    log4j.appender.logfile=org.apache.log4j.FileAppender 
    log4j.appender.logfile.File=target/spring.log 
    log4j.appender.logfile.layout=org.apache.log4j.PatternLayout 
    log4j.appender.logfile.layout.ConversionPattern=%d %p [%c] - %m%n
    

      HDFS 的 API 案例实操 

    package com.learn.hdfs;
    
    
    import org.apache.hadoop.conf.Configuration;
    import org.apache.hadoop.fs.*;
    import org.junit.After;
    import org.junit.Before;
    import org.junit.Test;
    
    import java.io.IOException;
    import java.net.URI;
    import java.net.URISyntaxException;
    import java.util.Arrays;
    
    public class HdfsClient {
    
        //升级为全局变量是 ctrl + alt + F
        // ctrl + p 查看参数有哪些
        private FileSystem fs;
    
        @Before
        public void init() throws URISyntaxException, IOException, InterruptedException {
            //连接的nn地址
            URI uri = new URI("hdfs://node01:8020");
    
            //配置一个文件
            Configuration configuration = new Configuration();
            configuration.set("dfs.replication", "2");
    
            //用户
            String user = "root";
    
            //获取客户端对象
            fs = FileSystem.get(uri, configuration, user);
    
    
        }
    
        @After
        public void close() throws IOException {
            //关闭资源
            fs.close();
        }
    
        //创建目录
        @Test
        public void testmkdir() throws URISyntaxException, IOException, InterruptedException {
            //创建一个文件夹
            fs.mkdirs(new Path("/xiyou/huaguoshan3"));
        }
    
        /*
         *参数优先级
         * hdfs-default.xml => hdfs-site.xml => 在项目资源目录下的配置文件优先级 => 代码中的优先级配置
         * 优先级由 低 到 高
         * */
    
        //上传
        @Test
        public void testPut() throws IOException {
            //参数解读:
            // 1. 删除原始数据 2.是否允许覆盖 3.原始数据路径 4.目的地路径
            fs.copyFromLocalFile(false, true, new Path("D:\hadoop\sun.txt"), new Path("/xiyou/huaguoshan"));
        }
    
    
        //文件下载
        @Test
        public void testGet() throws IOException {
            //参数解读
            // 1. 源文件是否删除 2.原文件的路径 3.目标地址路径 4.是否开启校验
            fs.copyToLocalFile(false, new Path("/xiyou/huaguoshan"), new Path("D:\hadoop"), true);
        }
    
        //删除
        @Test
        public void testRm() throws IOException {
            //参数解读
            // 1. 要删除的路径 2. 是否递归删除
            // 删除文件
            fs.delete(new Path("/jdk-8u291-linux-x64.tar.gz"), false);
    
            //删除目录
            fs.delete(new Path("/xiyou/huaguoshan"), true);
        }
    
        //文件的更名和移动
        @Test
        public void testMv() throws IOException {
            //参数解读
            // 1.原文件的路径 2.目标文件的路径
            //对文件的修改
            fs.rename(new Path("/input/word.txt"), new Path("/input/ss.txt"));
        }
    
        //获取文件详细信息
        @Test
        public void fileDetail() throws IOException {
            //参数解读
            // 1.文件的路径 2.是否递归遍历
            //获取所有文件信息                 迭代器
            RemoteIterator<LocatedFileStatus> listFiles = fs.listFiles(new Path("/"), true);
    
            //遍历文件
            while (listFiles.hasNext()) {
                LocatedFileStatus fileStatus = listFiles.next();
    
                System.out.println("=======" + fileStatus.getPath() + "=======");
                System.out.println(fileStatus.getPermission());
                System.out.println(fileStatus.getOwner());
                System.out.println(fileStatus.getGroup());
                System.out.println(fileStatus.getLen());
                System.out.println(fileStatus.getModificationTime());
                System.out.println(fileStatus.getReplication());
                System.out.println(fileStatus.getBlockSize());
                System.out.println(fileStatus.getPath().getName());
    
    
                //获取块信息
                BlockLocation[] blockLocations = fileStatus.getBlockLocations();
                System.out.println(Arrays.toString(blockLocations));
            }
        }
    
        //判断是文件还是文件夹
        @Test
        public void testFile() throws IOException {
            FileStatus[] listStatus = fs.listStatus(new Path("/"));
    
            for (FileStatus status : listStatus) {
                if (status.isFile()) {
                    System.out.println("文件: " + status.getPath().getName());
                } else {
                    System.out.println("路径: " + status.getPath().getName());
                }
            }
        }
    }
    

      

      

    东北日出西边雨 道是无情却有情
  • 相关阅读:
    NullPointerException异常没有异常栈打印问题追踪
    Nginx服务器的安装和卸载
    线程池——ThreadPoolExecutor
    Nginx简介
    线程池框架简介
    同步工具——Phaser
    你不知道的搜索技巧?
    数据库并发处理
    索引-建立框架篇
    Leetcode 84 求直方图中矩形的最大面积
  • 原文地址:https://www.cnblogs.com/ccut-ry/p/14860555.html
Copyright © 2011-2022 走看看