zoukankan      html  css  js  c++  java
  • Hadoop 学习笔记(七)HDFS 客户端操作(下)

    上面我们学的API操作HDFS系统都是框架封装好的。那么如果我们想自己实现上述API的操作该怎么实现呢?我们可以采用IO流的方式实现数据的上传和下载。

    1、上传本地文件到 HDFS ;

    public static Configuration conf = new Configuration();
    
        // 1、 本地文件上传 HDFS 系统
        @Test
        public void putIOTest() throws IOException, InterruptedException, URISyntaxException {
            // 1、获取 HDFS 客户端对象
            FileSystem fs = FileSystem.get(new URI("hdfs://hadoop103:9000"), conf, "hui");
            // 2、获取 I/O 流
            FileInputStream fis = new FileInputStream(new File("E:/workspaced/data/zhouzhiruo.txt"));
            // 3、获取输出流
            FSDataOutputStream fos = fs.create(new Path("/yttlj/gmd/wyx.txt"));
            // 4、流的对拷
            IOUtils.copyBytes(fis, fos, conf);
            // 5、关闭资源
            IOUtils.closeStream(fos);
            IOUtils.closeStream(fis);
            fs.close();
            System.out.println(" ok ");
        }

    2、从 HDFS 文件系统获取数据到本地

    @Test
        public void getIOTest() throws IOException, InterruptedException, URISyntaxException {
            // 1、获取 HDFS 客户端对象
            FileSystem fs = FileSystem.get(new URI("hdfs://hadoop103:9000"), conf, "hui");
            // 2、获取 I/O 流
            FSDataInputStream fis = fs.open(new Path("/yttlj/gmd/wyx.txt"));
            // 3、获取输出流
            FileOutputStream fos = new FileOutputStream(new File("E:/workspaced/data/wyx_fw.txt"));
    
            // 4、流的对拷
            IOUtils.copyBytes(fis, fos, conf);
            // 5、关闭资源
            IOUtils.closeStream(fos);
            IOUtils.closeStream(fis);
            fs.close();
            System.out.println(" ok ");
        }

    3、从 HDFS 文件系统定位读取数据(只读取 128 M)

    @Test
        public void getIO1blockTest() throws IOException, InterruptedException, URISyntaxException {
            // 1、获取 HDFS 客户端对象
            FileSystem fs = FileSystem.get(new URI("hdfs://hadoop103:9000"), conf, "hui");
            // 2、获取 I/O 流
            FSDataInputStream fis = fs.open(new Path("/hadoop-2.7.2.tar.gz"));
            // 3、获取输出流
            FileOutputStream fos = new FileOutputStream(new File("E:/workspaced/data/hadoop-2.7.2.tar.gz.part1"));
    
            // 4、使用最传统方式读取 128 M 数据
            byte[] buf = new byte[1014];
            for (int i = 0; i < 1024 * 128; i++) {
                fis.read(buf);
                fos.write(buf);
            }
            // 5、关闭资源
            IOUtils.closeStream(fos);
            IOUtils.closeStream(fis);
            fs.close();
            System.out.println(" ok ");
        }

    4、从 HDFS 文件系统定位读取数据(从128 M 开始读取)

    @Test
        public void getIO2blockTest() throws IOException, InterruptedException, URISyntaxException {
            // 1、获取 HDFS 客户端对象
            FileSystem fs = FileSystem.get(new URI("hdfs://hadoop103:9000"), conf, "hui");
            // 2、获取 I/O 流
            FSDataInputStream fis = fs.open(new Path("/hadoop-2.7.2.tar.gz"));
            // ***** 设置指定读取起点 ******
            fis.seek(1024 * 1024 * 128);
            // 3、获取输出流
            FileOutputStream fos = new FileOutputStream(new File("E:/workspaced/data/hadoop-2.7.2.tar.gz.part2"));
    
            // 4、流数据 copy
            IOUtils.copyBytes(fis, fos, conf);
            // 5、关闭资源
            IOUtils.closeStream(fos);
            IOUtils.closeStream(fis);
            fs.close();
            System.out.println(" ok ");
        }
  • 相关阅读:
    每日一剂 14-6-6
    每日一剂 14-6-5
    每日一剂 14-6-4
    每日一剂 14-5-30
    Maven清理 .lastUpdated文件
    Docker 将项目做成镜像部署在docker中
    Docker 镜像拷贝到 正式环境运行
    Docker 安装 Tomcat
    Docker 安装 ActiveMq
    Docker 安装 nginx
  • 原文地址:https://www.cnblogs.com/wdh01/p/13805965.html
Copyright © 2011-2022 走看看