zoukankan      html  css  js  c++  java
  • [置顶] HDFS文件内容追加(Append)

    填写您的邮件地址,订阅我们的精彩内容:

    HDFS设计之处并不支持给文件追加内容,这样的设计是有其背景的(如果想了解更多关于HDFS的append的曲折实现,可以参考《File Appends in HDFS》:http://blog.cloudera.com/blog/2009/07/file-appends-in-hdfs/),但从HDFS2.x开始支持给文件追加内容,可以参见https://issues.apache.org/jira/browse/HADOOP-8230。可以再看看http://www.quora.com/HDFS/Is-HDFS-an-append-only-file-system-Then-how-do-people-modify-the-files-stored-on-HDFS。正如HADOOP-8230所述,只需要将hdfs-site.xml中的以下属性修改为true就行。

    <property>
        <name>dfs.support.append</name>
        <value>true</value>
    </property>
    

    目前如何在命令行里面给HDFS文件中追加内容我还没找到相应的方法。但是,我们可以通过Hadoop提供的API实现文件内容追加,如何实现?这里我写了一个简单的测试程序:

    package com.wyp;
    
    import org.apache.hadoop.conf.Configuration;
    import org.apache.hadoop.fs.FileSystem;
    import org.apache.hadoop.fs.Path;
    import org.apache.hadoop.io.IOUtils;
    
    import java.io.*;
    import java.net.URI;
    
    /**
     * blog: http://www.iteblog.com/
     * Date: 14-1-2
     * Time: 下午6:09
     */
    public class AppendContent {
        public static void main(String[] args) {
            String hdfs_path = "hdfs://mycluster/home/wyp/wyp.txt";//文件路径
            Configuration conf = new Configuration();
            conf.setBoolean("dfs.support.append", true);
    
            String inpath = "/home/wyp/append.txt";
            FileSystem fs = null;
            try {
                fs = FileSystem.get(URI.create(hdfs_path), conf);
                //要追加的文件流,inpath为文件
                InputStream in = new 
                      BufferedInputStream(new FileInputStream(inpath));
                OutputStream out = fs.append(new Path(hdfs_path));
                IOUtils.copyBytes(in, out, 4096, true);
            } catch (IOException e) {
                e.printStackTrace();
            }
        }
    }
    

    将上面的代码打包成jar(这里我取名为hdfs.jar)文件,然后上传到机器中,比如我上传到我的home目录,在程序运行前,我们来看看HDFS中wyp.txt文件中的内容有什么

    [wyp@l-datalogm1.data.cn1 ~]$ /home/q/hadoop-2.2.0/bin/hadoop fs   
                                               -cat /home/wyp/wyp.txt
    123456
    [wyp@l-datalogm1.data.cn1 ~]$
    

    好,我们再来看看/home/wyp/append.txt文件中的内容:

    [wyp@l-datalogm1.data.cn1 ~]$ vim append.txt
    wyp  append test
    

    看完代码中所涉及到的两个文件之后,我们再运行hdfs.jar

    [wyp@l-datalogm1.data.cn1 ~]$ /home/q/hadoop-2.2.0/bin/hadoop jar 
                                           hdfs.jar com.wyp.AppendContent
    

    运行完之后,看看wyp.txt内容

    [wyp@l-datalogm1.data.cn1 ~]$ /home/q/hadoop-2.2.0/bin/hadoop fs 
                                             -cat /home/wyp/wyp.txt
    123456
    wyp  append test
    

    好了,wyp.txt文件已经追加了append.txt文件中的内容了。

    本博客文章除特别声明,全部都是原创!

    尊重原创,转载请注明: 转载自过往记忆(http://www.iteblog.com/)
    本文链接地址: 《HDFS文件内容追加(Append)》(http://www.iteblog.com/archives/881)
    E-mail:wyphao.2007@163.com    QQ:397090770
  • 相关阅读:
    python笔记26(正则表达式、re模块)
    python笔记24(回顾、复习)
    python笔记25(正则表达式课程一)
    python笔记23(面向对象课程五)
    python(leetcode)-1.两数之和
    python(leetcode)-283移动零
    python(leetcode)-66加一问题
    python(leetcode)-350两个数组的交集
    python(leetcode)-136只出现一次的数字
    python数据结构-数组/列表/栈/队列及实现
  • 原文地址:https://www.cnblogs.com/riasky/p/3507325.html
Copyright © 2011-2022 走看看