zoukankan      html  css  js  c++  java
  • SqoopFlume、Flume、HDFS之间比较

    Sqoop

    Flume

    HDFS

    Sqoop用于从结构化数据源,例如,RDBMS导入数据

    Flume 用于移动批量流数据到HDFS

    HDFS使用 Hadoop 生态系统存储数据的分布式文件系统

    Sqoop具有连接器的体系结构。连接器知道如何连接到相应的数据源并获取数据

    Flume 有一个基于代理的架构。这里写入代码(这被称为“代理”),这需要处理取出数据

    HDFS具有分布式体系结构,数据被分布在多个数据节点

    HDFS 使用 Sqoop 将数据导出到目的地

    通过零个或更多个通道将数据流给HDFS

    HDFS是用于将数据存储到最终目的地

    Sqoop数据负载不事件驱动

    Flume 数据负载可通过事件驱动

    HDFS存储通过任何方式提供给它的数据

    为了从结构化数据源导入数据,人们必须只使用Sqoop,因为它的连接器知道如何与结构化数据源进行交互并从中获取数据

    为了加载流数据,如微博产生的推文。或者登录Web服务器的文件,Flume 应都可以使用。Flume 代理是专门为获取流数据而建立的。

    HDFS拥有自己的内置shell命令将数据存储。HDFS不能用于导入结构化或流数据

  • 相关阅读:
    第六章:面向对象(下)
    第四章:流程控制和数组
    第三章:数据类型和运算符
    第二章:理解面向对象
    数据库:表设计阶段
    第一章:java语言概述与开发环境
    HTML DOM
    补漏
    不错的资源哦
    阻止事件冒泡
  • 原文地址:https://www.cnblogs.com/huangjianping/p/8033041.html
Copyright © 2011-2022 走看看