zoukankan      html  css  js  c++  java
  • Flume与Kafka集成

    一、Flume介绍

      Flume是一个分布式、可靠、和高可用的海量日志聚合的系统,支持在系统中定制各类数据发送方,用于收集数据;同时,Flume提供对数据进行简单处理,并写到各种数据接受方(可定制)的能力。

    设计目标:

    • 可靠性当节点出现故障时,日志能够被传送到其他节点上而不会丢失。Flume提供了三种级别的可靠性保障,从强到弱依次分别为:end-to-end(收到数据agent首先将event写到磁盘上,当数据传送成功后,再删除;如果数据发送失败,可以重新发送。),Store on failure(这也是scribe采用的策略,当数据接收方crash时,将数据写到本地,待恢复后,继续发送),Best effort(数据发送到接收方后,不会进行确认)。
    • 可扩展性Flume采用了三层架构,分别为agent,collector和storage,每一层均可以水平扩展。其中,所有agent和collector由master统一管理,这使得系统容易监控和维护,且master允许有多个(使用ZooKeeper进行管理和负载均衡),这就避免了单点故障问题。
    • 可管理性所有agent和colletor由master统一管理,这使得系统便于维护。多master情况,Flume利用ZooKeeper和gossip,保证动态配置数据的一致性。用户可以在master上查看各个数据源或者数据流执行情况,且可以对各个数据源配置和动态加载。Flume提供了web 和shell script command两种形式对数据流进行管理。
    • 功能可扩展性用户可以根据需要添加自己的agent,collector或者storage。此外,Flume自带了很多组件,包括各种agent(file, syslog等),collector和storage(file,HDFS等)。

    一般实时系统,所选用组件如下:

    数据采集 :负责从各节点上实时采集数据,选用cloudera的flume来实现 
    数据接入 :由于采集数据的速度和数据处理的速度不一定同步,因此添加一个消息中间件来作为缓冲,选用apache的kafka 
    流式计算 :对采集到的数据进行实时分析,选用apache的storm 
    数据输出 :对分析后的结果持久化,暂定用mysql ,另一方面是模块化之后,假如当Storm挂掉了之后,数据采集和数据接入还是继续在跑着,数据不会丢失,storm起来之后可以继续进行流式计算; 

    二、Flume 的 一些核心概念

    其它参数配置请参见:http://itindex.net/detail/56260-flume-kafka-hdfs

    http://www.jianshu.com/p/f0a08bd4f975

    三、Flume的整体构成图

    注意:(1)源将事件写到一个多或者多个通道中;(2)接收器只从一个通道接收事件;(3)代理可能会有多个源、通道与接收器。

    四、常用配置模式

    常用配置模式一:扫描指定文件

    agent.sources.s1.type=exec
    agent.sources.s1.command=tail -F /Users/it-od-m/Downloads/abc.log
    agent.sources.s1.channels=c1
    agent.channels.c1.type=memory
    agent.channels.c1.capacity=10000
    agent.channels.c1.transactionCapacity=100
    
    #设置Kafka接收器
    agent.sinks.k1.type= org.apache.flume.sink.kafka.KafkaSink
    #设置Kafka的broker地址和端口号
    agent.sinks.k1.brokerList=127.0.0.1:9092
    #设置Kafka的Topic
    agent.sinks.k1.topic=testKJ1
    #设置序列化方式
    agent.sinks.k1.serializer.class=kafka.serializer.StringEncoder
    
    agent.sinks.k1.channel=c1
    

     常用配置模式二

    Agent名称定义为agent.   
    Source:可以理解为输入端,定义名称为s1  
    channel:传输频道,定义为c1,设置为内存模式  
    sinks:可以理解为输出端,定义为sk1,  
    
    agent.sources = s1    
    agent.channels = c1  
    agent.sinks = sk1  
    
    #设置Source的内省为netcat 端口为5678,使用的channel为c1  
    agent.sources.s1.type = netcat  
    agent.sources.s1.bind = localhost  
    agent.sources.s1.port = 3456  
    agent.sources.s1.channels = c1  
    
    #设置Sink为logger模式,使用的channel为c1  
    agent.sinks.sk1.type = logger  
    agent.sinks.sk1.channel = c1  
    #设置channel信息  
    agent.channels.c1.type = memory #内存模式  
    agent.channels.c1.capacity = 1000     
    agent.channels.c1.transactionCapacity = 100 #传输参数设置。
    

     常用配置模式三:扫描目录新增文件

    agent.sources = s1  
    agent.channels = c1  
    agent.sinks = sk1  
    
    #设置spooldir  
    agent.sources.s1.type = spooldir  
    agent.sources.s1.spoolDir = /Users/it-od-m/logs  
    agent.sources.s1.fileHeader = true  
    
    agent.sources.s1.channels = c1  
    agent.sinks.sk1.type = logger  
    agent.sinks.sk1.channel = c1  
    
    #In Memory !!!  
    agent.channels.c1.type = memory  
    agent.channels.c1.capacity = 10004  
    agent.channels.c1.transactionCapacity = 100
    

     与Kafka结合时,通常采用第一种模式。

     配置好参数以后,使用如下命令启动Flume:

    ./bin/flume-ng agent -n agent -c conf -f conf/hw.conf -Dflume.root.logger=INFO,console
    

     最后一行显示Component type:SINK,name:k1 started表示启动成功.

    说明:在启动Flume之前,Zookeeper和Kafka要先启动成功,不然启动Flume会报连不上Kafka的错误。

    原文参见:http://www.jianshu.com/p/f0a08bd4f975

  • 相关阅读:
    OC与AS3的观察者模式比较以及外部回调
    判断矩形重叠
    2010谷歌校园招聘笔试题
    2011谷歌校园招聘笔试题
    2012Google校园招聘笔试题
    2013谷歌校园招聘笔试题2
    2013谷歌校园招聘笔试题
    2012搜狗校园招聘笔试题
    2013搜狗校园招聘笔试题
    搜狐面试题
  • 原文地址:https://www.cnblogs.com/moonandstar08/p/6052650.html
Copyright © 2011-2022 走看看