zoukankan      html  css  js  c++  java
  • Kafka简介

    Kafka是Linkedin于2010年12月份开源的消息系统

    一种分布式的、基于发布/订阅的消息系统

    特点:
    – 消息持久化:通过O(1)的磁盘数据结构提供数据的持久化
    – 高吞吐量:每秒百万级的消息读写
    – 分布式:扩展能力强
    – 多客户端支持:java、php、python、c++……
    – 实时性:生产者生产的message立即被消费者可见


    基本组件

    • Broker:每一台机器叫一个Broker
    • Producer:日志消息生产者,用来写数据
    • Consumer:消息的消费者,用来读数据
    • Topic:不同消费者去指定的Topic中读,不同的生产者往不同的Topic中写
    • Partition:新版本才支持Partition,在Topic基础上做了进一步区分分层

    • Kafka内部是分布式的、一个Kafka集群通常包括多个Broker
    • 负载均衡:将Topic分成多个分区,每个Broker存储一个或多个Partition
    • 多个 Producer 和 Consumer 同时生产和消费消息

    Topic
    • 一个Topic是一个用于发布消息的分类或feed名,kafka集群使用分区的日志,每个分区都是有顺序且不变的消息序列。
    • commit 的 log 可以不断追加。消息在每个分区中都分配了一个叫 offset 的 id 序列来唯一识别分区中的消息。

     举例:若创建topic1和topic2两个topic,且分别有13个和19个分区,则整个集群上会相应会生成共32个文件夹

    • 无论发布的消息是否被消费,kafka都会持久化一定时间(可配置)。
    • 在每个消费者都持久化这个offset在日志中。通常消费者读消息时会使offset值线性的增长,但实际上其位置是由消费者控制,它可以按任意顺序来消费消息。比如复位到老的offset来重新处理。
    • 每个分区代表一个并行单元。

    Message
    • message(消息)是通信的基本单位,每个producer可以向一个topic(主题)发布一些消息。如果consumer订阅了这个主题,那么新发布的消息就会广播给这些consumer。
    • message format:
    – message length : 4 bytes (value: 1+4+n)
    – "magic" value : 1 byte
    – crc: 4 bytes
    – payload : n bytes

    Producer
    • 生产者可以发布数据到它指定的topic中,并可以指定在topic里哪些消息分配到哪些分区(比如简单的轮流分发各个分区或通过指定分区语义分配key到对应分区)
    • 生产者直接把消息发送给对应分区的broker,而不需要任何路由层。
    • 批处理发送,当message积累到一定数量或等待一定时间后进行发送。

    Consumer
    • 一种更抽象的消费方式:消费组(consumer group)
    • 该方式包含了传统的queue和发布订阅方式
    – 首先消费者标记自己一个消费组名。消息将投递到每个消费组中的某一个消费者实例上。
    – 如果所有的消费者实例都有相同的消费组,这样就像传统的queue方式。
    – 如果所有的消费者实例都有不同的消费组,这样就像传统的发布订阅方式。
    – 消费组就好比是个逻辑的订阅者,每个订阅者由许多消费者实例构成(用于扩展或容错)。
    • 相对于传统的消息系统,kafka拥有更强壮的顺序保证。
    • 由于topic采用了分区,可在多Consumer进程操作时保证顺序性和负载均衡。

    持久化

    • Kafka存储布局简单:Topic的每个Partition对应一个逻辑日志(一个日志为相同大小的一组分段文件)
    • 每次生产者发布消息到一个分区,代理就将消息追加到最后一个段文件中。当发布的消息数量达到设定值或者经过一定的时间后,段文件真正flush磁盘中。写入完成后,消息公开给消费者。
    • 与传统的消息系统不同,Kafka系统中存储的消息没有明确的消息Id。
    • 消息通过日志中的逻辑偏移量来公开。

    传输效率
    • 生产者提交一批消息作为一个请求。消费者虽然利用api遍历消息是一个一个的,但背后也是一次请求获取一批数据,从而减少网络请求数量。
    • Kafka层采用无缓存设计,而是依赖于底层的文件系统页缓存。这有助于避免双重缓存,及即消息只缓存了一份在页缓存中。同时这在kafka重启后保持缓存warm也有额外的优势。因kafka根本不缓存消息在进程中,故gc开销也就很小
    • zero-copy:kafka为了减少字节拷贝,采用了大多数系统都会提供的sendfile系统调用

    传统方式

    Zero-Copy

    无状态的Broker
    • Kafka代理是无状态的:意味着消费者必须维护已消费的状态信息。这些信息由消费者自己维护,代理完全不管。这种设计非常微妙,它本身包含了创新
    – 从代理删除消息变得很棘手,因为代理并不知道消费者是否已经使用了该消息。Kafka创新性地解决了这个问题,它将一个简单的基于时间的SLA应用于保留策略。当消息在代理中超过一定时间后,将会被自动删除。
    – 这种创新设计有很大的好处,消费者可以故意倒回到老的偏移量再次消费数据。这违反了队列的常见约定,但被证明是许多消费者的基本特征。

    交付保证
    • Kafka默认采用at least once的消息投递策略。即在消费者端的处理顺序是获得消息->处理消息->保存位置。这可能导致一旦客户端挂掉,新的客户端接管时处理前面客户端已处理过的消息。
    • 三种保证策略:
    – At most once 消息可能会丢,但绝不会重复传输
    – At least one 消息绝不会丢,但可能会重复传输
    – Exactly once 每条消息肯定会被传输一次且仅传输一次

    副本管理
    • kafka将日志复制到指定多个服务器上。
    • 复本的单元是partition。在正常情况下,每个分区有一个leader和0到多个follower。
    • leader处理对应分区上所有的读写请求。分区可以多于broker数,leader也是分布式的。
    • follower的日志和leader的日志是相同的,follower被动的复制leader。如果leader挂了,其中一个follower会自动变成新的leader.

    • 和其他分布式系统一样,节点“活着”定义在于我们能否处理一些失败情况。kafka需要两个条件保证是“活着”
    – 节点在zookeeper注册的session还在且可维护(基于zookeeper心跳机制)
    – 如果是slave则能够紧随leader的更新不至于落得太远。
    • kafka采用in sync来代替“活着”
    – 如果follower挂掉或卡住或落得很远,则leader会移除同步列表中的in sync。至于落了多远才叫远由replica.lag.max.messages配置,而表示复本“卡住”由replica.lag.time.max.ms配置

    • 所谓一条消息是“提交”的,意味着所有in sync的复本也持久化到了他们的log中。这意味着消费者无需担心leader挂掉导致数据丢失。另一方面,生产者可以选择是否等待消息“提交”。
    • kafka动态的维护了一组in-sync(ISR)的复本,表示已追上了leader,只有处于该状态的成员组才是能被选择为leader。这些ISR组会在发生变化时被持久化到zookeeper中。通过ISR模型和f+1复本,可以让kafka的topic支持最多f个节点挂掉而不会导致提交的数据丢失。

    分布式协调
    • 由于kafka中一个topic中的不同分区只能被消费组中的一个消费者消费,就避免了多个消费者消费相同的分区时会导致额外的开销(如要协调哪个消费者消费哪个消息,还有锁及状态的开销)。kafka中消费进程只需要在代理和同组消费者有变化时时进行一次协调(这种协调不是经常性的,故可以忽略开销)。
    • kafka使用zookeeper做以下事情:
    – 探测broker和consumer的添加或移除
    – 当1发生时触发每个消费者进程的重新负载。
    – 维护消费关系和追踪消费者在分区消费的消息的offset。

    Zookeeper的使用
    • Broker Node Registry
    • /brokers/ids/[0...N] --> host:port(ephemeral node)
    – broker启动时在/brokers/ids下创建一个znode,把broker id写进去。
    – 因为broker把自己注册到zookeeper中实用的是瞬时节点,所以这个注册是动态的,如果broker宕机或者没有响应该节点就会被删除。
    • Broker Topic Registry
    • /brokers/topics/[topic]/[0...N] --> nPartions(ephemeral node)
    – 每个broker把自己存储和维护的partion信息注册到该路径下。

    • Consumers and Consumer Groups
    – consumers也把它们自己注册到zookeeper上,用以保持消费负载平衡和offset记录。
    – group id相同的多个consumer构成一个消费租,共同消费一个topic,同一个组的consumer会尽量均匀的消费,其中的一个consumer只会消费一个partion的数据。
    • Consumer Id Registry
    • /consumers/[group_id]/ids/[consumer_id] --> {"topic1": #streams, ..., "topicN": #streams} (ephemeral node)
    – 每个consumer在/consumers/[group_id]/ids下创建一个瞬时的唯一的consumer_id,用来描述当前该group下有哪些consumer是alive的,如果消费进程挂掉对应的consumer_id就会从该节点删除。

    • Consumer Offset Tracking
    • /consumers/[group_id]/offsets/[topic]/[partition_id] --> offset_counter_value((persistent node)
    – consumer把每个partition的消费offset记录保存在该节点下。
    • Partition Owner registry
    • /consumers/[group_id]/owners/[topic]/[broker_id-partition_id] --> consumer_node_id(ephemeral node)
    – 该节点维护着partion与consumer之间的对应关系。

    Kafka对比其他消息服务
    • LinkedIn团队做了个实验研究,对比Kafka与Apache ActiveMQV5.4和RabbitMQV2.4的性能。他们使用ActiveMQ默认的消息持久化库Kahadb。LinkedIn在两台Linux机器上运行他们的实验,每台机器的配置为8核2GHz、16GB内存,6个磁盘使用RAID10。两台机器通过1GB网络连接。一台机器作为代理,另一台作为生产者或者消费者。


    • 生产者测试:
    – 对每个系统,运行一个生产者,总共发布1000万条消息,每条消息200字节。Kafka生产者以1和50批量方式发送消息。ActiveMQ和RabbitMQ似乎没有简单的办法来批量发送消息,LinkedIn假定它的批量值为1。结果如下图所示:

    Kafka性能要好很多的主要原因包括:
    1. Kafka不等待代理的确认,以代理能处理的最快速度发送消息。
    2. Kafka有更高效的存储格式。平均而言,Kafka每条消息有9字节的开销,而ActiveMQ有144字节。其原因是JMS所需的沉重消息头,以及维护各种索引结构的开销。LinkedIn注意到ActiveMQ一个最忙的线程大部分时间都在存取B-Tree以维护消息元数据和状态。

    • 消费者测试:
    – 为了做消费者测试,LinkedIn使用一个消费者获取总共1000万条消息。LinkedIn让所有系统每次读取请求都预获取大约相同数量的数据,最多1000条消息或者200KB。对ActiveMQ和RabbitMQ,LinkedIn设置消费者确认模型为自动。结果如图所示。

    Kafka性能要好很多的主要原因包括:
    1. Kafka有更高效的存储格式,在Kafka中,从代理传输到消费者的字节更少。
    2. ActiveMQ和RabbitMQ两个容器中的代理必须维护每个消息的传输状态。LinkedIn团队注意到其中一个ActiveMQ线程在测试过程中,一直在将KahaDB页写入磁盘。与此相反,Kafka代理没有磁盘写入动作。最后,Kafka通过使用sendfileAPI降低了传输开销

    【实践】搭建基于Kafka消息队列系统

    • 下载压缩包:
    – ]# wgethttp://mirrors.hust.edu.cn/apache/kafka/0.10.2.1/kafka_2.11-0.10.2.1.tgz
    • 解压:
    – ]# tar xvzfkafka_2.11-0.10.2.1.tgz

    • 启动Zookeeper:
    – ]# ./bin/zookeeper-server-start.sh config/zookeeper.properties
    • 启动server:
    – ]# ./bin/kafka-server-start.sh config/server.properties
    • 创建topic:
    – ]# bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic test

    • 查看主题:
    – ]# bin/kafka-topics.sh --list --zookeeper localhost:2181
    • 查看主题详情:
    – ]# bin/kafka-topics.sh --describe --zookeeper localhost:2181 --topic test
    • 删除主题:
    – ]# bin/kafka-topics.sh --zookeeper localhost:2181 --delete --topic test
    – 注意:如果kafaka启动时加载的配置文件中server.properties没有配置delete.topic.enable=true,那么此时的删除并不是真正的删除,而是把topic标记为:marked for deletion
    – 此时你若想真正删除它,可以登录zookeeper客户端,进入终端后,删除相应节点

    • 单独创建Topic:
    – ]# bin/kafka-topics.sh --create --zookeeper 192.168.183.100:2181 --replication-factor 2 --partitions 1 --topic badou
    • Producer发消息:
    – ]# ./bin/kafka-console-producer.sh --broker-list master:9092 --topic badou
    • Consumer读消息:
    – ]# ./kafka-console-consumer.sh --zookeeper master:2181 --topic badou--from-beginning

    【实践】Flume & Kafka

    • 启动FLume
    – ]# ./bin/flume-ng agent --confconf--conf-file ./conf/flume.conf-name producer -Dflume.root.logger=DEBUG,console
    • 启动Zookeeper
    – 略
    • 启动KafkaServer
    – ]# ./bin/kafka-server-start.sh config/server.properties
    • 发送消息
    – ]# echo '八斗学院' | nc-u master 8285
    • 启动Consumer进行数据监控
    – ]# bin/kafka-console-consumer.sh --zookeeper localhost:2181 --topic test --from-beginning

      

  • 相关阅读:
    js&jquery避免报错的方法
    if-else用法
    js-form表单元素的自定义属性
    a标签
    jQuery知识集锦
    JDK动态代理
    hibernate之多对一单向关联
    STL算法设计理念
    计算机常识--win7 删除文件、拒绝訪问等等,所有提示权限不够 解决的方法
    大话设计模式C++实现-第8章-工厂方法模式
  • 原文地址:https://www.cnblogs.com/zhangqian27/p/11210378.html
Copyright © 2011-2022 走看看