zoukankan      html  css  js  c++  java
  • Kafka

    Kafka架构

    一个典型的Kafka体系架构包括若干Producer(可以是服务器日志,业务数据,页面前端产生的page view等等),若干broker(Kafka支持水平扩展,一般broker数量越多,集群吞吐率越高),若干Consumer (Group),以及一个Zookeeper集群。Kafka通过Zookeeper管理集群配置,选举leader,以及在consumer group发生变化时进行rebalance。Producer使用push(推)模式将消息发布到broker,Consumer使用pull(拉)模式从broker订阅并消费消息。

    它的架构包括以下组件:

    名称解释
    服务代理(Broker)

    消息中间件处理节点,

    一个Kafka节点就是一个broker,

    一个或者多个Broker可以组成一个Kafka集群

    话题(Topic)

    Kafka根据topic对消息进行归类,发布到Kafka集群的每条消息都需要指定一个topic。

    消息是字节的有效负载(Payload),话题是消息的分类名或种子(Feed)名。

    生产者(Producer) 消息生产者,向Broker发送消息的客户端
    消费者(Consumer) 消息消费者,从Broker读取消息的客户端
    ConsumerGroup

    每个Consumer属于一个特定的Consumer Group

    一条消息可以发送到多个不同的Consumer Group

    但是一个Consumer Group中只能有一个Consumer能够消费该消息

    Partition 物理上的概念,一个topic可以分为多个partition,每个partition内部是有序的

    Kafka存储策略

    在创建topic时可以在$KAFKA_HOME/config/server.properties中指定这个partition的数量,当然可以在topic创建之后去修改partition的数量。

    在发送一条消息时,可以指定这个消息的key,producer根据这个key和partition机制来判断这个消息发送到哪个partition

    partition机制可以通过指定producer的partition.class这一参数来指定,该class必须实现kafka.producer.Partitioner接口。

    1) kafka以topic来进行消息管理,每个topic包含多个partition,每个partition对应一个逻辑log,有多个segment组成。

    2)每个segment中存储多条消息,消息id由其逻辑位置决定,即从消息id可直接定位到消息的存储位置,避免id到位置的额外映射。

    3)每个part在内存中对应一个index,记录每个segment中的第一条消息偏移。

    4)发布者发到某个topic的消息会被均匀的分布到多个partition上(或根据用户指定的路由规则进行分布),broker收到发布消息往对应partition的最后一个segment上添加该消息,当某个segment上的消息条数达到配置值消息发布时间超过阈值时,segment上的消息会被flush到磁盘,只有flush到磁盘上的消息订阅者才能订阅到,segment达到一定的大小后将不会再往该segment写数据,broker会创建新的segment。(因为每条消息都被append到该partition中,是顺序写磁盘,因此效率非常高)

    partition

    假设这里只有一个Kafka集群,且这个集群只有一个Kafka broker,即只有一台物理机。在Kafka broker中配置($KAFKA_HOME/config/server.properties中)log.dirs=/tmp/kafka-logs,以此来设置Kafka消息文件存储目录,与此同时创建一个topic:topic_test,partition的数量为4($KAFKA_HOME/bin/kafka-topics.sh –create –zookeeper localhost:2181 –partitions 4 –topic topic_test –replication-factor 1)。此时可以在/tmp/kafka-logs目录中可以看到生成了4个目录:

    drwxr-xr-x 2 root root 4096 Apr 10 16:10 topic_test-0
    drwxr-xr-x 2 root root 4096 Apr 10 16:10 topic_test-1
    drwxr-xr-x 2 root root 4096 Apr 10 16:10 topic_test-2
    drwxr-xr-x 2 root root 4096 Apr 10 16:10 topic_test-3

    都是目录!!

    在Kafka文件存储中,同一个topic下有多个不同的partition,每个partiton为一个目录,partition的名称规则为:topic名称+有序序号,第一个序号从0开始计,最大的序号为partition数量减1,partition是实际物理上的概念,而topic是逻辑上的概念。

    segment

    partition细分为segment,如果就以partition为最小存储单位,可以想象当Kafka producer不断发送消息,必然会引起partition文件的无限扩张,这样对于消息文件的维护以及已经被消费的消息的清理带来严重的影响,所以这里以segment为单位又将partition细分。每个partition(目录)相当于一个巨型文件被平均分配到多个大小相等的segment(段)数据文件中(每个segment 文件中消息数量不一定相等)这种特性也方便old segment的删除,即方便已被消费的消息的清理,提高磁盘的利用率。每个partition只需要支持顺序读写就行。

    segment文件由两部分组成,分别为“.index”文件和“.log”文件,分别表示为segment索引文件和数据文件

    这两个文件的命令规则为:partition全局的第一个segment从0开始,后续每个segment文件名为上一个segment文件最后一条消息的offset值,数值大小为64位,20位数字字符长度,没有数字用0填充

    00000000000000000000.index
    00000000000000000000.log
    00000000000000170410.index
    00000000000000170410.log
    00000000000000239430.index
    00000000000000239430.log

    “.index”索引文件存储大量的元数据,“.log”数据文件存储大量的消息,索引文件中的元数据指向对应数据文件中message的物理偏移地址。

    其中以“.index”索引文件中的元数据[3, 348]为例,在“.log”数据文件表示第3个消息,即在全局partition中表示170410+3=170413个消息,该消息的物理偏移地址为348。

    如何从partition中通过offset查找message呢? 
    以上图为例,读取offset=170418的消息,首先查找segment文件,其中00000000000000000000.index为最开始的文件,第二个文件为00000000000000170410.index(起始偏移为170410+1=170411),而第三个文件为00000000000000239430.index(起始偏移为239430+1=239431),所以这个offset=170418就落到了第二个文件之中。其他后续文件可以依次类推,以其实偏移量命名并排列这些文件,然后根据二分查找法就可以快速定位到具体文件位置。其次根据00000000000000170410.index文件中的[8,1325]定位到00000000000000170410.log文件中的1325的位置进行读取。

    要是读取offset=170418的消息,从00000000000000170410.log文件中的1325的位置进行读取。
    那么怎么知道何时读完本条消息,否则就读到下一条消息的内容了? 需要联系到消息的物理结构了,消息都具有固定的物理结构,
    包括:
    offset(
    8 Bytes)、
    消息体的大小(4 Bytes)、
    crc32(4 Bytes)、
    magic(1 Byte)、
    attributes(1 Byte)、
    key length(4 Bytes)、
    key(K Bytes)、payload(N Bytes)等等字段,可以确定一条消息的大小,即读取到哪里截止。

    Kafka数据保留策略

    segment的文件生命周期由服务端配置参数(log.segment.bytes,log.roll.{ms,hours}等若干参数)决定。

    1)N天前的删除。

    2)保留最近的多少Size数据。

    Kafka broker(服务代理)

    Kafka broker是无状态的。这意味着消费者必须维护已消费的状态信息。这些信息由消费者自己维护,导致了从代理删除消息变得很棘手,因为代理并不知道消费者是否已经使用了该消息。

    Kafka创新性地解决了这个问题,它将一个简单的基于时间的SLA应用于保留策略。当消息在代理中超过一定时间后,将会被自动删除。这种创新设计有很大的好处,消费者可以故意倒回到老的偏移量再次消费数据。这违反了队列的常见约定,但被证明是许多消费者的基本特征。

    复制(Replication)

    replication的数量可以在$KAFKA_HOME/config/server.properties中配置(default.replication.refactor)。

    1)一个partition的复制个数(replication factor)包括这个partition的leader本身。

    2)所有对partition的读和写都通过leader。

    3)Followers通过pull获取leader上log(message和offset)

    4)如果一个follower挂掉、卡住或者同步太慢,leader会把这个follower从”in sync replicas“(ISR)列表中删除。

    5)当所有的”in sync replicas“的follower把一个消息写入到自己的log中时,这个消息才被认为是”committed“的。

    6)如果针对某个partition的所有复制节点都挂了,Kafka默认选择最先复活的那个节点作为leader(这个节点不一定在ISR里)。

    假设Kafka集群中有4个broker, 某topic有3个partition,且复制因子即副本个数也为3。

    Kafka提供了数据复制算法保证,如果leader发生故障或挂掉,一个新leader被选举并被接受客户端的消息成功写入。Kafka确保从ISR列表中选举一个副本为leader,或者说follower追赶leader数据。leader负责维护和跟踪ISR(In-Sync Replicas的缩写,表示副本同步队列)中所有follower滞后的状态。当producer发送一条消息到broker后,leader写入消息并复制到所有follower。消息提交之后才被成功复制到所有的同步副本。消息复制延迟受最慢的follower限制,重要的是快速检测慢副本,如果follower“落后”太多或者失效,leader将会把它从ISR中删除。

    由此可见,Kafka的复制机制既不是完全的同步复制,也不是单纯的异步复制。事实上,同步复制要求所有能工作的follower都复制完,这条消息才会被commit,这种复制方式极大的影响了吞吐率。而异步复制方式下,follower异步的从leader复制数据,数据只要被leader写入log就被认为已经commit,这种情况下如果follower都还没有复制完,落后于leader时,突然leader宕机,则会丢失数据。而Kafka的这种使用ISR的方式则很好的均衡了确保数据不丢失以及吞吐率。

    Kafka的ISR的管理最终都会反馈到Zookeeper节点上。具体位置为:/brokers/topics/[topic]/partitions/[partition]/state。

    目前有两个地方会对这个Zookeeper的节点进行维护:

    1. Controller来维护:Kafka集群中的其中一个Broker会被选举为Controller,主要负责Partition管理和副本状态管理,也会执行类似于重分配partition之类的管理任务。在符合某些特定条件下,Controller下的LeaderSelector会选举新的leader,ISR和新的leader_epoch及controller_epoch写入Zookeeper的相关节点中。同时发起LeaderAndIsrRequest通知所有的replicas。
    2. leader来维护:leader有单独的线程定期检测ISR中follower是否脱离ISR, 如果发现ISR变化,则会将新的ISR的信息返回到Zookeeper的相关节点中。

    ISR

    ISR (In-Sync Replicas),指副本同步队列。副本数对Kafka的吞吐率是有一定的影响,但极大的增强了可用性。默认情况下Kafka的replica数量为1,即每个partition都有一个唯一的leader,为了确保消息的可靠性,通常应用中将其值(由broker的参数offsets.topic.replication.factor指定)大小设置为大于1,比如3。 所有的副本(replicas)统称为Assigned Replicas,即AR。ISR是AR中的一个子集,由leader维护ISR列表,follower从leader同步数据有一些延迟(包括延迟时间replica.lag.time.max.ms和延迟条数replica.lag.max.messages两个维度, 当前最新的版本0.10.x中只支持延迟时间这个维度),任意一个超过阈值都会把follower剔除出ISR, 存入OSR(Outof-Sync Replicas)列表,新加入的follower也会先存放在OSR中。AR=ISR+OSR

    为什么移除延迟条数的维度呢?

    replica.lag.max.messages表示当前某个副本落后leader的消息数量超过了这个参数的值,那么leader就会把follower从ISR中删除。假设设置replica.lag.max.messages=4,那么如果producer一次传送至broker的消息数量都小于4条时,因为在leader接受到producer发送的消息之后而follower副本开始拉取这些消息之前,follower落后leader的消息数不会超过4条消息,故此没有follower移出ISR,所以这时候replica.lag.max.message的设置似乎是合理的。但是producer发起瞬时高峰流量,producer一次发送的消息超过4条时,也就是超过replica.lag.max.messages,此时follower都会被认为是与leader副本不同步了,从而被踢出了ISR。但实际上这些follower都是存活状态的且没有性能问题。那么在之后追上leader,并被重新加入了ISR。于是就会出现它们不断地剔出ISR然后重新回归ISR,这无疑增加了无谓的性能损耗。而且这个参数是broker全局的。设置太大了,影响真正“落后”follower的移除;设置的太小了,导致follower的频繁进出。无法给定一个合适的replica.lag.max.messages的值,故此,新版本的Kafka移除了这个参数。

    ps:ISR中包括:leader和follower。

    LEO

    LogEndOffset的缩写,表示每个partition的log最后一条Message的位置。

    HW(高水位)

    HighWatermark的缩写,是指consumer能够看到的此partition的位置,一个partition中的ISR列表中,leader的HW是所有ISR列表里副本中最小的那个的LEO。类似于木桶原理,水位取决于最低那块短板。

    每个replica都有HW,leader和follower各自负责更新自己的HW的状态。对于leader新写入的消息,consumer不能立刻消费,leader会等待该消息被所有ISR中的replicas同步后更新HW,此时消息才能被consumer消费。这样就保证了如果leader所在的broker失效,该消息仍然可以从新选举的leader中获取。对于来自内部broker的读取请求,没有HW的限制。

    假如某个topic的某partition有三个副本,分别为A、B、C。

    A作为leader,LEO最高,B紧随其后,C机器由于配置比较低,网络比较差,故而同步最慢。

    这个时候A机器宕机,如果B成为leader,假如没有HW,在A重新恢复之后会做同步操作,在宕机时log文件之后直接做追加操作,而假如B的LEO已经达到了A的LEO,会产生数据不一致的情况,所以使用HW来避免这种情况。 
    A在做同步操作的时候,先将log文件截断到之前自己的HW的位置,之后再从B中拉取消息进行同步。

    如果失败的follower恢复过来,它首先将自己的log文件截断到上次checkpointed时刻的HW的位置,之后再从leader中同步消息。

    leader挂掉会重新选举,新的leader会发送“指令”让其余的follower截断至自身的HW的位置然后再拉取新的消息。

    Leader选举

    Kafka在Zookeeper中为每一个partition动态的维护了一个ISR,这个ISR里的所有replica都跟上了leader,只有ISR里的成员才能有被选为leader的可能(unclean.leader.election.enable=false)。

    在这种模式下,对于f+1个副本,一个Kafka topic能在保证不丢失已经commit消息的前提下容忍f个副本的失败。

    The Producer(生产者)

    发送确认

    当producer向leader发送数据时,可以通过request.required.acks参数来设置数据可靠性的级别:

    • 1(默认):这意味着producer在ISR中的leader已成功收到数据并得到确认。如果leader宕机了,则会丢失数据。
    • 0:这意味着producer无需等待来自broker的确认而继续发送下一批消息。这种情况下数据传输效率最高,但是数据可靠性确是最低的。
    • -1:producer需要等待ISR中的所有follower都确认接收到数据后才算一次发送完成,可靠性最高。但是这样也不能保证数据不丢失,比如当ISR中只有leader时(ISR中的成员由于某些情况会增加也会减少,最少就只剩一个leader),这样就变成了acks=1的情况。也有可能造成数据重复,acks=-1的情况下,数据发送到leader后 ,部分ISR的副本同步,leader此时挂掉。比如follower1和follower2都有可能变成新的leader, producer端会得到返回异常,producer端会重新发送数据,数据可能会重复。(如果在leader crash的时候,follower2还没有同步到任何数据,而且follower2被选举为新的leader的话,这样消息就不会重复。)

    ps: 推荐的做法是将acks设置为all或者-1,只有ISR中的所有Replica都收到该数据(也即该消息被Commit),Leader才会告诉Producer该消息发送成功,基本保证不会有数据丢失。

    负载均衡

    1)producer可以自定义发送到哪个partition的路由规则。默认路由规则:hash(key)%numPartitions,如果key为null则随机选择一个partition。

    2)自定义路由:如果key是一个user id,可以把同一个user的消息发送到同一个partition,这时consumer就可以从同一个partition读取同一个user的消息。

    异步批量发送

    批量发送:配置不多于固定消息数目一起发送并且等待时间小于一个固定延迟的数据。

    The Consumer(消费者)

    Push vs Pull

    consumer控制消息的读取。producer push data to broker,consumer pull data from broker。

    优缺点:

    • consumer pull的优点:consumer自己控制消息的读取速度和数量。
    • consumer pull的缺点:如果broker没有数据,则可能要pull多次忙等待,Kafka可以配置consumer long pull一直等到有数据。
    • consumer push的缺点:客户端处理不过来并没做限流导致cpu吃紧。

    Consumer Position

    大部分消息系统由broker记录哪些消息被消费了,但Kafka不是。Kafka由consumer控制消息的消费,consumer甚至可以回到一个old offset的位置再次消费消息。

    Consumer group

    每一个consumer实例都属于一个consumer group。

    每一条消息只会被同一个consumer group里的一个consumer实例消费。

    不同consumer group可以同时消费同一条消息。

    Consumer Rebalance(负载均衡)

    如果某consumer group中consumer数量少于partition数量,则至少有一个consumer会消费多个partition的数据。
    如果consumer的数量与partition数量相同,则正好一个consumer消费一个partition的数据。
    如果consumer的数量多于partition的数量时,会有部分consumer无法消费该topic下任何一条消息。

    消息Deliver guarantee

    Message Delivery Semantics三种:

    • At most once 消息可能会丢,但绝不会重复传输
    • At least one 消息绝不会丢,但可能会重复传输
    • Exactly once 每条消息肯定会被传输一次且仅传输一次,很多时候这是用户所想要的。

    Producer:

    1. 有个”acks“配置可以控制接收的leader的在什么情况下就回应producer消息写入成功。(消息不会丢)

    Consumer:

    1. 读取消息,写log,处理消息。如果处理消息失败,log已经写入,则无法再次处理失败的消息,对应”At most once“。
    2. 读取消息,处理消息,写log。如果消息处理成功,写log失败,则消息会被处理两次,对应”At least once“。
    3. 读取消息,同时处理消息并把result和log同时写入。这样保证result和log同时更新或同时失败,对应”Exactly once“。

    Kafka默认保证at-least-once delivery,容许用户实现at-most-once语义,exactly-once的实现取决于目的存储系统,kafka提供了读取offset,实现也没有问题。

    Distribution

    Consumer Offset Tracking

    1)High-level consumer记录每个partition所消费的maximum offset,并定期commit到offset manager(broker)。

    2)Simple consumer需要手动管理offset。现在的Simple consumer Java API只支持commit offset到zookeeper。

    Consumers and Consumer Groups

    1)consumer注册到zookeeper

    2)属于同一个group的consumer(group id一样)平均分配partition,每个partition只会被一个consumer消费。

    3)当broker或同一个group的其他consumer的状态发生变化的时候,consumer rebalance就会发生。

    Zookeeper协调控制

    1)管理broker与consumer的动态加入与离开。

    2)触发负载均衡,当broker或consumer加入或离开时会触发负载均衡算法,使得一个consumer group内的多个consumer的订阅负载平衡。

    3)维护消费关系及每个partition的消费信息。

    日志压缩(Log Compaction)

    1)针对一个topic的partition,压缩使得Kafka至少知道每个key对应的最后一个值。

    2)压缩不会重排序消息。

    3)消息的offset是不会变的。

    4)消息的offset是顺序的。

    5)压缩发送和接收能降低网络负载。

    6)以压缩后的形式持久化到磁盘。

  • 相关阅读:
    Django框架13 /缓存、信号、django的读写分离
    linux09 /消息队列、saltstack工具
    会话管理之AbpSession
    ABP之事件总线(5)
    依赖注入容器之Castle Windsor
    ABP之事件总线(4)
    ABP之事件总线(3)
    ABP之事件总线(2)
    ABP之事件总线(1)
    ABP之展现层(Datatables分页)
  • 原文地址:https://www.cnblogs.com/wade-luffy/p/8532678.html
Copyright © 2011-2022 走看看