zoukankan      html  css  js  c++  java
  • kafka之消费者

    消费消息概述

       一般而言,kafka消费者从属于消费者群组。一个群组里的消费者订阅的是同一个主题。每个消费者接收主题一部分分区的消息。如果我们往群组里添加更多的消费者,超过了主题分区的数量,那么就有一部分消费者被闲置,不会接收到任何消息。但是如果有多个消费者群组消费同一个主题,那么不同消费者群组之间都可以获取到这个主题的所有消息,相互之间没有任何影响。这样就造成了一个问题就是消息可能被消费多次。但是在分布式情况下,很容易出现同一个消费者群组我们部署了多个服务实例,这种情况消息是怎么消费的呢?

    创建消费者

    消费者类型

    •  消费者群组里的消费者

    • 独立消费者

    消费者群组和分区再均衡

       想一下这样的场景:如果一个消费者群组中添加了一个新的消费者,或者有一个消费者被关闭或发生崩溃退出消费者群组,或者同一个主题添加了新的分区,那这个时候消费者群组改怎么去消费消息呢?这时候就会对分区进行重新分配,以便主题里的所有消息都可以正常的被消费。

      我们把分区的所有权从一个消费者转移到另一个消费者,这样的行为称为再均衡。再均衡非常的重要,它使得我们可以放心的添加和移除消费者。但是再均衡期间也会带来很多问题,例如:消息漏读或者重复读,我们后面会着重介绍这些特别的场景,所以我们并不希望再均衡频繁发生甚至不希望发生。

      消费者在轮询消息(为了获取消息)或提交偏移量时通过向被指派为群组协调器的broker发送心跳来维持他们和群组的从属关系以及它们对分区的所有权关系。如果消费者停止发送心跳的时间足够长,并停止读取消息,群组协调器在等待几秒后,认为它死亡了,就会触发一次再均衡。在这几秒钟时间里,死掉的消费者不会读取分区里的消息。在清理消费者是,消费者会通知群组协调器它将要离开群组,协调器会立即触发一次再均衡。

      再均衡期间,消费者无法读取消息,造成整个群组一小段时间的不可用。另外,当分区被重新分配给另一个消费者时,消费者当前的读取状态会丢失,它有可能需要去刷新缓存,在它重新恢复状态之前会拖慢应用程序。

    消费者心跳行为

      在0.10.1及更新版本中,和之前版本中心跳检查不太一样,这里引入了一个独立额心跳线程,可以在轮询消息的空档发送心跳。这样一来,发送心跳的频率和消息轮询的频率(由处理消息所花费的时间确定)之间就是相互独立的。在新版本kafka里,可以指定消费者离开群组并触发再均衡之前可以有多长时间不进行消息轮询,这样可以避免出现活锁。例如有时应用程序并没有崩溃,只是由于某些原因导致无法正常工作。这个配置和session.timeout.ms是相互独立的,下面讲解相关配置时会区分两者的含义和区别。

    分配分区过程

      消费者加入群组时,会向群组协调器发送一个JsonGroup的请求。第一个加入群组的消费者将成为群主。群主从协调那里获取群组的成员列表(列表中包含所有最近发送过心跳的消费者,它们被认为是活着的),并负责给他们分配分区。群主使用一个实现了PartitionAssignor接口的类来决定哪个分区应该分配给哪个消费者

      kafka内置了两种分配策略,通过配置参数来设置,后面我们会讲到。

      群主把分配情况列表发送给群组协调器,协调器再把这些信息发送给所有消费者。每个消费者只能看到自己的分配信息,只有群主知道群组里所有消费者的分配信息。这个过程会在每次再均衡时重复发生。

    轮询

      消息轮询是消费者api的核心,通过一个简单的轮询向服务器请求数据。当然轮询不只获取数据那么简单。在第一次调用新消费者的poll()方法时,它会负责查找GroupCoordinator,然后加入群组,接收分配的分区。如果发生了再均衡,整个过程也是在轮询期间进行的。当然,心跳也是从轮询里发送出去的,所以,要确保在轮询期间所有的任何处理工作都应该尽快的完成。

      轮询的过程:

    • 轮询是一个无限循环。消费者实际上是一个长期运行的应用程序,它通过持续轮询向kafka请求数据。
    • 消费者必须持续对kafka进行轮询,否者会被认为已经死亡,它的分区会被移交给群组里的其他消费者。传给poll()方法的参数是一个超时时间,用于控制poll()方法的阻塞时间(在消费者的缓冲区里没有可用数据时会发生阻塞)。
    • poll()方法返回一个记录列表。每条记录都包含了记录所属的主题的信息,记录所在分区的信息,记录在分区里的偏移量,以及记录的键值对。我们一般会遍历这个列表,逐条处理这些记录。
    • 报结果保存起来或者对已有的记录进行更新,处理过程也随之结束。
    • 在退出应用程序之前使用close()方法关闭消费者。网络连接和socket也会随之关闭,并立即出发一次再均衡,而不是等待群组协调器发现它不再发送心跳并认定它已死亡。

    消费者配置

    fetch.min.bytes

    该参数指定了消费者从服务器获取记录的最小字节数。 

    fetch.max.wait.ms

     该参数告诉kafka等有足够的的数据后再返回给我们,但是如果超过了此参数设置的时间,即便没有足够的数据也会返回。

    max.partiton.fetch.bytes

     该属性指定了服务器从每个分区里返回给消费者的最大字节数。默认值是1M,也就是说,kafkaConsumer.poll()方法从每个分区里返回的记录最多不超过这个参数指定的字节。例如:一个主题有20个分区,5个消费者,那么每个消费者需要至少4M的内存来接收记录。但实际设置时要分配多一点,因为如果群组有消费者发生崩溃,剩下的消费者需要处理更多的分区。并且此值必须比broker能够接收的最大消息(max.message.size)的字节数大。

    session.timeout.ms

    该属性制定了消费者在被认为死亡之前可以与服务器断开连接的时间。默认3s

    auto.offset.reset

    该属性置顶了消费者在读取一个没有偏移量的分区或者偏移量无效的情况下(因消费者长时间失效,包含偏移量的记录已经过时并被删除)该作何处理。有两个选择值:latest:在偏移量无效的情况下,消费者将从最新的记录开始读取数据;earliest:在偏移量无效的情况下,消费者将从起始位置读取分区的记录。

    enable.auto.commit

    该属性指定了消费者是否自动提交偏移量,默认是true。

    auto.commit.interval.ms

    该属性指定自动提交的时间间隔。默认5s

    partition.assignment.strategy

    该参数决定哪些分区应该分配给哪些消费者。有两种策略:

    Range

    该策略会把主题的若干个连续的分区分配给消费者。

    RoundRobin

    该策略把主题的所有分区逐个分配给消费者。

    client.id

    该属性可以是任意的字符窜,broker用它来标识从客户端发送过来的消息,通常被用在日志,度量指标和配额里。

    max.poll.records

    该属性用于控制单词调用call()方法能够返回的记录数量。

    提交和偏移量

      每次调用poll()方法,kafka总是返回由生产者写入但是还没有被消费者读取过的记录,我们因此可以追踪到哪些记录时被群组里的哪个消费者读取的。kafka不会像其他JMS队列那样需要得到消费者的确认。相反,消费者可以用kafka来追踪消息在分区里的位置(偏移量)。

      我们把更新分区当前位置的操作叫做提交

      那么消费者如何提交偏移量的呢?消费者往一个叫_consumer_offset的特殊主体里发送消息,消息里包含每个分区的偏移量。如果消费者一直处在运行状态,那么偏移量就没有什么用处。不过,如果发生了再均衡,每个消费者都可能分配了新的分区,而不是之前那个。为了能够继续之前的工作,消费者需要读取每个分区最后一次提交的偏移量,然后从偏移量指定的地方继续处理。

      这里的提交操作可能会出现有两种问题:

    • 如果提交的偏移量小于客户端处理的最后一个消息的偏移量,那么处理两个偏移量之间的消息就会被重复处理。
    • 如果提交的偏移量大于客户端处理的最后一个消息的偏移量,那么就可能会丢失消息。

    提交的方式

    • 自动提交

      这种方式是最简单的提交方式。通过这两个参数enable.auto.commit和auto.commit.interval.ms来控制。使用自动提交时,每次调用轮询方法都会把上次调用返回的偏移量提交上去,它并不知道具体哪些消息已经被处理了,所以在再次调用之前最好确保所有当前返回的消息都已经处理完毕(在调用close()方法之前也会进行自动提交)。

      注意,自动提交虽然方便,但是并没有为开发者留余地来避免重复处理消息。

    • 提交当前偏移量

       大部分开发者通过控制偏移量提交时间来消除丢失消息的可能性,并在发生再均衡时减少重复消息的数据。消费者api提供了commitSync()方式提交偏移量。要记住,commitSync()将会提交由poll()返回的最新偏移量,所以在处理完所有记录后要确保调用commitSync(),否者还是会有丢失消息的风险。如果发生了再均衡,从最近一批消息到发生再均衡之间的所有消息都将被重复处理。另外我们需要知道是,在commitSync()提交过程中,只要没有遇到不可恢复的错误,此方法会一直尝试提交直到成功。并且

    • 异步提交

       手动提交有一个不足之处,在broker对提交请求作出响应之前,应用程序会一直阻塞。这样会限制应用程序的吞吐量。我们可以降低提交频率来提升吞吐量,但是如果发生了再均衡,会增加重复消息的数量。

      消费者api提供异步提交偏移量的api。我们只管发送提交请求,无需等待broker的响应。但是异步提交在成功提交或碰到无法恢复的错误之前不会一直重试,这是因为它收到服务器响应的时候,可能有一个更大的偏移量已经提交成功了。需要注意的是异步提交commitAsync()支持回调,一般回调被用于记录提交错误或生成度量指标,不过如果要用它来进行重试,一定要注意提交的顺序。

    • 同步和异步组合提交
    • 提交特定的偏移量

       提交偏移量的频率和处理消息批次的频率是一样的。但如果想要更频繁地提交改怎么办呢?如果poll()方法返回一大批数据,为了避免因再均衡引起的重复处理整批消息,想要在批次中间提交偏移量改怎么办?这种情况,无法通过调用commitSync()和commitAsync()来实现,因为他们只会提交最后一个偏移量。幸运的是,消费者api允许在调用commitSync()和commitAsync()方法时传入希望提交的分区和偏移量的map。不过,因为消费者可能不只读取一个分区,这就需要跟踪所有分区的偏移量,所以在这个层面上控制偏移量的提交会让代码变复杂。

    再均衡监听器

    消费者退出和进行分区再均衡之前,会做一些清理工作。消费者失去对一个分区的所有权之前提交最后一个已经处理记录的偏移量。如果消费者准备了一个缓冲区来处理偶发事件,那么在失去分区所有权之前,需要处理在缓冲区积累下来的记录。

      在为消费者分配新分区或者移除旧分区时,可以通过消费者Api执行一些应用程序代码,在调用subscribe()方法时传入一个ConsumerRebalanceListener实例就可以了,ConsumerRebalanceListener有两个方法需要实现:

      onPartitionsRevoked:此方法会在再均衡开始之前和消费者停止读取消息之后被调用。

      onPartitionsAssigned:此方法会在重新分配分区之后和消费者开始读取消息之前被调用。

       如果发生再均衡,我们需要在即将逝去分区所有权时提交偏移量。要注意,提交的是最近处理过的偏移量,而不是批次中还在处理的最后一个偏移量。因为分区有可能在我们还在处理消息的时候被撤回。我们要提交所有分区的偏移量,而不只是那些即将失去所有权的分区的偏移量,因为提交的偏移量是已经处理过的,所以不会有什么问题。

    从特定偏移量开始处理记录

      消费者api为我们提供了seekToBeginning(Collection<TopicPartition> tp)和seekToEnd(Collection<TopicPartition> tp)两个方法,可以从分区的起始位置和末尾位置读取消息。不过,kafka也为我们提供了用于查找特定偏移量的api,然后通过seek()方法,从某个分区的特点偏移量来读取消息。

      如果我们对消费的重复读和漏读一点都无法容忍?那这个时候可能就要考虑将分区的偏移量保存在数据库中,因为这样可以做到消息的处理和偏移量的提交放到一个事务中进行原子处理。而如果将偏移量提交到kafka保存,即便你每处理一条消息提交一次偏移量,仍然会无法避免在你处理完消息之后提交偏移量之前应用程序崩溃的情况。

    消费者如何退出

      我们不需要担心消费者会在一个无线循环里轮询消息,我们会告诉消费者如何有呀的退出循环。

      如果确定要退出循环,需要通过另一个线程调用consumer.wakeup()。如果循环运行在主线程里,可以在ShutdownHook里调用该方法。consumer.wakeup()是消费者唯一一个可以从其他线程里安全调用的方法。

  • 相关阅读:
    JavaScript的DOM操作(节点操作)
    php算法
    php常用函数
    去掉表单中的回车、换行、空格
    linux(centos)搭建SVN服务器
    同一台机子上用多个git 账号
    房屋交易合同
    简单的css 菜单
    Spring Collections XML 配置
    不同java 版本的新功能
  • 原文地址:https://www.cnblogs.com/htyj/p/14309413.html
Copyright © 2011-2022 走看看