zoukankan      html  css  js  c++  java
  • Kafka深度解析

    Kafka深度解析

    2015-01-02 Updated:2015-05-31

    Contents
    1. 1.背景介绍
      1. 1.1.Kafka简单介绍
      2. 1.2.为什么要用消息系统
      3. 1.3.经常使用Message Queue对照
    2. 2.Kafka解析
      1. 2.1.Terminology
      2. 2.2.Kafka架构
        1. 2.2.1.Push vs. Pull
        2. 2.2.2.Topic & Partition
        3. 2.2.3.Replication & Leader election
        4. 2.2.4.Consumer group
        5. 2.2.5.Consumer Rebalance
        6. 2.2.6.消息Deliver guarantee
    3. 3.Benchmark
      1. 3.1.測试环境
      2. 3.2.producer吞吐率
        1. 3.2.1.1个producer线程。无replication
        2. 3.2.2.1个producer线程,3个异步replication
        3. 3.2.3.1个producer线程,3个同步replication
        4. 3.2.4.3个producer,3个异步replication
      3. 3.3.Producer Throughput Vs. Stored Data
      4. 3.4.consumer吞吐率
        1. 3.4.1.1个consumer
        2. 3.4.2.3个consumer
      5. 3.5.Producer and Consumer
      6. 3.6.消息长度对吞吐率的影响
      7. 3.7.端到端的Latency
      8. 3.8.重现该benchmark
    4. 4.參考

    背景介绍

    Kafka简单介绍

      Kafka是一种分布式的,基于公布/订阅的消息系统。主要设计目标例如以下:

    • 以时间复杂度为O(1)的方式提供消息持久化能力,即使对TB级以上数据也能保证常数时间的訪问性能
    • 高吞吐率。即使在非常便宜的商用机器上也能做到单机支持每秒100K条消息的传输
    • 支持Kafka Server间的消息分区,及分布式消费。同一时候保证每一个partition内的消息顺序传输
    • 同一时候支持离线数据处理和实时数据处理

    为什么要用消息系统

    • 解耦
      在项目启动之初来预測将来项目会碰到什么需求,是极其困难的。消息队列在处理过程中间插入了一个隐含的、基于数据的接口层,两边的处理过程都要实现这一接口。

      这同意你独立的扩展或改动两边的处理过程。仅仅要确保它们遵守同样的接口约束

    • 冗余
      有些情况下,处理数据的过程会失败。除非数据被持久化。否则将造成丢失。消息队列把数据进行持久化直到它们已经被全然处理,通过这一方式规避了数据丢失风险。在被很多消息队列所採用的”插入-获取-删除”范式中,在把一个消息从队列中删除之前,须要你的处理过程明白的指出该消息已经被处理完毕,确保你的数据被安全的保存直到你使用完毕。

    • 扩展性
      由于消息队列解耦了你的处理过程。所以增大消息入队和处理的频率是非常easy的。仅仅要另外添加处理过程就可以。不须要改变代码、不须要调节參数。

      扩展就像调大电力button一样简单。

    • 灵活性 & 峰值处理能力
      在訪问量剧增的情况下,应用仍然须要继续发挥作用,可是这样的突发流量并不常见;假设为以能处理这类峰值訪问为标准来投入资源随时待命无疑是巨大的浪费。使用消息队列能够使关键组件顶住突发的訪问压力。而不会由于突发的超负荷的请求而全然崩溃。

    • 可恢复性
      当体系的一部分组件失效,不会影响到整个系统。

      消息队列降低了进程间的耦合度,所以即使一个处理消息的进程挂掉,添加队列中的消息仍然能够在系统恢复后被处理。而这样的同意重试或者延后处理请求的能力一般是造就一个略感不便的用户和一个沮丧透顶的用户之间的差别。

    • 送达保证
      消息队列提供的冗余机制保证了消息能被实际的处理,仅仅要一个进程读取了该队列就可以。在此基础上,IronMQ提供了一个”仅仅送达一次”保证。

      不管有多少进程在从队列中领取数据,每一个消息仅仅能被处理一次。这之所以成为可能,是由于获取一个消息仅仅是”预定”了这个消息,临时把它移出了队列。

      除非客户端明白的表示已经处理完了这个消息,否则这个消息会被放回队列中去。在一段可配置的时间之后可再次被处理。

    • 顺序保证
      在大多使用场景下,数据处理的顺序都非常重要。消息队列本来就是排序的,而且能保证数据会依照特定的顺序来处理。

      IronMO保证消息通过FIFO(先进先出)的顺序来处理。因此消息在队列中的位置就是从队列中检索他们的位置。

    • 缓冲
      在不论什么重要的系统中,都会有须要不同的处理时间的元素。比如,载入一张图片比应用过滤器花费更少的时间。消息队列通过一个缓冲层来帮助任务最高效率的运行—写入队列的处理会尽可能的高速,而不受从队列读的预备处理的约束。该缓冲有助于控制和优化数据流经过系统的速度。

    • 理解数据流
      在一个分布式系统里。要得到一个关于用户操作会用多长时间及其原因的整体印象。是个巨大的挑战。消息队列通过消息被处理的频率,来方便的辅助确定那些表现不佳的处理过程或领域,这些地方的数据流都不够优化。

    • 异步通信
      非常多时候,你不想也不须要马上处理消息。消息队列提供了异步处理机制,同意你把一个消息放入队列,但并不马上处理它。你想向队列中放入多少消息就放多少,然后在你乐意的时候再去处理它们。

    经常使用Message Queue对照

    • RabbitMQ
      RabbitMQ是使用Erlang编写的一个开源的消息队列,本身支持非常多的协议:AMQP。XMPP, SMTP, STOMP,也正因如此。它非常重量级,更适合于企业级的开发。同一时候实现了Broker构架,这意味着消息在发送给客户端时先在中心队列排队。对路由,负载均衡或者数据持久化都有非常好的支持。

    • Redis
      Redis是一个基于Key-Value对的NoSQL数据库,开发维护非常活跃。尽管它是一个Key-Value数据库存储系统,但它本身支持MQ功能,所以全然能够当做一个轻量级的队列服务来使用。

      对于RabbitMQ和Redis的入队和出队操作,各运行100万次,每10万次记录一次运行时间。測试数据分为128Bytes、512Bytes、1K和10K四个不同大小的数据。实验表明:入队时,当数据比較小时Redis的性能要高于RabbitMQ。而假设数据大小超过了10K,Redis则慢的无法忍受。出队时,不管数据大小,Redis都表现出非常好的性能,而RabbitMQ的出队性能则远低于Redis。

    • ZeroMQ
      ZeroMQ号称最快的消息队列系统,尤其针对大吞吐量的需求场景。ZMQ能够实现RabbitMQ不擅长的高级/复杂的队列,可是开发者须要自己组合多种技术框架,技术上的复杂度是对这MQ能够应用成功的挑战。ZeroMQ具有一个独特的非中间件的模式,你不须要安装和运行一个消息服务器或中间件,由于你的应用程序将扮演了这个服务角色。

      你仅仅须要简单的引用ZeroMQ程序库,能够使用NuGet安装,然后你就能够愉快的在应用程序之间发送消息了。可是ZeroMQ仅提供非持久性的队列,也就是说假设宕机,数据将会丢失。当中。Twitter的Storm 0.9.0曾经的版本号中默认使用ZeroMQ作为数据流的传输(Storm从0.9版本号開始同一时候支持ZeroMQ和Netty作为传输模块)。

    • ActiveMQ
      ActiveMQ是Apache下的一个子项目。 相似于ZeroMQ。它能够以代理人和点对点的技术实现队列。

      同一时候相似于RabbitMQ,它少量代码就能够高效地实现高级应用场景。

    • Kafka/Jafka
      Kafka是Apache下的一个子项目,是一个高性能跨语言分布式公布/订阅消息队列系统,而Jafka是在Kafka之上孵化而来的。即Kafka的一个升级版。具有下面特性:高速持久化,能够在O(1)的系统开销下进行消息持久化;高吞吐。在一台普通的服务器上既能够达到10W/s的吞吐速率。全然的分布式系统,Broker、Producer、Consumer都原生自己主动支持分布式,自己主动实现负载均衡;支持Hadoop数据并行载入,对于像Hadoop的一样的日志数据和离线分析系统。但又要求实时处理的限制,这是一个可行的解决方式。Kafka通过Hadoop的并行载入机制来统一了在线和离线的消息处理。Apache Kafka相对于ActiveMQ是一个非常轻量级的消息系统,除了性能非常好之外,还是一个工作良好的分布式系统。

    Kafka解析

    Terminology

    • Broker
      Kafka集群包括一个或多个服务器,这样的服务器被称为broker
    • Topic
      每条公布到Kafka集群的消息都有一个类别,这个类别被称为topic。

      (物理上不同topic的消息分开存储,逻辑上一个topic的消息尽管保存于一个或多个broker上但用户仅仅需指定消息的topic就可以生产或消费数据而不必关心数据存于何处)

    • Partition
      parition是物理上的概念,每一个topic包括一个或多个partition,创建topic时可指定parition数量。

      每一个partition相应于一个目录,该目录下存储该partition的数据和索引文件

    • Producer
      负责公布消息到Kafka broker
    • Consumer
      消费消息。每一个consumer属于一个特定的consumer group(可为每一个consumer指定group name,若不指定group name则属于默认的group)。使用consumer high level API时,同一topic的一条消息仅仅能被同一个consumer group内的一个consumer消费,但多个consumer group可同一时候消费这一消息。

    Kafka架构


      如上图所看到的。一个典型的kafka集群中包括若干producer(能够是web前端产生的page view,或者是服务器日志,系统CPU、memory等)。若干broker(Kafka支持水平扩展,一般broker数量越多,集群吞吐率越高),若干consumer group,以及一个Zookeeper集群。Kafka通过Zookeeper管理集群配置,选举leader。以及在consumer group发生变化时进行rebalance。producer使用push模式将消息公布到broker,consumer使用pull模式从broker订阅并消费消息。  

    Push vs. Pull

      作为一个messaging system。Kafka遵循了传统的方式。选择由producer向broker push消息并由consumer从broker pull消息。一些logging-centric system,比方Facebook的Scribe和Cloudera的Flume,採用非常不同的push模式。其实,push模式和pull模式各有优劣。
      push模式非常难适应消费速率不同的消费者。由于消息发送速率是由broker决定的。push模式的目标是尽可能以最高速度传递消息,可是这样非常easy造成consumer来不及处理消息,典型的表现就是拒绝服务以及网络拥塞。而pull模式则能够依据consumer的消费能力以适当的速率消费消息。

    Topic & Partition

      Topic在逻辑上能够被觉得是一个queue。每条消费都必须指定它的topic。能够简单理解为必须指明把这条消息放进哪个queue里。

    为了使得Kafka的吞吐率能够水平扩展,物理上把topic分成一个或多个partition,每一个partition在物理上相应一个目录。该目录下存储这个partition的全部消息和索引文件。
      
      每一个日志文件都是“log entries”序列。每一个log entry包括一个4字节整型数(值为N),其后跟N个字节的消息体。每条消息都有一个当前partition下唯一的64字节的offset。它指明了这条消息的起始位置。

    磁盘上存储的消息格式例如以下:
      message length : 4 bytes (value: 1+4+n)
      “magic” value : 1 byte
      crc : 4 bytes
      payload : n bytes
      这个“log entries”并不是由一个文件构成。而是分成多个segment,每一个segment名为该segment第一条消息的offset和“.kafka”组成。另外会有一个索引文件,它标明了每一个segment下包括的log entry的offset范围,例如以下图所看到的。
      
      由于每条消息都被append到该partition中。是顺序写磁盘,因此效率非常高(经验证,顺序写磁盘效率比随机写内存还要高,这是Kafka高吞吐率的一个非常重要的保证)。


      
      每一条消息被发送到broker时,会依据paritition规则选择被存储到哪一个partition。

    假设partition规则设置的合理,全部消息能够均匀分布到不同的partition里,这样就实现了水平扩展。(假设一个topic相应一个文件,那这个文件所在的机器I/O将会成为这个topic的性能瓶颈,而partition攻克了这个问题)。在创建topic时能够在$KAFKA_HOME/config/server.properties中指定这个partition的数量(例如以下所看到的),当然也能够在topic创建之后去改动parition数量。

    # The default number of log partitions per topic. More partitions allow greater
    # parallelism for consumption, but this will also result in more files across
    # the brokers.
    num.partitions=3
    

      在发送一条消息时。能够指定这条消息的key,producer依据这个key和partition机制来推断将这条消息发送到哪个parition。paritition机制能够通过指定producer的paritition. class这一參数来指定,该class必须实现kafka.producer.Partitioner接口。

    本例中假设key能够被解析为整数则将相应的整数与partition总数取余,该消息会被发送到该数相应的partition。(每一个parition都会有个序号)

    import kafka.producer.Partitioner;
    import kafka.utils.VerifiableProperties;
    
    public class JasonPartitioner<T> implements Partitioner {
    
        public JasonPartitioner(VerifiableProperties verifiableProperties) {}
    
        @Override
        public int partition(Object key, int numPartitions) {
            try {
                int partitionNum = Integer.parseInt((String) key);
                return Math.abs(Integer.parseInt((String) key) % numPartitions);
            } catch (Exception e) {
                return Math.abs(key.hashCode() % numPartitions);
            }
        }
    }
    

     
      假设将上例中的class作为partition.class,并通过例如以下代码发送20条消息(key分别为0,1,2,3)至topic2(包括4个partition)。  

    public void sendMessage() throws InterruptedException{
      for(int i = 1; i <= 5; i++){
            List messageList = new ArrayList<KeyedMessage<String, String>>();
            for(int j = 0; j < 4; j++){
                messageList.add(new KeyedMessage<String, String>("topic2", j+"", "The " + i + " message for key " + j));
            }
            producer.send(messageList);
        }
      producer.close();
    }
    

      则key同样的消息会被发送并存储到同一个partition里,而且key的序号正好和partition序号同样。

    (partition序号从0開始,本例中的key也正好从0開始)。例如以下图所看到的。
      
      对于传统的message queue而言,通常会删除已经被消费的消息,而Kafka集群会保留全部的消息,不管其被消费与否。当然。由于磁盘限制,不可能永久保留全部数据(实际上也不是必需),因此Kafka提供两种策略去删除旧数据。一是基于时间,二是基于partition文件大小。比如能够通过配置$KAFKA_HOME/config/server.properties,让Kafka删除一周前的数据,也可通过配置让Kafka在partition文件超过1GB时删除旧数据,例如以下所看到的。

      ############################# Log Retention Policy #############################
    
    # The following configurations control the disposal of log segments. The policy can
    # be set to delete segments after a period of time, or after a given size has accumulated.
    # A segment will be deleted whenever *either* of these criteria are met. Deletion always happens
    # from the end of the log.
    
    # The minimum age of a log file to be eligible for deletion
    log.retention.hours=168
    
    # A size-based retention policy for logs. Segments are pruned from the log as long as the remaining
    # segments don't drop below log.retention.bytes.
    #log.retention.bytes=1073741824
    
    # The maximum size of a log segment file. When this size is reached a new log segment will be created.
    log.segment.bytes=1073741824
    
    # The interval at which log segments are checked to see if they can be deleted according
    # to the retention policies
    log.retention.check.interval.ms=300000
    
    # By default the log cleaner is disabled and the log retention policy will default to 
    #just delete segments after their retention expires.
    # If log.cleaner.enable=true is set the cleaner will be enabled and individual logs 
    #can then be marked for log compaction.
    log.cleaner.enable=false
    

      这里要注意,由于Kafka读取特定消息的时间复杂度为O(1),即与文件大小无关,所以这里删除文件与Kafka性能无关,选择怎样的删除策略仅仅与磁盘以及详细的需求有关。另外,Kafka会为每一个consumer group保留一些metadata信息—当前消费的消息的position,也即offset。这个offset由consumer控制。正常情况下consumer会在消费完一条消息后线性添加这个offset。

    当然,consumer也可将offset设成一个较小的值,又一次消费一些消息。由于offet由consumer控制,所以Kafka broker是无状态的。它不须要标记哪些消息被哪些consumer过。不须要通过broker去保证同一个consumer group仅仅有一个consumer能消费某一条消息。因此也就不须要锁机制。这也为Kafka的高吞吐率提供了有力保障。    

    Replication & Leader election

      Kafka从0.8開始提供partition级别的replication。replication的数量可在$KAFKA_HOME/config/server.properties中配置。

    default.replication.factor = 1
    

      该 Replication与leader election配合提供了自己主动的failover机制。replication对Kafka的吞吐率是有一定影响的,但极大的增强了可用性。默认情况下,Kafka的replication数量为1。  每一个partition都有一个唯一的leader。全部的读写操作都在leader上完毕。leader批量从leader上pull数据。普通情况下partition的数量大于等于broker的数量。而且全部partition的leader均匀分布在broker上。

    follower上的日志和其leader上的全然一样。


      和大部分分布式系统一样,Kakfa处理失败须要明白定义一个broker是否alive。

    对于Kafka而言,Kafka存活包括两个条件,一是它必须维护与Zookeeper的session(这个通过Zookeeper的heartbeat机制来实现)。二是follower必须能够及时将leader的writing复制过来,不能“落后太多”。


      leader会track“in sync”的node list。

    假设一个follower宕机。或者落后太多。leader将把它从”in sync” list中移除。

    这里所描写叙述的“落后太多”指follower复制的消息落后于leader后的条数超过预定值,该值可在$KAFKA_HOME/config/server.properties中配置

    #If a replica falls more than this many messages behind the leader, the leader will remove the follower from ISR and treat it as dead
    replica.lag.max.messages=4000
    
    #If a follower hasn't sent any fetch requests for this window of time, the leader will remove the follower from ISR (in-sync replicas) and treat it as dead
    replica.lag.time.max.ms=10000  
    

      须要说明的是。Kafka仅仅解决”fail/recover”,不处理“Byzantine”(“拜占庭”)问题。


      一条消息仅仅有被“in sync” list里的全部follower都从leader复制过去才会被觉得已提交。这样就避免了部分数据被写进了leader,还没来得及被不论什么follower复制就宕机了,而造成数据丢失(consumer无法消费这些数据)。而对于producer而言。它能够选择是否等待消息commit。这能够通过request.required.acks来设置。

    这样的机制确保了仅仅要“in sync” list有一个或以上的flollower。一条被commit的消息就不会丢失。
      这里的复制机制即不是同步复制,也不是单纯的异步复制。其实。同步复制要求“活着的”follower都复制完,这条消息才会被觉得commit。这样的复制方式极大的影响了吞吐率(高吞吐率是Kafka非常重要的一个特性)。

    而异步复制方式下,follower异步的从leader复制数据,数据仅仅要被leader写入log就被觉得已经commit。这样的情况下假设follwer都落后于leader。而leader突然宕机,则会丢失数据。而Kafka的这样的使用“in sync” list的方式则非常好的均衡了确保数据不丢失以及吞吐率。follower能够批量的从leader复制数据,这样极大的提高复制性能(批量写磁盘),极大降低了follower与leader的差距(前文有说到,仅仅要follower落后leader不太远。则被觉得在“in sync” list里)。


      
      上文说明了Kafka是怎样做replication的,另外一个非常重要的问题是当leader宕机了,怎样在follower中选举出新的leader。由于follower可能落后很多或者crash了。所以必须确保选择“最新”的follower作为新的leader。

    一个主要的原则就是。假设leader不在了,新的leader必须拥有原来的leader commit的全部消息。

    这就须要作一个折衷。假设leader在标明一条消息被commit前等待很多其它的follower确认,那在它die之后就有很多其它的follower能够作为新的leader,但这也会造成吞吐率的下降。
      一种非经常常使用的选举leader的方式是“majority vote”(“少数服从多数”),但Kafka并未採用这样的方式。这样的模式下,假设我们有2f+1个replica(包括leader和follower)。那在commit之前必须保证有f+1个replica复制完消息,为了保证正确选出新的leader,fail的replica不能超过f个。

    由于在剩下的随意f+1个replica里,至少有一个replica包括有最新的全部消息。这样的方式有个非常大的优势,系统的latency仅仅取决于最快的几台server,也就是说,假设replication factor是3,那latency就取决于最快的那个follower而非最慢那个。majority vote也有一些劣势。为了保证leader election的正常进行,它所能容忍的fail的follower个数比較少。

    假设要容忍1个follower挂掉,必须要有3个以上的replica,假设要容忍2个follower挂掉,必须要有5个以上的replica。

    也就是说,在生产环境下为了保证较高的容错程度。必须要有大量的replica。而大量的replica又会在大数据量下导致性能的急剧下降。

    这就是这样的算法很多其它用在Zookeeper这样的共享集群配置的系统中而非常少在须要存储大量数据的系统中使用的原因。

    比如HDFS的HA feature是基于majority-vote-based journal,可是它的数据存储并没有使用这样的expensive的方式。


      实际上,leader election算法非常多。比方Zookeper的Zab,RaftViewstamped Replication。而Kafka所使用的leader election算法更像微软的PacificA算法。
      Kafka在Zookeeper中动态维护了一个ISR(in-sync replicas) set,这个set里的全部replica都跟上了leader。仅仅有ISR里的成员才有被选为leader的可能。在这样的模式下。对于f+1个replica,一个Kafka topic能在保证不丢失已经ommit的消息的前提下容忍f个replica的失败。在大多数使用场景中,这样的模式是非常有利的。其实,为了容忍f个replica的失败。majority vote和ISR在commit前须要等待的replica数量是一样的,可是ISR须要的总的replica的个数差点儿是majority vote的一半。
      尽管majority vote与ISR相比有不需等待最慢的server这一优势,可是Kafka作者觉得Kafka能够通过producer选择是否被commit堵塞来改善这一问题,而且节省下来的replica和磁盘使得ISR模式仍然值得。
      
      上文提到,在ISR中至少有一个follower时。Kafka能够确保已经commit的数据不丢失,但假设某一个partition的全部replica都挂了。就无法保证数据不丢失了。这样的情况下有两种可行的方案:

    • 等待ISR中的任一个replica“活”过来,而且选它作为leader
    • 选择第一个“活”过来的replica(不一定是ISR中的)作为leader

      这就须要在可用性和一致性当中作出一个简单的平衡。

    假设一定要等待ISR中的replica“活”过来,那不可用的时间就可能会相对较长。

    而且假设ISR中的全部replica都无法“活”过来了,或者数据都丢失了。这个partition将永远不可用。

    选择第一个“活”过来的replica作为leader,而这个replica不是ISR中的replica,那即使它并不保证已经包括了全部已commit的消息,它也会成为leader而作为consumer的数据源(前文有说明,全部读写都由leader完毕)。Kafka0.8.*使用了另外一种方式。依据Kafka的文档。在以后的版本号中,Kafka支持用户通过配置选择这两种方式中的一种,从而依据不同的使用场景选择高可用性还是强一致性。
      
      上文说明了一个parition的replication过程,然尔Kafka集群须要管理成百上千个partition。Kafka通过round-robin的方式来平衡partition从而避免大量partition集中在了少数几个节点上。

    同一时候Kafka也须要平衡leader的分布。尽可能的让全部partition的leader均匀分布在不同broker上。

    还有一方面。优化leadership election的过程也是非常重要的,毕竟这段时间相应的partition处于不可用状态。

    一种简单的实现是暂停宕机的broker上的全部partition。并为之选举leader。实际上,Kafka选举一个broker作为controller。这个controller通过watch Zookeeper检測全部的broker failure,并负责为全部受影响的parition选举leader,再将相应的leader调整命令发送至受影响的broker,步骤例如以下图所看到的。
      
      
      这样做的优点是,能够批量的通知leadership的变化,从而使得选举过程成本更低,尤其对大量的partition而言。

    假设controller失败了,幸存的全部broker都会尝试在Zookeeper中创建/controller->{this broker id},假设创建成功(仅仅可能有一个创建成功),则该broker会成为controller,若创建不成功,则该broker会等待新controller的命令。
      

    Consumer group

      (本节全部描写叙述都是基于consumer hight level API而非low level API)。
      每一个consumer实例都属于一个consumer group,每一条消息仅仅会被同一个consumer group里的一个consumer实例消费。(不同consumer group能够同一时候消费同一条消息)
      
      
      非常多传统的message queue都会在消息被消费完后将消息删除,一方面避免反复消费,还有一方面能够保证queue的长度比較少,提高效率。而如上文所将,Kafka并不删除已消费的消息,为了实现传统message queue消息仅仅被消费一次的语义,Kafka保证保证同一个consumer group里仅仅有一个consumer会消费一条消息。

    与传统message queue不同的是,Kafka还同意不同consumer group同一时候消费同一条消息,这一特性能够为消息的多元化处理提供了支持。实际上,Kafka的设计理念之中的一个就是同一时候提供离线处理和实时处理。依据这一特性,能够使用Storm这样的实时流处理系统对消息进行实时在线处理。同一时候使用Hadoop这样的批处理系统进行离线处理,还能够同一时候将数据实时备份到还有一个数据中心。仅仅须要保证这三个操作所使用的consumer在不同的consumer group就可以。下图展示了Kafka在Linkedin的一种简化部署。
      
      为了更清晰展示Kafka consumer group的特性,笔者作了一项測试。创建一个topic (名为topic1),创建一个属于group1的consumer实例,并创建三个属于group2的consumer实例,然后通过producer向topic1发送key分别为1,2。3r的消息。结果发现属于group1的consumer收到了全部的这三条消息。同一时候group2中的3个consumer分别收到了key为1,2,3的消息。例如以下图所看到的。


      

    Consumer Rebalance

      (本节所讲述内容均基于Kafka consumer high level API)
      Kafka保证同一consumer group中仅仅有一个consumer会消费某条消息。实际上。Kafka保证的是稳定状态下每一个consumer实例仅仅会消费某一个或多个特定partition的数据,而某个partition的数据仅仅会被某一个特定的consumer实例所消费。这样设计的劣势是无法让同一个consumer group里的consumer均匀消费数据。优势是每一个consumer不用都跟大量的broker通信。降低通信开销,同一时候也降低了分配难度,实现也更简单。

    另外,由于同一个partition里的数据是有序的,这样的设计能够保证每一个partition里的数据也是有序被消费。
      假设某consumer group中consumer数量少于partition数量,则至少有一个consumer会消费多个partition的数据,假设consumer的数量与partition数量同样,则正好一个consumer消费一个partition的数据,而假设consumer的数量多于partition的数量时,会有部分consumer无法消费该topic下不论什么一条消息。
      例如以下例所看到的,假设topic1有0。1。2共三个partition,当group1仅仅有一个consumer(名为consumer1)时,该 consumer可消费这3个partition的全部数据。
      
      添加一个consumer(consumer2)后,当中一个consumer(consumer1)可消费2个partition的数据,另外一个consumer(consumer2)可消费另外一个partition的数据。


      
      再添加一个consumer(consumer3)后,每一个consumer可消费一个partition的数据。consumer1消费partition0,consumer2消费partition1,consumer3消费partition2
      
      再添加一个consumer(consumer4)后,当中3个consumer可分别消费一个partition的数据,另外一个consumer(consumer4)不能消费topic1不论什么数据。


      
      此时关闭consumer1,剩下的consumer可分别消费一个partition的数据。
      
      接着关闭consumer2。剩下的consumer3可消费2个partition,consumer4可消费1个partition。
      
      再关闭consumer3,剩下的consumer4可同一时候消费topic1的3个partition。
      

      consumer rebalance算法例如以下:  

    • Sort PT (all partitions in topic T)
    • Sort CG(all consumers in consumer group G)
    • Let i be the index position of Ci in CG and let N=size(PT)/size(CG)
    • Remove current entries owned by Ci from the partition owner registry
    • Assign partitions from iN to (i+1)N-1 to consumer Ci
    • Add newly assigned partitions to the partition owner registry

      眼下consumer rebalance的控制策略是由每一个consumer通过Zookeeper完毕的。详细的控制方式例如以下:

    • Register itself in the consumer id registry under its group.
    • Register a watch on changes under the consumer id registry.
    • Register a watch on changes under the broker id registry.
    • If the consumer creates a message stream using a topic filter, it also registers a watch on changes under the broker topic registry.
    • Force itself to rebalance within in its consumer group.
        
        在这样的策略下。每一个consumer或者broker的添加或者降低都会触发consumer rebalance。由于每一个consumer仅仅负责调整自己所消费的partition,为了保证整个consumer group的一致性,所以当一个consumer触发了rebalance时,该consumer group内的其它全部consumer也应该同一时候触发rebalance。

      眼下(2015-01-19)最新版(0.8.2)Kafka採用的是上述方式。但该方式有不利的方面:

    • Herd effect
        不论什么broker或者consumer的增减都会触发全部的consumer的rebalance
    • Split Brain
        每一个consumer分别单独通过Zookeeper推断哪些partition down了,那么不同consumer从Zookeeper“看”到的view就可能不一样。这就会造成错误的reblance尝试。而且有可能全部的consumer都觉得rebalance已经完毕了,但实际上可能并不是如此。

      依据Kafka官方文档,Kafka作者正在考虑在还未公布的0.9.x版本号中使用中心协调器(coordinator)

    大体思想是选举出一个broker作为coordinator,由它watch Zookeeper。从而推断是否有partition或者consumer的增减,然后生成rebalance命令。并检查是否这些rebalance在全部相关的consumer中被运行成功,假设不成功则重试,若成功则觉得此次rebalance成功(这个过程跟replication controller非常相似,所以我非常奇怪为什么当初设计replication controller时没有使用相似方式来解决consumer rebalance的问题)。流程例如以下:
          

    消息Deliver guarantee

      通过上文介绍,想必读者已经明天了producer和consumer是怎样工作的。以及Kafka是怎样做replication的,接下来要讨论的是Kafka怎样确保消息在producer和consumer之间传输。有这么几种可能的delivery guarantee:

    • At most once 消息可能会丢。但绝不会反复传输
    • At least one 消息绝不会丢,但可能会反复传输
    • Exactly once 每条消息肯定会被传输一次且仅传输一次,非常多时候这是用户所想要的。


        
        Kafka的delivery guarantee semantic非常直接。当producer向broker发送消息时。一旦这条消息被commit。因数replication的存在,它就不会丢。

      可是假设producer发送数据给broker后,遇到的网络问题而造成通信中断。那producer就无法推断该条消息是否已经commit。

      这一点有点像向一个自己主动生成primary key的数据库表中插入数据。尽管Kafka无法确定网络故障期间发生了什么,可是producer能够生成一种相似于primary key的东西,发生问题时幂等性的retry多次,这样就做到了Exactly one。截止到眼下(Kafka 0.8.2版本号,2015-01-25)。这一feature还并未实现,有希望在Kafka未来的版本号中实现。

      (所以眼下默认情况下一条消息从producer和broker是确保了At least once,但可通过设置producer异步发送实现At most once)。


        接下来讨论的是消息从broker到consumer的delivery guarantee semantic。

      (仅针对Kafka consumer high level API)。

      consumer在从broker读取消息后,能够选择commit。该操作会在Zookeeper中存下该consumer在该partition下读取的消息的offset。该consumer下一次再读该partition时会从下一条開始读取。如未commit,下一次读取的開始位置会跟上一次commit之后的開始位置同样。当然能够将consumer设置为autocommit。即consumer一旦读到数据马上自己主动commit。

      假设仅仅讨论这一读取消息的过程,那Kafka是确保了Exactly once。但实际上实际使用中consumer并不是读取完数据就结束了,而是要进行进一步处理,而数据处理与commit的顺序在非常大程度上决定了消息从broker和consumer的delivery guarantee semantic。

    • 读完消息先commit再处理消息。这样的模式下,假设consumer在commit后还没来得及处理消息就crash了,下次又一次開始工作后就无法读到刚刚已提交而未处理的消息。这就相应于At most once
    • 读完消息先处理再commit。

      这样的模式下,假设处理完了消息在commit之前consumer crash了,下次又一次開始工作时还会处理刚刚未commit的消息,实际上该消息已经被处理过了。

      这就相应于At least once

      在非常多情况使用场景下。消息都有一个primary key,所以消息的处理往往具有幂等性。即多次处理这一条消息跟仅仅处理一次是等效的,那就能够觉得是Exactly once。(人个感觉这样的说法有些牵强,毕竟它不是Kafka本身提供的机制,而且primary key本身不保证操作的幂等性。而且实际上我们说delivery guarantee semantic是讨论被处理多少次,而非处理结果怎样。由于处理方式多种多样。我们的系统不应该把处理过程的特性—如是否幂等性,当成Kafka本身的feature)

    • 假设一定要做到Exactly once。就须要协调offset和实际操作的输出。精典的做法是引入两阶段提交。假设能让offset和操作输入存在同一个地方。会更简洁和通用。这样的方式可能更好。由于很多输出系统可能不支持两阶段提交。比方,consumer拿到数据后可能把数据放到HDFS,假设把最新的offset和数据本身一起写到HDFS,那就能够保证数据的输出和offset的更新要么都完毕,要么都不完毕,间接实现Exactly once

      (眼下就high level API而言,offset是存于Zookeeper中的,无法存于HDFS,而low level API的offset是由自己去维护的,能够将之存于HDFS中)
        总之。Kafka默认保证At least once。而且同意通过设置producer异步提交来实现At most once

      Exactly once要求与目标存储系统协作,幸运的是Kafka提供的offset能够使用这样的方式非常直接非常easy。

    Benchmark

      纸上得来终觉浅。绝知些事要躬行。笔者希望能亲自測一下Kafka的性能,而非从网上找一些測试数据。

    所以笔者曾在0.8公布前两个月做过详细的Kafka0.8性能測试,只是非常可惜測试报告不慎丢失。

    所幸在网上找到了Kafka的创始人之中的一个的Jay Kreps的bechmark。下面描写叙述皆基于该benchmark。(该benchmark基于Kafka0.8.1)

    測试环境

      该benchmark用到了六台机器。机器配置例如以下

    • Intel Xeon 2.5 GHz processor with six cores
    • Six 7200 RPM SATA drives
    • 32GB of RAM
    • 1Gb Ethernet
        
        这6台机器当中3台用来搭建Kafka broker集群。另外3台用来安装Zookeeper及生成測试数据。6个drive都直接以非RAID方式挂载。实际上kafka对机器的需求与Hadoop的相似。

    producer吞吐率

      该项測试仅仅測producer的吞吐率,也就是数据仅仅被持久化,没有consumer读数据。

    1个producer线程。无replication

      在这一測试中,创建了一个包括6个partition且没有replication的topic。

    然后通过一个线程尽可能快的生成50 million条比較短(payload100字节长)的消息。

    測试结果是821,557 records/second78.3MB/second)。
      之所以使用短消息,是由于对于消息系统来说这样的使用场景更难。由于假设使用MB/second来表征吞吐率,那发送长消息无疑能使得測试结果更好。
      整个測试中,都是用每秒钟delivery的消息的数量乘以payload的长度来计算MB/second的。没有把消息的元信息算在内。所以实际的网络使用量会比这个大。对于本測试来说。每次还需传输额外的22个字节。包括一个可选的key。消息长度描写叙述。CRC等。另外,还包括一些请求相关的overhead,比方topic,partition,acknowledgement等。

    这就导致我们比較难推断是否已经达到网卡极限,可是把这些overhead都算在吞吐率里面应该更合理一些。

    因此。我们已经基本达到了网卡的极限。
      初步观察此结果会觉得它比人们所预期的要高非常多,尤其当考虑到Kafka要把数据持久化到磁盘当中。

    实际上。假设使用随机訪问数据系统,比方RDBMS。或者key-velue store。可预期的最高訪问频率大概是5000到50000个请求每秒。这和一个好的RPC层所能接受的远程请求量几乎相同。而该測试中远超于此的原因有两个。

    • Kafka确保写磁盘的过程是线性磁盘I/O,測试中使用的6块便宜磁盘线性I/O的最大吞吐量是822MB/second。这已经远大于1Gb网卡所能带来的吞吐量了。很多消息系统把数据持久化到磁盘当成是一个开销非常大的事情。这是由于他们对磁盘的操作都不是线性I/O。
    • 在每一个阶段,Kafka都尽量使用批量处理。假设想了解批处理在I/O操作中的重要性,能够參考David Patterson的”Latency Lags Bandwidth

    1个producer线程。3个异步replication

      该项測试与上一測试基本一样,唯一的差别是每一个partition有3个replica(所以网络传输的和写入磁盘的总的数据量添加了3倍)。每一个broker即要写作为leader的partition,也要读(从leader读数据)写(将数据写到磁盘)作为follower的partition。測试结果为786,980 records/second75.1MB/second)。


      该项測试中replication是异步的。也就是说broker收到数据并写入本地磁盘后就acknowledge producer,而不必等全部replica都完毕replication。

    也就是说,假设leader crash了,可能会丢掉一些最新的还未备份的数据。但这也会让message acknowledgement延迟更少,实时性更好。
      这项測试说明,replication能够非常快。整个集群的写能力可能会由于3倍的replication而仅仅有原来的三分之中的一个,可是对于每一个producer来说吞吐率依旧足够好。

      

    1个producer线程。3个同步replication

      该项測试与上一測试的唯一差别是replication是同步的,每条消息仅仅有在被in sync集合里的全部replica都复制过去后才会被置为committed(此时broker会向producer发送acknowledgement)。在这样的模式下。Kafka能够保证即使leader crash了,也不会有数据丢失。

    測试结果为421,823 records/second40.2MB/second)。
      Kafka同步复制与异步复制并没有本质的不同。leader会始终track follower replica从而监控它们是否还alive,仅仅有全部in sync集合里的replica都acknowledge的消息才可能被consumer所消费。而对follower的等待影响了吞吐率。

    能够通过增大batch size来改善这样的情况,但为了避免特定的优化而影响測试结果的可比性。本次測试并没有做这样的调整。

      

    3个producer,3个异步replication

      该測试相当于把上文中的1个producer,拷贝到了3台不同的机器上(在1台机器上跑多个实例对吞吐率的添加不会有太大帮忙,由于网卡已经基本饱和了)。这3个producer同一时候发送数据。整个集群的吞吐率为2,024,032 records/second193,0MB/second)。

    Producer Throughput Vs. Stored Data

      消息系统的一个潜在的危急是当数据能都存于内存时性能非常好,但当数据量太大无法全然存于内存中时(然后非常多消息系统都会删除已经被消费的数据。但当消费速度比生产速度慢时。仍会造成数据的堆积)。数据会被转移到磁盘。从而使得吞吐率下降,这又反过来造成系统无法及时接收数据。

    这样就非常糟糕,而实际上非常多情景下使用queue的目的就是解决数据消费速度和生产速度不一致的问题。


      但Kafka不存在这一问题,由于Kafka始终以O(1)的时间复杂度将数据持久化到磁盘,所以其吞吐率不受磁盘上所存储的数据量的影响。

    为了验证这一特性,做了一个长时间的大数据量的測试,下图是吞吐率与数据量大小的关系图。
      
      上图中有一些variance的存在。并能够明显看到,吞吐率并不受磁盘上所存数据量大小的影响。实际上从上图能够看到,当磁盘数据量达到1TB时,吞吐率和磁盘数据仅仅有几百MB时没有明显差别。


      这个variance是由Linux I/O管理造成的。它会把数据缓存起来再批量flush。上图的測试结果是在生产环境中对Kafka集群做了些tuning后得到的,这些tuning方法可參考这里。  

    consumer吞吐率

      须要注意的是,replication factor并不会影响consumer的吞吐率測试。由于consumer仅仅会从每一个partition的leader读数据,而与replicaiton factor无关。同样,consumer吞吐率也与同步复制还是异步复制无关。  

    1个consumer

      该測试从有6个partition,3个replication的topic消费50 million的消息。

    測试结果为940,521 records/second89.7MB/second)。
      能够看到,Kafkar的consumer是非常高效的。它直接从broker的文件系统里读取文件块。Kafka使用sendfile API来直接通过操作系统直接传输,而不用把数据拷贝到用户空间。该项測试实际上从log的起始处開始读数据。所以它做了真实的I/O。在生产环境下,consumer能够直接读取producer刚刚写下的数据(它可能还在缓存中)。实际上,假设在生产环境下跑I/O stat。你能够看到基本上没有物理“读”。也就是说生产环境下consumer的吞吐率会比该项測试中的要高。

    3个consumer

      将上面的consumer拷贝到3台不同的机器上。而且并行运行它们(从同一个topic上消费数据)。

    測试结果为2,615,968 records/second249.5MB/second)。


      正如所预期的那样。consumer的吞吐率差点儿线性增涨。  

    Producer and Consumer

      以上測试仅仅是把producer和consumer分开測试。而该项測试同一时候运行producer和consumer,这更接近使用场景。

    实际上眼下的replication系统中follower就相当于consumer在工作。


      该项測试,在具有6个partition和3个replica的topic上同一时候使用1个producer和1个consumer,而且使用异步复制。測试结果为795,064 records/second75.8MB/second)。
      能够看到,该项測试结果与单独測试1个producer时的结果差点儿一致。所以说consumer非常轻量级。  

    消息长度对吞吐率的影响

      上面的全部測试都基于短消息(payload 100字节),而正如上文所说。短消息对Kafka来说是更难处理的使用方式,能够预期。随着消息长度的增大。records/second会减小。但MB/second会有所提高。

    下图是records/second与消息长度的关系图。
      
      正如我们所预期的那样,随着消息长度的添加,每秒钟所能发送的消息的数量逐渐减小。可是假设看每秒钟发送的消息的总大小,它会随着消息长度的添加而添加。例如以下图所看到的。
      
      从上图能够看出。当消息长度为10字节时。由于要频繁入队,花了太多时间获取锁。CPU成了瓶颈,并不能充分利用带宽。但从100字节開始,我们能够看到带宽的使用逐渐趋于饱和(尽管MB/second还是会随着消息长度的添加而添加。但添加的幅度也越来越小)。

      

    端到端的Latency

      上文中讨论了吞吐率,那消息传输的latency怎样呢?也就是说消息从producer到consumer须要多少时间呢?该项測试创建1个producer和1个consumer并反复计时。

    结果是。2 ms (median), 3ms (99th percentile, 14ms (99.9th percentile)


      (这里并没有说明topic有多少个partition,也没有说明有多少个replica。replication是同步还是异步。实际上这会极大影响producer发送的消息被commit的latency,而仅仅有committed的消息才干被consumer所消费,所以它会终于影响端到端的latency)  

    重现该benchmark

      假设读者想要在自己的机器上重现本次benchmark測试,能够參考本次測试的配置和所使用的命令


      实际上Kafka Distribution提供了producer性能測试工具,可通过bin/kafka-producer-perf-test.sh脚本来启动。所使用的命令例如以下  

    Producer
    Setup
    bin/kafka-topics.sh --zookeeper esv4-hcl197.grid.linkedin.com:2181 --create --topic test-rep-one --partitions 6 --replication-factor 1
    bin/kafka-topics.sh --zookeeper esv4-hcl197.grid.linkedin.com:2181 --create --topic test --partitions 6 --replication-factor 3
    
    Single thread, no replication
    
    bin/kafka-run-class.sh org.apache.kafka.clients.tools.ProducerPerformance test7 50000000 100 -1 acks=1 bootstrap.servers=esv4-hcl198.grid.linkedin.com:9092 buffer.memory=67108864 batch.size=8196
    
    Single-thread, async 3x replication
    
    bin/kafktopics.sh --zookeeper esv4-hcl197.grid.linkedin.com:2181 --create --topic test --partitions 6 --replication-factor 3
    bin/kafka-run-class.sh org.apache.kafka.clients.tools.ProducerPerformance test6 50000000 100 -1 acks=1 bootstrap.servers=esv4-hcl198.grid.linkedin.com:9092 buffer.memory=67108864 batch.size=8196
    
    Single-thread, sync 3x replication
    
    bin/kafka-run-class.sh org.apache.kafka.clients.tools.ProducerPerformance test 50000000 100 -1 acks=-1 bootstrap.servers=esv4-hcl198.grid.linkedin.com:9092 buffer.memory=67108864 batch.size=64000
    
    Three Producers, 3x async replication
    bin/kafka-run-class.sh org.apache.kafka.clients.tools.ProducerPerformance test 50000000 100 -1 acks=1 bootstrap.servers=esv4-hcl198.grid.linkedin.com:9092 buffer.memory=67108864 batch.size=8196
    
    Throughput Versus Stored Data
    
    bin/kafka-run-class.sh org.apache.kafka.clients.tools.ProducerPerformance test 50000000000 100 -1 acks=1 bootstrap.servers=esv4-hcl198.grid.linkedin.com:9092 buffer.memory=67108864 batch.size=8196
    
    Effect of message size
    
    for i in 10 100 1000 10000 100000;
    do
    echo ""
    echo $i
    bin/kafka-run-class.sh org.apache.kafka.clients.tools.ProducerPerformance test $((1000*1024*1024/$i)) $i -1 acks=1 bootstrap.servers=esv4-hcl198.grid.linkedin.com:9092 buffer.memory=67108864 batch.size=128000
    done;
    
    Consumer
    Consumer throughput
    
    bin/kafka-consumer-perf-test.sh --zookeeper esv4-hcl197.grid.linkedin.com:2181 --messages 50000000 --topic test --threads 1
    
    3 Consumers
    
    On three servers, run:
    bin/kafka-consumer-perf-test.sh --zookeeper esv4-hcl197.grid.linkedin.com:2181 --messages 50000000 --topic test --threads 1
    
    End-to-end Latency
    
    bin/kafka-run-class.sh kafka.tools.TestEndToEndLatency esv4-hcl198.grid.linkedin.com:9092 esv4-hcl197.grid.linkedin.com:2181 test 5000
    
    Producer and consumer
    
    bin/kafka-run-class.sh org.apache.kafka.clients.tools.ProducerPerformance test 50000000 100 -1 acks=1 bootstrap.servers=esv4-hcl198.grid.linkedin.com:9092 buffer.memory=67108864 batch.size=8196
    
    bin/kafka-consumer-perf-test.sh --zookeeper esv4-hcl197.grid.linkedin.com:2181 --messages 50000000 --topic test --threads 1
    

      broker配置例如以下

    ############################# Server Basics #############################
    
    # The id of the broker. This must be set to a unique integer for each broker.
    broker.id=0
    
    ############################# Socket Server Settings #############################
    
    # The port the socket server listens on
    port=9092
    
    # Hostname the broker will bind to and advertise to producers and consumers.
    # If not set, the server will bind to all interfaces and advertise the value returned from
    # from java.net.InetAddress.getCanonicalHostName().
    #host.name=localhost
    
    # The number of threads handling network requests
    num.network.threads=4
    
    # The number of threads doing disk I/O
    num.io.threads=8
    
    # The send buffer (SO_SNDBUF) used by the socket server
    socket.send.buffer.bytes=1048576
    
    # The receive buffer (SO_RCVBUF) used by the socket server
    socket.receive.buffer.bytes=1048576
    
    # The maximum size of a request that the socket server will accept (protection against OOM)
    socket.request.max.bytes=104857600
    
    
    ############################# Log Basics #############################
    
    # The directory under which to store log files
    log.dirs=/grid/a/dfs-data/kafka-logs,/grid/b/dfs-data/kafka-logs,/grid/c/dfs-data/kafka-logs,/grid/d/dfs-data/kafka-logs,/grid/e/dfs-data/kafka-logs,/grid/f/dfs-data/kafka-logs
    
    # The number of logical partitions per topic per server. More partitions allow greater parallelism
    # for consumption, but also mean more files.
    num.partitions=8
    
    ############################# Log Flush Policy #############################
    
    # The following configurations control the flush of data to disk. This is the most
    # important performance knob in kafka.
    # There are a few important trade-offs here:
    #    1. Durability: Unflushed data is at greater risk of loss in the event of a crash.
    #    2. Latency: Data is not made available to consumers until it is flushed (which adds latency).
    #    3. Throughput: The flush is generally the most expensive operation. 
    # The settings below allow one to configure the flush policy to flush data after a period of time or
    # every N messages (or both). This can be done globally and overridden on a per-topic basis.
    
    # Per-topic overrides for log.flush.interval.ms
    #log.flush.intervals.ms.per.topic=topic1:1000, topic2:3000
    
    ############################# Log Retention Policy #############################
    
    # The following configurations control the disposal of log segments. The policy can
    # be set to delete segments after a period of time, or after a given size has accumulated.
    # A segment will be deleted whenever *either* of these criteria are met. Deletion always happens
    # from the end of the log.
    
    # The minimum age of a log file to be eligible for deletion
    log.retention.hours=168
    
    # A size-based retention policy for logs. Segments are pruned from the log as long as the remaining
    # segments don't drop below log.retention.bytes.
    #log.retention.bytes=1073741824
    
    # The maximum size of a log segment file. When this size is reached a new log segment will be created.
    log.segment.bytes=536870912
    
    # The interval at which log segments are checked to see if they can be deleted according 
    # to the retention policies
    log.cleanup.interval.mins=1
    
    ############################# Zookeeper #############################
    
    # Zookeeper connection string (see zookeeper docs for details).
    # This is a comma separated host:port pairs, each corresponding to a zk
    # server. e.g. "127.0.0.1:3000,127.0.0.1:3001,127.0.0.1:3002".
    # You can also append an optional chroot string to the urls to specify the
    # root directory for all kafka znodes.
    zookeeper.connect=esv4-hcl197.grid.linkedin.com:2181
    
    # Timeout in ms for connecting to zookeeper
    zookeeper.connection.timeout.ms=1000000
    
    # metrics reporter properties
    kafka.metrics.polling.interval.secs=5
    kafka.metrics.reporters=kafka.metrics.KafkaCSVMetricsReporter
    kafka.csv.metrics.dir=/tmp/kafka_metrics
    # Disable csv reporting by default.
    kafka.csv.metrics.reporter.enabled=false
    
    replica.lag.max.messages=10000000
    

      读者也可參考另外一份Kafka性能測试报告  

    參考

  • 相关阅读:
    phpexcel Could not open for reading! File does not exist.
    tp5 微信JSAPI支付
    ajax返回数据不跳success
    tp5 paginate带参翻页
    php 小程序 前后端POST通信
    小程序页面跳转不同方法
    小程序添加购物车
    小程序商城数量加减效果
    Include conf/extra/httpd-ssl.conf apache 无法启动
    SQL 实验详细源码参考
  • 原文地址:https://www.cnblogs.com/wzzkaifa/p/6958101.html
Copyright © 2011-2022 走看看