zoukankan      html  css  js  c++  java
  • kafka 多线程消费

    一、

       1、Kafka的消费并行度依赖Topic配置的分区数,如分区数为10,那么最多10台机器来并行消费(每台机器只能开启一个线程),或者一台机器消费(10个线程并行消费)。即消费并行度和分区数一致。

       2、(1)如果指定了某个分区,会只讲消息发到这个分区上

           (2)如果同时指定了某个分区和key,则也会将消息发送到指定分区上,key不起作用 

           (3)如果没有指定分区和key,那么将会随机发送到topic的分区中

           (4)如果指定了key,那么将会以hash<key>的方式发送到分区中 

    二、多线程消费实例

         paritition 为3,broker为3,节点为3

    1、生产者随机分区提交数据

        这也是一个比较关键步骤,只有随机提交到不同的分区才能实现多分区消费; 
    自定义随机分区:

    public class MyPartition implements Partitioner{
         private static Logger LOG = LoggerFactory.getLogger(MyPartition.class); 
        @Override
        public void configure(Map<String, ?> arg0) {
            // TODO Auto-generated method stub
        }
    
        @Override
        public void close() {
            // TODO Auto-generated method stub
        }
    
        @Override
        public int partition(String topic, Object key, byte[] keyBytes, Object value,
                byte[] valueBytes, Cluster cluster) {
            List<PartitionInfo> partitions = cluster.partitionsForTopic(topic);
            int numPartitions = partitions.size();
            int partitionNum = 0;
            try {
                partitionNum = Integer.parseInt((String) key);
            } catch (Exception e) {
                partitionNum = key.hashCode() ;
            }
    //        System.out.println("kafkaMessage topic:"+ topic+" |key:"+ key+" |value:"+value);
            return Math.abs(partitionNum  % numPartitions);
        }
    }  

        然后在初始化kafka生产者配置的时候修改如下配置

    props.put("partitioner.class", properties.getProperty("com.mykafka.MyPartition"));

    这样就实现了kafka生产者随机分区提交数据。

     2、消费者

    最后一步就是消费者,修改单线程模式为多线程,这里的多线程实现方式有很多,本例知识用了最简单的固定线程模式:

    ExecutorService fixedThreadPool = Executors.newFixedThreadPool(3);
            for (int i = 0; i < 3; i++) {
                fixedThreadPool.execute(new Runnable() {
                    @Override
                    public void run() {
                        kafkaConsumerService.getInstance();
                    }
                });
            }
    

    在消费方面得注意,这里得遍历所有分区,否则还是只消费了一个区:

    ConsumerRecords<String, String> records = consumer.poll(1000);
            for (TopicPartition partition : records.partitions()) {  
                List<ConsumerRecord<String, String>> partitionRecords = records  
                        .records(partition); 
            for (ConsumerRecord<String, String> record : partitionRecords) {
                System.out.println(
                        "message==>key:" + record.key() + " value:" + record.value() + " offset:" + record.offset()
                        + " 分区:" + record.partition());
                if (record.value() == null || record.key() == null) {
                    consumer.commitSync();
                } else {
                    // dealMessage
                    KafkaServer.dealMessage(record.key(),record.value(),consumer);
    //              consumer.commitSync();
                }
             }
            }
    

      注意上面的线程为啥只有3个,这里得跟上面kafka的分区个数相对应起来,否则如果线程超过分区数量,那么只会浪费线程,因为即使使用3个以上的线程也只会消费三个分区,而少了则无法消费完全。所以这里必须更上面的对应起来。 

  • 相关阅读:
    repair table
    利用逻辑备份恢复部分库表
    Web框架理解
    BootStrape基础使用
    jQuery入门
    BOM操作
    DOM操作
    day12 css样式
    JavaScript基础
    day11 前端知识简单总结
  • 原文地址:https://www.cnblogs.com/liuwei6/p/6905016.html
Copyright © 2011-2022 走看看