zoukankan      html  css  js  c++  java
  • java版本的Kafka消息写入与读取

    安装zookeeper:  https://www.cnblogs.com/guoyansi19900907/p/9954864.html

    并启动zookeeper

    安装kafka https://www.cnblogs.com/guoyansi19900907/p/9961143.html

    并启动kafka.

    1.创建maven  java项目

    2.添加依赖

     <dependency>
                <groupId>org.apache.kafka</groupId>
                <artifactId>kafka-clients</artifactId>
                <version>0.11.0.0</version>
            </dependency>

    3.创建生产者:

    import org.apache.kafka.clients.producer.KafkaProducer;
    import org.apache.kafka.clients.producer.Producer;
    import org.apache.kafka.clients.producer.ProducerRecord;
    
    import java.util.Properties;
    
    public class ProducerDemo {
        public static void main(String[] args) {
            Properties kafkaProps=new Properties();
            /**
             * acks指定了必须要有多少个分区副本收到消息,生产者才会认为消息写入成功。
             * acks=0,生产者在写入消息之前不会等待任何来自服务器的响应;就算发送失败了,生产者也不知道。
             * acks=1,只要集群首领收到消息,生产者就会收到一个来自服务器的成功消息
             * acks=all,所有参与复制的节点都收到消息,生产者才会收到一个来自服务器的成功响应。
             */
            kafkaProps.put("acks", "all");
            /**
             * 发送失败后重发的次数,最终还不成功表示发送彻底的失败
             */
            kafkaProps.put("retries", 0);
            /**
             * 默认情况下,消息发送时不会被压缩。
             * snappy:压缩算法由Google发明,它占用较少的CPU,却能提供较好的性能和相当可观的压缩比
             * gzip:占用较多的CPU,但是提供更高的压缩比,带宽比较有限,可以考虑这个压缩算法。
             * 使用压缩可以降低网络传输开销和存储开销,而这往往时向kafka发送消息的瓶颈
             */
            kafkaProps.put("compression.type", "snappy");
            /**
             * 一个批次可以使用的内存大小;当批次被填满,批次里的所有消息会被发送;不过生产者并不一定等批次被填满才发送;
             * 所以批次大小设置得很大,也不会造成延迟,只是会占用更多得内存而已。但是设置得太小,
             * 因为生产者需要更频繁的发送消息,会增加额外的开销。
             */
            kafkaProps.put("batch.size", 100);
            /**
             * 指定了生产者在发送批次之前等待更多消息加入批次的时间。
             * KafkaProducer会在批次填满或liner.ms达到上限时把批次发送出去。
             * 这样做虽然会出现一些延时,但是会提高吞吐量。
             */
            kafkaProps.put("linger.ms", 1);
            /**
             * 生产者内存缓冲区的大小,生产者用它缓冲要发送到服务器的消息。
             * 如果应用程序发送消息的速度超过发送到服务器的速度,会导致生产者空间不足,
             * 这个时候send()方法要么被阻塞,要么抛出异常。
             */
            kafkaProps.put("buffer.memory", 33554432);
            /**
             * 生产者在收到服务器响应之前可以发送多少个消息。
             * 值越高就会占用越多的内存,不过也会提升吞吐量。
             * 设为1可以保证消息是按照发送顺序填写入服务器的,即使发生了重试。
             */
            kafkaProps.put("max.in.flight.requests.per.connection", 1);
            //kafkaProps.put("bootstrap.servers","192.168.123.128:9092,192.168.123.129:9092,192.168.123.130:9092");
            //主机信息(broker)
            kafkaProps.put("bootstrap.servers","192.168.123.128:9092");
            //键为字符串类型
            kafkaProps.put("key.serializer","org.apache.kafka.common.serialization.StringSerializer");
            //值为字符串类型
            kafkaProps.put("value.serializer","org.apache.kafka.common.serialization.StringSerializer");
    
    
            Producer<String,String> producer=new KafkaProducer<String, String>(kafkaProps);
            String msg = "abc";
            producer.send(new ProducerRecord<String, String>("guo", msg));
            System.out.println("Sent:" + msg);
            producer.close();
        }
    }

    4.创建消费者

    import org.apache.kafka.clients.consumer.ConsumerRecord;
    import org.apache.kafka.clients.consumer.ConsumerRecords;
    import org.apache.kafka.clients.consumer.KafkaConsumer;
    
    import java.util.Arrays;
    import java.util.Properties;
    
    public class ConsumerDemo {
    
        public static void main(String[] args)  throws Exception{
            Properties properties=new Properties();
            //主机信息
            properties.put("bootstrap.servers","192.168.123.128:9092");
            //群组id
            properties.put("group.id", "group-1");
            /**
             *消费者是否自动提交偏移量,默认是true
             * 为了经量避免重复数据和数据丢失,可以把它设为true,
             * 由自己控制核实提交偏移量。
             * 如果设置为true,可以通过auto.commit.interval.ms属性来设置提交频率
             */
            properties.put("enable.auto.commit", "true");
            /**
             * 自动提交偏移量的提交频率
             */
            properties.put("auto.commit.interval.ms", "1000");
            /**
             * 默认值latest.
             * latest:在偏移量无效的情况下,消费者将从最新的记录开始读取数据
             * erliest:偏移量无效的情况下,消费者将从起始位置读取分区的记录。
             */
            properties.put("auto.offset.reset", "earliest");
            /**
             * 消费者在指定的时间内没有发送心跳给群组协调器,就被认为已经死亡,
             * 协调器就会触发再均衡,把它的分区分配给其他消费者。
             */
            properties.put("session.timeout.ms", "30000");
            properties.put("key.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");
            properties.put("value.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");
    
            KafkaConsumer<String, String> kafkaConsumer = new KafkaConsumer<String, String>(properties);
            /**
             * 订阅主题,这个地方只传了一个主题:gys.
             * 这个地方也可以有正则表达式。
             */
            kafkaConsumer.subscribe(Arrays.asList("guo"));
            //无限循环轮询
            while (true) {
                /**
                 * 消费者必须持续对Kafka进行轮询,否则会被认为已经死亡,他的分区会被移交给群组里的其他消费者。
                 * poll返回一个记录列表,每个记录包含了记录所属主题的信息,
                 * 记录所在分区的信息,记录在分区里的偏移量,以及键值对。
                 * poll需要一个指定的超时参数,指定了方法在多久后可以返回。
                 * 发送心跳的频率,告诉群组协调器自己还活着。
                 */
                ConsumerRecords<String, String> records = kafkaConsumer.poll(100);
                for (ConsumerRecord<String, String> record : records) {
                    //Thread.sleep(1000);
                    System.out.printf("offset = %d, value = %s", record.offset(), record.value());
                    System.out.println();
                }
            }
        }
    }

    5.先运行消费者,然后会出现一个监听的控制台,运行生产者。

  • 相关阅读:
    css基础教程
    网页加载-上下幕布分开
    Vue-Aixos
    webpack学习
    Vue、Element 路由跳转,左侧菜单高亮显示,页面刷新不会改变当前高亮菜单
    Vue知识概括
    JSON.parse() 与 JSON.stringify()
    Bootstrap4 样式笔记
    ES6基础语法
    V-model 双向绑定的原理是什么?
  • 原文地址:https://www.cnblogs.com/guoyansi19900907/p/10926670.html
Copyright © 2011-2022 走看看