zoukankan      html  css  js  c++  java
  • kafka-Streams

    第 6 章 kafka Streams

    6.1 概述

    6.1.1 Kafka Streams

      Kafka Streams。Apache Kafka 开源项目的一个组成部分。是一个功能强大,易于使用的
    库。用于在 Kafka 上构建高可分布式、拓展性,容错的应用程序。

    6.1.2 Kafka Streams 特点

    1)功能强大
      高扩展性,弹性,容错
    2)轻量级
      无需专门的集群
      一个库,而不是框架
    3)完全集成
      100%的 Kafka 0.10.0 版本兼容
      易于集成到现有的应用程序
    4)实时性
      毫秒级延迟
      并非微批处理
      窗口允许乱序数据
      允许迟到数据
    6.1.3 为什么要有 Kafka Stream
      当前已经有非常多的流式处理系统,最知名且应用最多的开源流式处理系统有 Spark
    Streaming 和 Apache Storm。Apache Storm 发展多年,应用广泛,提供记录级别的处理能力,
    当前也支持 SQL on Stream。而 Spark Streaming 基于 Apache Spark,可以非常方便与图计算,
    SQL 处理等集成,功能强大,对于熟悉其它 Spark 应用开发的用户而言使用门槛低。另外,
    目前主流的 Hadoop 发行版,如 Cloudera 和 Hortonworks,都集成了 Apache Storm 和 Apache
    Spark,使得部署更容易。
      既然 Apache Spark 与 Apache Storm 拥用如此多的优势,那为何还需要 Kafka Stream 呢?
    主要有如下原因。
      第一,Spark 和 Storm 都是流式处理框架,而 Kafka Stream 提供的是一个基于 Kafka 的
    流式处理类库。框架要求开发者按照特定的方式去开发逻辑部分,供框架调用。开发者很难
    了解框架的具体运行方式,从而使得调试成本高,并且使用受限。而 Kafka Stream 作为流式
    处理类库,直接提供具体的类给开发者调用,整个应用的运行方式主要由开发者控制,方便
    使用和调试。
     
     
      第二,虽然 Cloudera 与 Hortonworks 方便了 Storm 和 Spark 的部署,但是这些框架的部
    署仍然相对复杂。而 Kafka Stream 作为类库,可以非常方便的嵌入应用程序中,它对应用的
    打包和部署基本没有任何要求。
      第三,就流式处理系统而言,基本都支持 Kafka 作为数据源。例如 Storm 具有专门的
    kafka-spout,而 Spark 也提供专门的 spark-streaming-kafka 模块。事实上,Kafka 基本上是主
    流的流式处理系统的标准数据源。换言之,大部分流式系统中都已部署了 Kafka,此时使用
    Kafka Stream 的成本非常低。
      第四,使用 Storm 或 Spark Streaming 时,需要为框架本身的进程预留资源,如 Storm
    的 supervisor 和 Spark on YARN 的 node manager。即使对于应用实例而言,框架本身也会占
    用部分资源,如 Spark Streaming 需要为 shuffle 和 storage 预留内存。但是 Kafka 作为类库不
    占用系统资源。
      第五,由于 Kafka 本身提供数据持久化,因此 Kafka Stream 提供滚动部署和滚动升级以
    及重新计算的能力。
      第六,由于 Kafka Consumer Rebalance 机制,Kafka Stream 可以在线动态调整并行度。 
     
     
    6.2 Kafka Stream 数据清洗案例
    0)需求:
    实时处理单词带有”>>>”前缀的内容。例如输入”atguigu>>>ximenqing”,最终处理成
    “ximenqing”
     
    1)需求分析: 
     
    数据清洗案例:
     
    2)案例实操
    (1)创建一个工程,并添加 jar 包
    (2)创建主类 
     
    package com.atlxl;
    
    import com.atlxl.stream.LogProcessor;
    import org.apache.kafka.streams.KafkaStreams;
    import org.apache.kafka.streams.processor.Processor;
    import org.apache.kafka.streams.processor.ProcessorSupplier;
    import org.apache.kafka.streams.processor.TopologyBuilder;
    
    import java.util.Properties;
    
    public class KafkaStream {
    
        public static void main(String[] args) {
    
            //创建拓扑对象
            TopologyBuilder builder = new TopologyBuilder();
            //创建配置文件
            Properties properties = new Properties();
    
            properties.put("bootstrap.servers","hadoop102:9092");
            properties.put("application.id", "kafkaStream");
    
            //构建拓扑结构
            builder.addSource("SOURCE", "first").addProcessor("PROCESSOR", new ProcessorSupplier() {
                @Override
                public Processor get() {
                    return new LogProcessor() {
                    };
                }
            }, "SOURCE").addSink("SINK", "second", "PROCESSOR");
    
    
            KafkaStreams kafkaStreams = new KafkaStreams(builder, properties);
    
            kafkaStreams.start();
    
        }
    
    }
    (3)具体业务处理 
    package com.atlxl.stream;
    
    import org.apache.kafka.streams.processor.Processor;
    import org.apache.kafka.streams.processor.ProcessorContext;
    
    public class LogProcessor implements Processor<byte[],byte[]> {
    
        private ProcessorContext context;
    
        @Override
        public void init(ProcessorContext processorContext) {
    
            context = processorContext;
    
    
        }
    
        @Override
        public void process(byte[] bytes, byte[] bytes2) {
    
            //获取一行数据
            String line = new String(bytes2);
    
            //去除 ">>>"
            line = line.replaceAll(">>>", "");
    
            bytes2 = line.getBytes();
    
            context.forward(bytes, bytes2);
    
        }
    
        @Override
        public void punctuate(long l) {
    
        }
    
        @Override
        public void close() {
    
        }
    }
    (4)运行程序
     
    (5)在 hadoop102 上启动生产者 
    [lxl@hadoop102 kafka]$ bin/kafka-console-producer.sh  --broker-list hadoop102:9092 --topic first
    >hello
    >hello>>>lxl 
     
    (6)在 hadoop102 上启动消费者 
     
     
    [lxl@hadoop102 kafka]$ bin/kafka-console-consumer.sh --zookeeper hadoop102:2181 --topic second
    Using the ConsoleConsumer with old consumer is deprecated and will be removed in a future major releas
    hello
    hellolxl

     

     
     
     
     
     
     
     
     
     
     
     
     
     
     
     
     
     
  • 相关阅读:
    实现windows数据更新
    使用ListView展示数据
    构建良好的windous布局
    初始Windows系统
    用C#连接SQL sever数据库
    分组查询与内外连接查询
    SQL Server中数据查询基础
    使用SQL语句操作数据
    CHECK约束表达式
    聊聊四种冷启动,和它们的成本、竞争门槛
  • 原文地址:https://www.cnblogs.com/LXL616/p/11003955.html
Copyright © 2011-2022 走看看