zoukankan      html  css  js  c++  java
  • Spark Straming,Spark Streaming与Storm的对比分析

    一、大数据实时计算介绍

    Spark Streaming,其实就是Spark提供的,对于大数据,进行实时计算的一种框架。

    它的底层,就是基于Spark Core的。

    基本的计算模型,还是基于内存的大数据实时计算模型,而且,它的底层的组件,其实还是最核心的RDD。

    只不过,针对实时计算的特点,在RDD之上,进行了一层封装,叫做DStream。

    二、大数据实时计算原理

    在这里插入图片描述

    三、Spark Streaming简介

    Spark Streaming是Spark Core API的一种扩展,它可以用于进行大规模、高吞吐量、容错的实时数据的处理。

    支持从很多种数据源中读取数据,比如kafka、Flume、Twitter、ZeroMQ、Kinesis或者TCP Socket。

    能够使用类似高阶函数的复杂算法来进行数据处理,比如map、reduce、join和window。

    处理后的数据可以被保存到文件系统、数据库、Dashboard等存储中。

    在这里插入图片描述

    3.1 SparkStreaming初始理解

    在这里插入图片描述

    receiver task是7*24小时一直在执行,一直接受数据,将一段时间内接收来的数据保存到batch中。假设batchInterval为5s,那么会将接收来的数据每隔5秒封装到一个batch中,batch没有分布式计算特性,这一个batch的数据又被封装到一个RDD中,RDD最终封装到一个DStream中。

    例如:假设batchInterval为5秒,每隔5秒通过SparkStreaming将得到一个DStream,在第6秒的时候计算这5秒的数据,假设执行任务的时间是3秒,那么第69秒一边在接收数据,一边在计算任务,910秒只是在接收数据。然后在第11秒的时候重复上面的操作。

    如果job执行的时间大于batchInterval会有什么样的问题?

    如果接受过来的数据设置的级别是仅内存,接收来的数据会越堆积越多,最后可能会导致OOM(如果设置StorageLevel包含disk, 则内存存放不下的数据会溢写至disk, 加大延迟 )。

    3.2 2.SparkStreaming代码

    启动socket server 服务器:nc –lk 9999

    receiver模式下接受数据,local的模拟线程必须大于等于2,一个线程用来receiver用来接受数据,另一个线程用来执行job。

    Durations时间设置就是我们能接收的延迟度。这个需要根据集群的资源情况以及任务的执行情况来调节。

    创建JavaStreamingContext有两种方式(SparkConf,SparkContext)。

    所有的代码逻辑完成后要有一个output operation类算子。

    JavaStreamingContext.start() Streaming框架启动后不能再次添加业务逻辑。

    JavaStreamingContext.stop() 无参的stop方法将SparkContext一同关闭,stop(false),不会关闭SparkContext。

    JavaStreamingContext.stop()停止之后不能再调用start。

    SparkConf conf = new SparkConf().setMaster("local[2]").setAppName("WordCountOnline");
    /**
     * 在创建streaminContext的时候 设置batch Interval
     */
    JavaStreamingContext jsc = new JavaStreamingContext(conf, Durations.seconds(5));
    
    JavaReceiverInputDStream<String> lines = jsc.socketTextStream("node5", 9999);
    
    JavaDStream<String> words = lines.flatMap(new FlatMapFunction<String, String>() {
    	@Override
    	public Iterable<String> call(String s) {
               return Arrays.asList(s.split(" "));
    	}
    });
    
    JavaPairDStream<String, Integer> ones = words.mapToPair(new PairFunction<String, String, Integer>() {
    	@Override
    	public Tuple2<String, Integer> call(String s) {
              return new Tuple2<String, Integer>(s, 1);
    	}
    });
    
    JavaPairDStream<String, Integer> counts = ones.reduceByKey(new Function2<Integer, Integer, Integer>() {
    	@Override
    	public Integer call(Integer i1, Integer i2) {
               return i1 + i2;
    	}
    });
     
    //outputoperator类的算子   
     counts.print();
      
     jsc.start();
     //等待spark程序被终止
     jsc.awaitTermination();
     jsc.stop(false);
    

    四、Spark Streaming基本工作原理

    接收实时输入数据流,然后将数据拆分成多个batch。

    比如每收集1秒的数据封装为一个batch,然后将每个batch交给Spark的计算引擎进行处理,最后会生产出一个结果数据流,其中的数据,也是由一个一个的batch组成的。
    在这里插入图片描述

    五、DStream

    Spark Streaming提供了一种高级的抽象,叫做DStream,译为“离散流”,它代表了一个持续不断的数据流。

    DStream可以通过输入数据源来创建,比如Kafka、Flume和Kinesis,也可通过其他DStream应用高阶函数来创建,比如map、reduce、join、window。

    DSteam的内部,其实一系列不断产生的RDD。

    RDD是Spark Core的核心抽象,即不可变的,分布式的数据集。

    DStream中的每个RDD都包含了一个时间段内的数据。

    在这里插入图片描述

    对DStream应用的算子,比如map,其实在底层会被翻译为对DSteam中每个RDD的操作。

    比如对一个DStream执行一个map擦欧洲哦,会产生一个新的DStream。

    但是,在底层,其实对输入DStream中每个时间段的一个RDD,都应用一遍Map操作,然后生成新的RDD,即作为新的DStream中的那个时间段的RDD。

    底层的RDD的transformation操作,其实,还是由Spark Core的计算引擎来实现的。

    Spark Streaming对Spark Core进行了一层封装,隐藏了细节,然后对开发人员提供了方便易用的高层次的API。
    在这里插入图片描述

    在这里插入图片描述

    六、Spark Streaming与Storm的对比分析

    6.1 与Storm的对比

    对比点 Storm Spark Streaming
    实时计算模型 纯实时,来一条数据,处理一条数据 准实时,对应事件段内数据收集起来,作为一个RDD再处理
    实时计算延迟度 毫秒级 秒级
    吞吐量
    事务机制 支持完善 支持,但不够完善
    健壮性/容错性 Zookeeper,Acker,非常强 Checkpoint,WAL,一般
    动态调整并行度 支持 不支持

    6.2 Spark Streaming与Storm的优劣分析

    二者在实时计算领域中,都很优秀,只是擅长的细分场景并不相同。

    Spark Streaming仅仅在吞吐量上比Storm更优秀。

    Storm在实时延迟度上,比Spark Streaming好多了。而且,Storm的事务机制、健壮性/容错性、动态调整并行度等特性,都要比Spark Streaming更优秀。

    Spark Streaming,是Storm无法比的,就是它位于Spark生态技术栈中,因此,其可以和Spark Core、Spark SQL无缝整合,也就意味着,我们可以对实时处理出来的中间数据立即在程序中无缝进行延迟批处理、交互式查询等操作。

  • 相关阅读:
    jquery swiper自定义pagination的方法
    javascript获取地址栏参数的方法
    jquery trigger使用方法
    jquery on绑定事件叠加解决方法
    phpexcel无法导出的解决方法
    mysql left join和union结合的用法
    Linux项目一
    排序
    搜索
    递归
  • 原文地址:https://www.cnblogs.com/aixing/p/13327437.html
Copyright © 2011-2022 走看看