zoukankan      html  css  js  c++  java
  • 状态编程

    1、状态 

      Flink内置的很多算子,数据源source,数据存储sink都是有状态的,流中的数据都是buffer records,会保存一定的元素或者元数据。例如: ProcessWindowFunction会缓存输入流的数据,ProcessFunction会保存设置的定时器信息等等。
      在Flink中,状态始终与特定算子相关联。总的来说,有两种类型的状态:

    • 算子状态(operator state)
    • 键控状态(keyed state)

    (1)算子状态operator state

      算子状态的作用范围限定为算子任务。这意味着由同一并行任务所处理的所有数据都可以访问到相同的状态,状态对于同一任务而言是共享的。算子状态不能由相同或不同算子的另一个任务访问。


    Flink为算子状态提供三种基本数据结构:

    • 列表状态(List state)

      将状态表示为一组数据的列表。

    • 联合列表状态(Union list state)

      也将状态表示为数据的列表。它与常规列表状态的区别在于,在发生故障时,或者从保存点(savepoint)启动应用程序时如何恢复。

    • 广播状态(Broadcast state)

      如果一个算子有多项任务,而它的每项任务状态又都相同,那么这种特殊情况最适合应用广播状态。
    (2)键控状态(keyed state)
      键控状态是根据输入数据流中定义的键(key)来维护和访问的。Flink为每个键值维护一个状态实例,并将具有相同键的所有数据,都分区到同一个算子任务中,这个任务会维护和处理这个key对应的状态。当任务处理一条数据时,它会自动将状态的访问范围限定为当前数据的key。因此,具有相同key的所有数据都会访问相同的状态。Keyed State很类似于一个分布式的key-value map数据结构,只能用于KeyedStream(keyBy算子处理之后)。

    Flink的Keyed State支持以下数据类型:

    •  ValueState[T]保存单个的值,值的类型为T。

        o get操作: ValueState.value()
        o set操作: ValueState.update(value: T)

    •  ListState[T]保存一个列表,列表里的元素的数据类型为T。基本操作如下:

        o ListState.add(value: T)
        o ListState.addAll(values: java.util.List[T])
        o ListState.get()返回Iterable[T]
        o ListState.update(values: java.util.List[T])

    •  MapState[K, V]保存Key-Value对。

        o MapState.get(key: K)
        o MapState.put(key: K, value: V)
        o MapState.contains(key: K)
        o MapState.remove(key: K)

    •  ReducingState[T]
    •  AggregatingState[I, O]

    State.clear()是清空操作。

    val sensorData: DataStream[SensorReading] = ...
    val keyedData: KeyedStream[SensorReading, String] = sensorData.keyBy(_.id)
    
    val alerts: DataStream[(String, Double, Double)] = keyedData
    .flatMap(new TemperatureAlertFunction(1.7))
    
    class TemperatureAlertFunction(val threshold: Double) extends RichFlatMapFunction[SensorReading, (String, Double, Double)] {
      private var lastTempState: ValueState[Double] = _
    
      override def open(parameters: Configuration): Unit = {
        val lastTempDescriptor = new ValueStateDescriptor[Double]("lastTemp", classOf[Double])
        lastTempState = getRuntimeContext.getState[Double](lastTempDescriptor)
      }
    
      override def flatMap(reading: SensorReading,
        out: Collector[(String, Double, Double)]): Unit = {
        val lastTemp = lastTempState.value()
        val tempDiff = (reading.temperature - lastTemp).abs
        if (tempDiff > threshold) {
          out.collect((reading.id, reading.temperature, tempDiff))
        }
        this.lastTempState.update(reading.temperature)
      }
    }

    ..

      通过RuntimeContext注册StateDescriptor。StateDescriptor以状态state的名字和存储的数据类型为参数。
      在open()方法中创建state变量。注意复习之前的RichFunction相关知识。
      接下来我们使用了FlatMap with keyed ValueState的快捷方式flatMapWithState实现以上需求。

    val alerts: DataStream[(String, Double, Double)] = keyedSensorData
      .flatMapWithState[(String, Double, Double), Double] {
        case (in: SensorReading, None) =>
          (List.empty, Some(in.temperature))
        case (r: SensorReading, lastTemp: Some[Double]) =>
          val tempDiff = (r.temperature - lastTemp.get).abs
          if (tempDiff > 1.7) {
            (List((r.id, r.temperature, tempDiff)), Some(r.temperature))
          } else {
            (List.empty, Some(r.temperature))
          }
      }

    。。

    2、一致性级别:

      在流处理中,一致性可以分为3个级别:

    • at-most-once: 这其实是没有正确性保障的委婉说法——故障发生之后,计数结果可能丢失。同样的还有udp。
    • at-least-once: 这表示计数结果可能大于正确值,但绝不会小于正确值。也就是说,计数程序在发生故障后可能多算,但是绝不会少算。
    • exactly-once: 这指的是系统保证在发生故障后得到的计数结果与正确值一致。

      曾经,at-least-once非常流行。第一代流处理器(如Storm和Samza)刚问世时只保证at-least-once,原因有二。

    • 保证exactly-once的系统实现起来更复杂。这在基础架构层(决定什么代表正确,以及exactly-once的范围是什么)和实现层都很有挑战性。
    • 流处理系统的早期用户愿意接受框架的局限性,并在应用层想办法弥补(例如使应用程序具有幂等性,或者用批量计算层再做一遍计算)。

      最先保证exactly-once的系统(Storm Trident和Spark Streaming)在性能和表现力这两个方面付出了很大的代价。为了保证exactly-once,这些系统无法单独地对每条记录运用应用逻辑,而是同时处理多条(一批)记录,保证对每一批的处理要么全部成功,要么全部失败。这就导致在得到结果前,必须等待一批记录处理结束。因此,用户经常不得不使用两个流处理框架(一个用来保证exactly-once,另一个用来对每个元素做低延迟处理),结果使基础设施更加复杂。曾经,用户不得不在保证exactly-once与获得低延迟和效率之间权衡利弊。Flink避免了这种权衡。
      Flink的一个重大价值在于,它既保证了exactly-once,也具有低延迟和高吞吐的处理能力。
      从根本上说,Flink通过使自身满足所有需求来避免权衡,它是业界的一次意义重大的技术飞跃。尽管这在外行看来很神奇,但是一旦了解,就会恍然大悟。

    3、端到端(end-to-end)状态一致性

    目前我们看到的一致性保证都是由流处理器实现的,也就是说都是在 Flink 流处理器内部保证的;而在真实应用中,流处理应用除了流处理器以外还包含了数据源(例如 Kafka)和输出到持久化系统。
    端到端的一致性保证,意味着结果的正确性贯穿了整个流处理应用的始终;每一个组件都保证了它自己的一致性,整个端到端的一致性级别取决于所有组件中一致性最弱的组件。具体可以划分如下:

    • 内部保证 —— 依赖checkpoint
    • source 端 —— 需要外部源可重设数据的读取位置
    • sink 端 —— 需要保证从故障恢复时,数据不会重复写入外部系统

      而对于sink端,又有两种具体的实现方式:幂等(Idempotent)写入和事务性(Transactional)写入。

    • 幂等写入

      所谓幂等操作,是说一个操作,可以重复执行很多次,但只导致一次结果更改,也就是说,后面再重复执行就不起作用了。

    • 事务写入

      需要构建事务来写入外部系统,构建的事务对应着 checkpoint,等到 checkpoint 真正完成的时候,才把所有对应的结果写入 sink 系统中。

      对于事务性写入,具体又有两种实现方式:预写日志(WAL)和两阶段提交(2PC)。DataStream API 提供了GenericWriteAheadSink模板类和TwoPhaseCommitSinkFunction 接口,可以方便地实现这两种方式的事务性写入。

      不同 Source 和 Sink 的一致性保证可以用下表说明:

     。。

  • 相关阅读:
    响应式后台管理模版
    js数组、对象、正则
    react视频入门
    JSON.parse() JSON.stringify() eval() jQuery.parseJSON() 的区别
    网站生产app的一些网址
    一个博客总结的css常见的兼容性问题
    Js倒计时
    移动端好的博客
    day_4(element对象、node的属性、操作dom树)
    js的常用对象及方法使用
  • 原文地址:https://www.cnblogs.com/guoyu1/p/14960583.html
Copyright © 2011-2022 走看看