zoukankan      html  css  js  c++  java
  • Flink 容错机制与状态

    简介

    • Apache Flink提供了一种容错机制,可以持续恢复数据流应用程序的状态。
    • 该机制确保即使出现故障,经过恢复,程序的状态也会回到以前的状态。
    • Flink 主持 at least once 语义 和 exactly once 语义
    • Flink 通过定期地做 checkpoint 来实现容错 和 恢复, 容错机制不断地生成数据流的快照, 而不会对性能产生太大的影响。
    • 流应用程序的状态存储在一个可配置的地方(例如主节点或HDFS)
    • 如果出现车程序故障(由于机器、网络或软件故障), Flink 将停止分布式流数据流。
    • 然后系统重新启动 operator, 并将其设置为最近一批的检查点。
    • 注意点:
      • 默认情况下, 禁用checkpoint
      • 要使得容错机制正常运行, 数据流 source 需要能够将流倒回到指定的之前的点。
      • 比如 Apache Kafka 有这种方法, flink与 Kafka 的 connector 可以利用重置 kafka topic 的偏移量来达到数据重新读取的目的。
      • 由于 Flink 的检查点由分布快照实现, 以下的"检查点" 和 "快照" 是同意义的。

    CheckPoint(检查点)

    • Flink 的容错机制的核心部分是生成分布式数据流和operator状态一致的快照。
    • 这些快照充当检查点, 系统可以早发生故障时将其回滚。
    • 分布式快照是由 Chandy-Lamport 算法实现的。
    • Barriers(栅栏)

    恢复

    • Flink 恢复时的机制是十分直接的: 在系统失效时, Flink选择最近的已完成的检查点k, 系统接下来重新部署整个数据流图, 然后给每个Operator 在检查点 k 时的相应状态。
    • 数据源则被设置为从数据流的 Sk 位置开始读取。
    • 例如, 在 Apache Kafka 执行恢复时, 系统会通知消费者从便宜 Sk 开始获取数据。

    先决条件

    • Flink 的 checkpoint机制一般来说, 它需要:
      • 持续的数据源
        • 比如消息队列(Apache Kafka, RabbitMQ) 或文件系统(例如, HDFS, Amazon S3, GFS, NFS, Ceph ......)。
      • 状态存储的持久化
        • 通常是分布式文件系统(HDFS, Amazon S3, GFS, ...)

    启用和配置检查点

    • 默认情况下, flink禁用检查点。

    • 开启 checkpoint 的方式: 调用env.enableCheckpointing(n), 其中 N 是以毫秒为单位的检查点间隔。

    • Checkpoint 的相关参数:

    State Backends(状态反压)

    • 流计算中再以下场景中需要保存状态:

      • 窗口操作
      • 使用了 KV 操作的函数
      • 继承了 CheckpointFunction 的函数
    • 当检查点(checkpoint) 机制启动时, 状态将在检查点中持久化来应对数据丢失以及恢复。

    • 而状态在内部是如何表示的、状态是如何持久化到检查点中以及持久化到哪里都取决于选定的 State Backend。

    • Flink 在保存状态时, 支持3中存储方式:

      • MemoryStateBackend(内存状态反压)
      • FsStateBackend(文件状态反压)
      • RocksDBStateBackend(RocksDB状态反压)
    • 如果没有配置其他任何内容, 系统默认将使用 MemoryStateBackend。

    • MemoryStateBackend

      • 此种存储策略将数据保存在java的堆里,比如:kv的状态或者窗口操作用hash table来保存value等等。

      • 当进行checkpoints的时候,这种策略会对状态做快照,然后将快照作为checkpoint中的一部分发送给JobManager,JM也将其保存在堆中。

      • Memory StateBackend可以使用异步的方式进行快照,官方也鼓励使用异步的方式,避免阻塞,现在默认就是异步。

      • 注意点:

        • 异步快照方式时,operator操作符在做快照的同时也会处理新流入的数据,默认异步方式
        • 同步快照方式:operator操作符在做快照的时候,不会处理新流入的数据,同步快照会增加数据处理的延迟度。
      • 如果不希望异步,可以在构造的时候传入false,如下:

        new MemoryStateBackend(MAX_MEM_STATE_SIZE, false);
        
      • 此策略的限制:

        • 单次状态大小最大默认被限制为5MB,这个值可以通过构造函数来更改。
        • 无论单次状态大小最大被限制为多少,都不可用大过akka的frame大小。
        • 聚合的状态都会写入JM的内存。
      • 适合的场景:

        • 本地开发和调试
        • 状态比较少的作业
    • FsStateBackend

      • 通过文件系统的URL来设置,如下:

        • hdfs://namenode:40010/flink/checkpoints
        • file:///data/flink/checkpoints
      • 当选择FsStateBackend时,会先将数据保存在任务管理器( Task Manager)的内存中。

        • 当做checkpointing的时候,会将状态快照写入文件,保存在文件系统。

        • 少量的元数据会保存在JM的内存中。

        • 默认情况下,FsStateBackend配置为提供异步快照,以避免在写入状态检查点时阻塞处理管道(processing pipeline)。

        • 可以通过将构造函数中相应的boolean标志设置为false来禁用该功能

          new FsStateBackend(path, false);
          
        • 适用场景:

          • 状态比较大, 窗口比较长, 大的 KV 状态
          • 需要做 HA 的场景
    • RockDBStateBackend

      • 通过文件系统的URL来设置, 例如:

        • hdfs://namenode:40010/flink/checkpoints
        • file:///data/flink/checkpoints
      • 此种方式kv state需要由rockdb数据库来管理,这是和内存或file backend最大的不同。

      • RocksDBStateBackend使用RocksDB数据库保存数据,这个数据库保存在TaskManager的数据目录中。

      • 注意:RocksDB,它是一个高性能的Key-Value数据库。数据会放到先内存当中,在一定条件下触发写到磁盘文件上

      • 在 checkpoint时, 整个 RocksDB数据库的数据会快照一份, 然后存到配置的文件系统中(一般是 hdfs)。

      • 同时, Apache Flink将一些最小的元数据存储在 JobManager 的内存或者 Zookeeper 中(对于高可用性情况)。

      • RocksDB默认配置为执行异步快照

      • 适合场景:

        • RocksDBStateBackend是目前唯一可用于支持有状态流处理应用程序的增量检查点。
        • 注意:增量的checkpoint指的是在保存快照时,快照里的数据只要保存差异数据就好。
        • RocksDBStateBackend方式能够持有的状态的多少只取决于可使用的磁盘大小。
        • 相比较MemoryStateBackend将状态保存在内存中,这会允许使用非常大的状态。
        • 但这也同时意味着,这个策略的吞吐量会受限。
      • 代码:

        // 默认使用内存的方式存储状态值, 单词快照的状态上限为10MB, 使用同步方式进行快照。
        env.setStateBackend(new MemeoryStateBackend(10*1024*1024, false));
        
        // 使用 FsStateBackend的方式进行存储, 并且是同步方式进行快照
        env.setStateBackend(new FsStateBackend("hdfs://namenode....", false));
        
        try{
            // 使用 RocksDBStateBackend方式存储, 并采用增量的快照方式进行存储。
            env.setStateBackend(new RocksDBStateBackend("hdfs://namenode....", true));
        } catch(IOException e){
            e.printStackTrace();
        }
        

    Checkpoint使用

    • 程序的运行过程中会每隔env.enableCheckpointing(5000)时间, 产生一个checkpoint快照点。

    • 当使用 hdfs 来存储checkpoint 的快照点状态数据时,

    • 如果程序失败, 我们重启程序时, 可以指明从哪个快照点进行恢复。

      flink-1.9.1/bin/flink run -s hdfs://ronnie01:8020/data/flink-checkpoint/xxxxxxxxxxxxxxx(哈希码)/chk-xxx/ metadata -c com.ronnie.flink.test.checkPointTest flink-test.jar
      
    • 代码:

      package com.ronnie.flink.stream.test;
      
      import org.apache.flink.api.common.functions.FlatMapFunction;
      import org.apache.flink.api.common.restartstrategy.RestartStrategies;
      import org.apache.flink.api.java.tuple.Tuple;
      import org.apache.flink.api.java.tuple.Tuple2;
      import org.apache.flink.contrib.streaming.state.RocksDBStateBackend;
      import org.apache.flink.runtime.state.filesystem.FsStateBackend;
      import org.apache.flink.runtime.state.memory.MemoryStateBackend;
      import org.apache.flink.streaming.api.CheckpointingMode;
      import org.apache.flink.streaming.api.datastream.DataStreamSource;
      import org.apache.flink.streaming.api.datastream.KeyedStream;
      import org.apache.flink.streaming.api.datastream.SingleOutputStreamOperator;
      import org.apache.flink.streaming.api.environment.CheckpointConfig;
      import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
      import org.apache.flink.util.Collector;
      
      import java.io.IOException;
      
      public class CheckPointTest {
      
          public static void main(String[] args) {
              StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
      
              // 启动checkpoint, 并且设置多久进行一次checkpoint, 即两次checkpoint的时间间隔
              env.enableCheckpointing(5000);
      
              env.setParallelism(1);
      
              CheckpointConfig checkpointConfig = env.getCheckpointConfig();
      
              env.setRestartStrategy(RestartStrategies.fallBackRestart());
      
              /* 设置 checkpoint 语义, 一般使用 exactly_once 语义。
               at_least_once 一般在那里非常低的延迟场景使用。*/
              checkpointConfig.setCheckpointingMode(CheckpointingMode.EXACTLY_ONCE);
      
              /*
                  设置检查点之间的2最短时间
                  检查点之间的最短时间: 为确保流应用程序在检查点之间取得一些进展, 可以定义检查点之间需要经过多长时间。
                  如果将此值设置为例如500, 则无论检查点持续时间和检查点间隔如何, 下一个检查点将在上一个检查点完成后的500ms内启动
                  请注意, 这意味检查点间隔永远不会小于此参数。
               */
              checkpointConfig.setMinPauseBetweenCheckpoints(500);
      
              // 设置超时时间, 若本次checkpoint时间超时, 则放弃本次checkpoint操作
              checkpointConfig.setCheckpointTimeout(60000);
      
              /*
                  同一时间最多可以进行多少个checkpoint
                  默认情况下, 当一个检查点仍处于运行状态时, 系统不会触发另一个检查点
               */
              checkpointConfig.setMaxConcurrentCheckpoints(1);
      
              /*开启checkpoints的外部持久化,但是在job失败的时候不会自动清理,需要自己手工清理state
                DELETE_ON_CANCELLATION:在job canceled的时候会自动删除外部的状态数据,但是如果是FAILED的状态则会保留;
                RETAIN_ON_CANCELLATION:在job canceled的时候会保留状态数据
               */
              checkpointConfig.enableExternalizedCheckpoints(CheckpointConfig.ExternalizedCheckpointCleanup.RETAIN_ON_CANCELLATION);
      
              // 默认使用内存的方式存储状态值。单次快照的状态上限内存为10MB, 使用同步方式进行快照。
              env.setStateBackend(new MemoryStateBackend(10*1024*1024, false));
      
              // 使用 FsStateBackend的方式进行存储, 并且是同步方式进行快照
              env.setStateBackend(new FsStateBackend("hdfs://ronnie01:8020/data/flink-checkpoint",false));
      
              try {
                  env.setStateBackend(new RocksDBStateBackend("hdfs://ronnie:8020/data/flink-checkpoint", true));
              } catch (IOException e) {
                  e.printStackTrace();
              }
      //        DataStreamSource<String> dataStreamSource = env.socketTextStream("ronnie01",9999);
      //
      //        SingleOutputStreamOperator<Tuple2<String, Integer>> pairStream = dataStreamSource.flatMap(new FlatMapFunction<String, Tuple2<String, Integer>>() {
      //            @Override
      //            public void flatMap(String value, Collector<Tuple2<String, Integer>> out) throws Exception {
      //                String[] split = value.split(" ");
      //                for (String word : split) {
      //                    System.out.println("--------- lala --------");
      //                    out.collect(new Tuple2<String, Integer>(word, 1));
      //                }
      //            }
      //        });
      //
      //
      //        KeyedStream<Tuple2<String, Integer>, Tuple> keyedStream = pairStream.keyBy(0);
      //
      //
      //        SingleOutputStreamOperator<Tuple2<String, Integer>> sum = keyedStream.sum(1);
      //
      //
      //        sum.print();
      //
      //
      //        try {
      //            //转换算子都是懒执行的,最后要显示调用 执行程序,
      //            env.execute("checkpoint-test");
      //        } catch (Exception e) {
      //            e.printStackTrace();
      //        }
      
          }
      }
      
      

    Savepoint (保存点)

    • Flink的Savepoints与Checkpoints的不同之处在于备份与传统数据库系统中的恢复日志不同。

    • 检查点的主要目的是在job意外失败时提供恢复机制。

    • Checkpoint的生命周期由Flink管理,即Flink创建,拥有和发布Checkpoint - 无需用户交互。

    • 作为一种恢复和定期触发的方法,Checkpoint主要的设计目标是:

      • 创建checkpoint,是轻量级的
      • 尽可能快地恢复
    • 与此相反,Savepoints由用户创建,拥有和删除。

    • 他们一般是有计划的进行手动备份和恢复。

    • 例如,在Flink版本需要更新的时候,或者更改你的流处理逻辑,更改并行性等等。

    • 在这种情况下,我们往往关闭一下流,这就需要我们将流中的状态进行存储,后面重新部署job的时候进行会。

    • 从概念上讲,Savepoints的生成和恢复成本可能更高,并且更多地关注可移植性和对前面提到的作业更改的支持。

    • 使用:

      • 命令:

        flink savepoint jobID target_directory
        
      • 保存当前流的状态到指定目录:

        bin/flink savepoint xxxxxxxx(哈希码) hdfs://ronnie01:8020/data/flink/savepoint
        
      • 重启, 恢复数据流:

        flink-1.9.1/bin/flink run -s hdfs://ronnie01:8020/data/flink/savepoint/savepoint-xxxxx-xxxxxxxxx -c com.ronnie.flink.stream.test.CheckPointTest flink-test.jar
        
  • 相关阅读:
    Xampp 环境问题集合
    linux VI模式下批量修改文件内容
    shell 获取文件名
    shell 遍历所有文件包括子目录
    jmeter java 请求 payload
    [转]postman 官方文档解说
    承上启下——牛腩新闻发布系统总结
    ASP.NET——实现两个下拉框动态联动
    ASP.NET——真假分页
    HTML快速入门
  • 原文地址:https://www.cnblogs.com/ronnieyuan/p/11852116.html
Copyright © 2011-2022 走看看