Flink:状态管理

Fink中的状态

Flink:状态管理

由一个任务维护,并且用来计算某个结果的所有数据,都属于这个任务的状态

可以认为状态就是一个本地变量,可以被任务的业务逻辑访问

Flink 会进行状态管理,包括状态一致性、故障处理以及高效存储和访问,以便开发人员可以专注于应用程序的逻辑

在 Flink 中,状态始终与特定算子相关联

为了使运行时的 Flink 了解算子的状态,算子需要预先注册其状态

总的说来,有两种类型的状态:

  • 算子状态(Operator State):算子状态的作用范围限定为算子任务
  • 键控状态(Keyed State):根据输入数据流中定义的键(key)来维护和访问

算子状态

Flink:状态管理

算子状态的作用范围限定为算子任务,由同一并行任务所处理的所有数据都可以访问到相同的状态

状态对于同一子任务而言是共享的

算子状态不能由相同或不同算子的另一个子任务访问

算子状态数据结构

  • 列表状态(List state):将状态表示为一组数据的列表
  • 联合列表状态(Union list state):也将状态表示为数据的列表。它与常规列表状态的区别在于,在发生故 障时,或者从保存点(savepoint)启动应用程序时如何恢复
  • 广播状态(Broadcast state):如果一个算子有多项任务,而它的每项任务状态又都相同,那么这种特 殊情况最适合应用广播状态。

代码测试:

    public static void main(String[] args) throws Exception {
        StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
        env.setParallelism(3);
        DataStream<String> inputStream = env.readTextFile("D:\\project\\flink-demo\\src\\main\\resources\\sensor.txt");

        DataStream<SensorReading> mapStream = inputStream.map((str) -> {
            String[] split = str.split(" ");
            return new SensorReading(split[0], Long.parseLong(split[1]), Double.parseDouble(split[2]));
        });

        //定义一个有状态的map操作,统计当前分区的数据个数
        SingleOutputStreamOperator<Integer> result = mapStream.map(new MyFunction());
        result.print();

        env.execute();
    }

    public static class MyFunction implements MapFunction<SensorReading, Integer>, ListCheckpointed<Integer> {
        //定义本地变量,作为算子状态
        private Integer count = 0;

        @Override
        public Integer map(SensorReading value) throws Exception {
            ++count;
            return count;
        }

        //做一个快照
        @Override
        public List<Integer> snapshotState(long checkpointId, long timestamp) throws Exception {
            return Collections.singletonList(count);
        }

        @Override
        public void restoreState(List<Integer> state) {
            for (Integer integer : state) {
                count += integer;
            }
        }
    }

Flink:状态管理

键控状态(Keyed State)

Flink:状态管理

键控状态是根据输入数据流中定义的键(key)来维护和访问的

Flink 为每个 key 维护一个状态实例,并将具有相同键的所有数据,都分区到同一个算子任务中,这个任务会维护和处理这个 key 对应的状态

当任务处理一条数据时,它会自动将状态的访问范围限定为当前数据的key

键控状态数据结构

值状态(Value state):值状态(Value state)

列表状态(List state):将状态表示为一组数据的列表

映射状态(Map state):映射状态(Map state)

聚合状态(Reducing state & Aggregating State):将状态表示为一个用于聚合操作的列表

键控状态的使用

    public static void main(String[] args) throws Exception {
        StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
        env.setParallelism(4);
        DataStream<String> inputStream = env.readTextFile("D:\\project\\flink-demo\\src\\main\\resources\\sensor.txt");

        DataStream<SensorReading> mapStream = inputStream.map((str) -> {
            String[] split = str.split(" ");
            return new SensorReading(split[0], Long.parseLong(split[1]), Double.parseDouble(split[2]));
        });

        //定义一个有状态的map操作,统计当前分区的数据个数
        SingleOutputStreamOperator<Integer> result = mapStream
                .keyBy("id")
                .map(new MyKeyCountMapper());
        result.print();

        env.execute();
    }

    private static class MyKeyCountMapper extends RichMapFunction<SensorReading, Integer> {

        private ValueState<Integer> keyCountState = null;

        private ListState<String> myList = null;

        @Override
        public void open(Configuration parameters) throws Exception {
            keyCountState =
                    getRuntimeContext().getState(new ValueStateDescriptor<>("keycount", Integer.class, 0));

            myList =
                    getRuntimeContext().getListState(new ListStateDescriptor<String>("list", String.class));
        }

        @Override
        public Integer map(SensorReading value) throws Exception {

            Integer count = keyCountState.value();
            count += 1;
            keyCountState.update(count);

            myList.add("java");
            //读取
            for (String string : myList.get()) {
                System.out.println(string);
            }

            return count;
        }
    }

Flink:状态管理

状态编程:温度跳变报警

我们可以利用keyed state实现这样的需求:检测传感器的温度值,如果连续的两个温度值超过10度,就输出报警。

代码实现如下:

    public static void main(String[] args) throws Exception {
        StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
        env.setParallelism(4);
        //DataStream<String> inputStream = env.readTextFile("D:\\project\\flink-demo\\src\\main\\resources\\sensor.txt");
        DataStreamSource<String> inputStream = env.socketTextStream("192.168.1.43", 7777);

        DataStream<SensorReading> mapStream = inputStream.map((str) -> {
            String[] split = str.split(" ");
            return new SensorReading(split[0], Long.parseLong(split[1]), Double.parseDouble(split[2]));
        });

        //定义一个有状态的map操作,统计当前分区的数据个数
        SingleOutputStreamOperator<Tuple3<String, Double, Double>> result = mapStream
                .keyBy("id")
                .flatMap(new TempWarning(10.0));
        result.print();

        env.execute();
    }

    public static class TempWarning  extends RichFlatMapFunction<SensorReading, Tuple3<String, Double,Double>> {

        //温度跳变阈值
        private Double threshold;

        public TempWarning(Double threshold) {
            this.threshold = threshold;
        }

        //上一次的温度值
        private ValueState<Double> lastTemp;

        @Override
        public void open(Configuration parameters) throws Exception {
            lastTemp =
                    getRuntimeContext().getState(new ValueStateDescriptor<>("last-temp", Double.class));
        }

        @Override
        public void flatMap(SensorReading value, Collector<Tuple3<String, Double, Double>> out) throws Exception {
            Double last = lastTemp.value();
            if (last != null){
                double diff = Math.abs(value.getTemperature() - last);
                if (diff >= threshold)
                    out.collect(new Tuple3<>(value.getId(), last, value.getTemperature()));
            }
            lastTemp.update(value.getTemperature());
        }
    }

效果:

Flink:状态管理

状态后端(State Backends)

每传入一条数据,有状态的算子任务都会读取和更新状态。

由于有效的状态访问对于处理数据的低延迟至关重要,因此每个并行任务都会在本地维护其状态,以确保快速的状态访问。

状态的存储、访问以及维护,由一个可插入的组件决定,这个组件就叫做状态后端(state backend)

状态后端主要负责两件事:本地的状态管理,以及将检查点(checkpoint)状态写入远程存储。

选择一个状态后端

  • MemoryStateBackend
    • 内存级的状态后端,会将键控状态作为内存中的对象进行管理,将它们存储在 TaskManager 的JVM 堆上,而将 checkpoint 存储在 JobManager 的内存中
    • 特点:快速、低延迟,但不稳定
  • FsStateBackend
    • 将 checkpoint 存到远程的持久化文件系统(FileSystem)上,而对于本地状态,跟 MemoryStateBackend 一样,也会存在 TaskManager 的 JVM 堆上
    • 同时拥有内存级的本地访问速度,和更好的容错保证
  • RocksDBStateBackend
    • 将所有状态序列化后,存入本地的 RocksDB 中存储。

集群配置:

Flink:状态管理

手动代码设置状态后端:

env.setStateBackend(new MemoryStateBackend());

设置RocksDB状态后端,需要先导入依赖:

        <dependency>
            <groupId>org.apache.flink</groupId>
            <artifactId>flink-statebackend-rocksdb_2.12</artifactId>
            <version>1.10.1</version>
        </dependency>

然后设置环境:

env.setStateBackend(new RocksDBStateBackend(""));
上一篇:【661】Python split 指定多个分隔符


下一篇:【Python】线程池套协程池的简单实现