flink实战-实时计算平台通过api停止流任务

参考:

https://blog.csdn.net/zhangjun5965/article/details/106820591

文章目录

背景
随着flink在流计算领域越来越火,很多公司基于flink搭建了自己的实时计算平台,用户可以在实时平台通过jar或者sql的方式来开发、上线、下线、运维flink任务,避免了构建flink任务的复杂性,使更多不会flink的人能够使用flink。
平时我们自己开发一个flink任务之后,都是通过脚本的方式提交到集群的,但是我们搭建了一个实时计算之后,就不能通过命令行来管理任务了,我们今天就主要讲一下如何通过api的方式来和yarn集群交互。
目前生产环境部署flink任务主要有yarn集群和k8s集群两种方式,虽然说k8s号称下一代资源管理系统,但是对于flink来说,还是有很多不太成熟,所以目前部署flink任务还是以yarn集群为主。
yarn集群部署flink任务目前有两种方式

  • yarn session 模式   

session模式是在yarn上面预先启动一个集群,然后我们可以将任务部署到集群上,没有任务的时候集群上没有taskmanager,当有了新的任务之后,系统会自动为其分配资源,当任务结束之后,过一段时间(可配置)系统会自动释放资源,这种集群一般适合运行周期比较短的任务,比如批处理任务。

  • per job 模式

per job模式是每个任务都启动一个flink集群,这种模式的好处就是资源隔离,不互相影响,任务结束之后,释放相应的资源。这种模式启动任务时间长,一般适合运行常驻任务,比如flink流任务.
 

案例详解

今天我们主要讲一下如何通过api的方式来停止一个通过per job模式部署在yarn集群上的任务。

命令行停止

我们在命名行模式下可以通过下面的命令来停止一个部署在yarn的per job模式的flink任务.

${FLINK_HOME}/bin/flink stop -m yarn-cluster -yid application_1592386606716_0005  c8ee546129e8480809ee62a4ce7dd91d

我们看到,主要是有两个参数,一个是yarn的applicationId,还有一个是flink的jobId,执行成功之后,会返回一个类似的结果:

Savepoint completed. Path: hdfs://localhost/flink-savepoints/savepoint-c8ee54-ee7a059c2f98

api实现

其实主要的方法就是构造出上面两个id,然后我们使用ClusterClient来停止flink任务.

  • 添加配置文件
    我们在classpath下添加hadoop和flink的配置文件

flink实战-实时计算平台通过api停止流任务

构造ApplicationId对象

Configuration flinkConfiguration = new Configuration();
        flinkConfiguration.set(YarnConfigOptions.APPLICATION_ID, appId);
        YarnClusterClientFactory clusterClientFactory = new YarnClusterClientFactory();
        ApplicationId applicationId = clusterClientFactory.getClusterId(flinkConfiguration);


构造jobId    

private static JobID parseJobId(String jobIdString) throws CliArgsException{
        if (jobIdString == null){
            throw new CliArgsException("Missing JobId");
        }

        final JobID jobId;
        try {
            jobId = JobID.fromHexString(jobIdString);
        } catch (IllegalArgumentException e){
            throw new CliArgsException(e.getMessage());
        }
        return jobId;
    }

停止任务
通过stopWithSavepoint方法来停止任务,如果savePoint没指定的话,系统将会使用flink配置文件中的state.savepoints.dir选项.
 

    CompletableFuture<String> completableFuture = clusterClient.stopWithSavepoint(
                jobID,
                true,
                savePoint);

        String savepoint = completableFuture.get();
        System.out.println(savepoint);

最后执行完成之后,会返回一个savepoint的地址,和命令行一样,我们可以把这个地址存起来,以便我们后续从这个checkpoint启动。

完整的代码请参考:

https://github.com/zhangjun0x01/bigdata-examples/blob/master/flink/src/main/java/cluster/StopYarnJob.java

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

上一篇:(六)整合 QuartJob ,实现定时器实时管理


下一篇:Qt根据文件后缀名过滤文件