Flink源码解析之:Flink On Yarn模式任务提交部署过程解析
Flink源码解析之:Flink On Yarn模式任务提交部署过程解析
一、Flink on Yarn部署模式概述
Apache Hadoop YARN 在许多数据处理框架中都很流行。 Flink 服务提交给 YARN 的 ResourceManager,后者会在 YARN NodeManagers 管理的机器上生成容器。 Flink 将其 JobManager 和 TaskManager 实例部署到这些容器中。
Flink 可根据在 JobManager 上运行的作业所需的处理插槽数量,动态分配和取消分配 TaskManager 资源。
Flink on Yarn的部署模式包括三种方式,Application Mode、Per-Job Mode、Session Mode。对于生成环境来说,更推荐使用Application Mode或Per-Job Mode,因为这两种模式能够提供更好的应用隔离性。
- Application Mode
Application Mode模式将在 YARN 上启动一个 Flink 集群,应用程序 jar 的 main() 方法将在 YARN 的 JobManager 上执行。 应用程序一旦完成,群集就会关闭。 该种方式相比Per-Job模式来说,将应用main()方法的执行,StreamGraph、JobGraph的生成放在了Flink集群侧来实现。 - Per-Job Mode
Per-job 模式将在 YARN 上启动一个 Flink 集群,在客户端生成StreamGraph、JobGraph,并上传依赖项。最后将 JobGraph 提交给 YARN 上的 JobManager。 如果通过—detached参数配置了分离模式,则客户端将在提交被接受后立即停止。 - Session Mode
Session部署模式会在YARN上部署一个长期运行的Flink集群会话,该会话可以接受并执行多个Flink作业。
Session部署模式包含两种操作模式:- attach mode(default):执行
yarn-session.sh文件在Yarn上启动Flink集群,启动后客户端会一致运行,来追踪/监听集群状态。一旦集群异常,客户端会获取异常信息并展示。如果客户端异常终止了,则会发送signal到Flink集群,此时Flink集群同样也会终止。 - detach mode :使用
-d or --detached参数设置。在这种模式下,当执行yarn-session.sh文件在Yarn上启动Flink集群后,客户端会直接返回。要停止 Flink 群集,需要再次调用客户端或 YARN 工具。
- attach mode(default):执行
三种提交模式的对比:
由bin/flink.sh脚本可知,客户端提交过程统一由org.apache.flink.client.cli.CliFronted入口类触发。Per-Job模式和Session模式下Flink应用main方法都会在客户端执行。客户端解析生成JobGraph后会将依赖项和JobGraph序列化后的二进制数据一起发往集群上。当客户端机器上有大量作业提交时,需要大量的网络带宽下载依赖项并将二进制文件发送到集群,会造成客户端消耗大量的资源。尤其在大量用户共享客户端时,问题更加突出。为解决该问题,社区提出了Application模式将Flink应用main方法触发过程后置到了JobManager生成过程中,以此将带宽压力分散到集群各个节点上。
鉴于Application部署模式的优势,本文会以Application部署模式的源码来进行解析,探究Flink以Application模式提交任务到Yarn集群中所经过的大致流程,为我们理解Flink On Yarn的部署有一个更深入和清晰的认识。
二、Flink Application部署模式源码解析
(一)CliFronted入口类
本节以Application部署模式为例,介绍Flink On Yarn的客户端提交源码流程。正如上文说的,由bin/flink.sh脚本可知,客户端提交过程统一由org.apache.flink.client.cli.CliFronted入口类触发,为此,我们首先进入到该方法的源码中,来观察下该入口类的实现逻辑:
/** Submits the job based on the arguments. */
public static void main(final String[] args) {EnvironmentInformation.logEnvironmentInfo(LOG, "Command Line Client", args);// 1. find the configuration directory// 用来获取配置目录,该目录通常包含Flink的配置文件,如flink-conf.yaml。final String configurationDirectory = getConfigurationDirectoryFromEnv();// 2. load the global configuration// 加载flink的全局配置final Configuration configuration =GlobalConfiguration.loadConfiguration(configurationDirectory);// 3. load the custom command lines// 加载自定义的命令行配置final List<CustomCommandLine> customCommandLines =loadCustomCommandLines(configuration, configurationDirectory);int retCode = 31;try {// 实例化了CliFronted对象,CliFronted是Flink为CLI客户端提供的API,它提供了一系列的操作,例如作业的提交,取消,以及打印job的状态等。final CliFrontend cli = new CliFrontend(configuration, customCommandLines);SecurityUtils.install(new SecurityConfiguration(cli.configuration));// 启动Flink作业的入口,parseAndRun方法会解析命令行参数,并启动Flink作业。retCode = SecurityUtils.getInstalledContext().runSecured(() -> cli.parseAndRun(args));} catch (Throwable t) {final Throwable strippedThrowable =ExceptionUtils.stripException(t, UndeclaredThrowableException.class);LOG.error("Fatal error while running command line interface.", strippedThrowable);strippedThrowable.printStackTrace();} finally {System.exit(retCode);}
}
上述代码是CliFronted的入口main方法,该方法首先根据Flink的配置路径加载全局配置,比如flink-conf.xml配置文件,接着加载自定义命令行配置,并实例化了CliFronted对象。CliFronted是Flink为CLI客户端提供的API,它提供了一系列的操作,例如作业的提交,取消,以及打印job的状态等。最后,调用cli.parseAndRun(args)方法,该方法会解析命令行参数,并启动Flink作业。
在parseAndRun方法中,会根据传入参数的第一个参数值来决定Flink集群的部署模式:
run-application:则会进入到CliFronted类的runApplication方法中,执行Application部署流程。run:则会进入到CliFronted类的run方法中,在客户端执行作业的main方法(利用反射来执行)
这也是为什么我在使用命令行以Application模式部署Flink集群时,命令的开始要用以下形式:
/bin/flink run-application -t yarn-application...
(二)runApplication
接下来,我们继续进入到runApplicaiton方法来看看它的实现逻辑:
protected void runApplication(String[] args) throws Exception {LOG.info("Running 'run-application' command.");// 解析传入的命令行参数final Options commandOptions = CliFrontendParser.getRunCommandOptions();final CommandLine commandLine = getCommandLine(commandOptions, args, true);// 如果命令行参数中包含帮助选项(-h/--help),则调用下述方法打印帮助信息并返回if (commandLine.hasOption(HELP_OPTION.getOpt())) {CliFrontendParser.printHelpForRunApplication(customCommandLines);return;}// 验证并获取激活的自定义命令行, CustonCommandLine是Flink用来处理不同部署模式的工具(例如Yarn,Standlone等),以便针对不同模式解析对应的特定设置和参数final CustomCommandLine activeCommandLine =validateAndGetActiveCommandLine(checkNotNull(commandLine));// 初始化ApplicationClusterDeployer实例, 这是Flink用来启动Application的工具final ApplicationDeployer deployer =new ApplicationClusterDeployer(clusterClientServiceLoader);final ProgramOptions programOptions;final Configuration effectiveConfiguration;// No need to set a jarFile path for Pyflink job.if (ProgramOptionsUtils.isPythonEntryPoint(commandLine)) {programOptions = ProgramOptionsUtils.createPythonProgramOptions(commandLine);effectiveConfiguration =getEffectiveConfiguration(activeCommandLine,commandLine,programOptions,Collections.emptyList());} else {programOptions = new ProgramOptions(commandLine);programOptions.validate();final URI uri = PackagedProgramUtils.resolveURI(programOptions.getJarFilePath());effectiveConfiguration =getEffectiveConfiguration(activeCommandLine,commandLine,programOptions,Collections.singletonList(uri.toString()));}// 根据programOptions获取程序参数和入口类名来创建ApplicationConfiguration实例final ApplicationConfiguration applicationConfiguration =new ApplicationConfiguration(programOptions.getProgramArgs(), programOptions.getEntryPointClassName());// 最后调用deployer.run()来运行应用。这一步通常包括联系Flink集群,提交应用程序并安排其在集群中执行。deployer.run(effectiveConfiguration, applicationConfiguration);
}
上述代码的实现流程与原理如下所示:
-
解析命令行参数:首先,调用getCommandLine函数解析传入的命令行参数args。
-
处理帮助选项:如果命令行参数中包含帮助选项(-h/–help),则调用
CliFrontendParser.printHelpForRunApplication打印帮助信息并返回。 -
获取激活的CustomCommandLine:通过
validateAndGetActiveCommandLine函数获取激活的自定义命令行(CustomCommandLine)。CustomCommandLine是Flink用来处理不同部署模式的工具(例如Yarn,Standalone等),以便于针对不同模式解析对应的特定设置和参数。 -
部署器配置:初始化
ApplicationClusterDeployer实例,这是Flink用来启动Application的工具。 -
提取程序选项和计算有效配置:区分Python作业和其他作业,生成对应的
ProgramOptions并验证其有效性。此外,根据激活的命令行、解析得到的命令行参数和程序选项计算出有效的配置(effectiveConfiguration)。 -
构造应用配置:使用从
ProgramOptions中获取的程序参数和入口点类名创建ApplicationConfiguration实例。 -
运行应用:最后,调用
deployer.run()来运行应用。这一步通常包括联系Flink集群,提交应用程序并安排其在集群中执行。
ProgramOptions.entryPointClass的成员值是flink命令行 -c 选项指定的Flink应用入口类com.xxx.xxx.FlinkApplicationDemo,后续会以反射的形式触发main()方法的执行。
(三)ClusterDescriptor.deployApplicationCluster
上面代码中deployer.run(...)方法负责加载Yarn Application模式客户端信息等。
首先代码会根据configuration配置信息来获取ClusterClientFactory对象,获取的逻辑过程是根据configuration配置中的execution.target参数来决定的。
当执行命令行bin/flink run时, execution.target参数对应的枚举值可以如下:
- remote
- local
- yarn-per-job
- yarn-session
- kubernetes-session
当执行命令行bin/flink run-application时,execution.target参数对应的枚举值可以如下: - yarn-application
- kubernetes-application
当execution.target参数为yarn-application时,Flink便会生成相应的YarnClusterClientFactory客户端工厂类,然后调用该工厂类的createClusterDescriptor方法,该方法中会新建YarnClient实例,YarnClient实例负责在客户端提交Flink应用程序,并最终生成ClusterDescriptor实例,该实例包含用于在Yarn上部署Flink集群的部署信息Descriptor。
@Override
public YarnClusterDescriptor createClusterDescriptor(Configuration configuration) {checkNotNull(configuration);final String configurationDirectory = configuration.get(DeploymentOptionsInternal.CONF_DIR);YarnLogConfigUtil.setLogConfigFileInConfig(configuration, configurationDirectory);return getClusterDescriptor(configuration);
}private YarnClusterDescriptor getClusterDescriptor(Configuration configuration) {final YarnClient yarnClient = YarnClient.createYarnClient();final YarnConfiguration yarnConfiguration =Utils.getYarnAndHadoopConfiguration(configuration);yarnClient.init(yarnConfiguration);yarnClient.start();return new YarnClusterDescriptor(configuration,yarnConfiguration,yarnClient,YarnClientYarnClusterInformationRetriever.create(yarnClient),false);
}
有了该实例后,会调用deployApplicationCluster方法来部署Application模式的Flink集群。集群将在提交应用程序时创建,并在应用程序终止时拆除。此外,应用程序用户代码的{@code main()}将在集群上执行,而不是在客户端上执行。
YarnClusterDescriptor.deployApplicationCluster(…)方法调用过程如下:
(1)、YarnClusterDescriptor.deployApplicationCluster(…);进行一些配置和检查,并调用deployInternal(…)方法。
(2)、YarnClusterDescriptor.deployInternal(…);
其中,最重要的方法是deployInternal方法
(四)YarnClusterDescriptor.deployInternal
在该方法中,首先会判断Hadoop集群是否启用了Kerberos安全认证,如果开启了,则Flink会首先确认当前用户是否拥有有效的kerberos凭证。如果无效,则会抛出异常,部署作业失败。
紧接着,进行资源检查和部署模式判断。
在validateClusterResources方法中,会根据配置的JobManager和TaskManager的资源大小与集群资源进行比对。
- 如果JobManager的配置内存大小 < Yarn配置的最小调度分配内存(yarn.scheduler.minimum-allocation-mb参数,默认1024MB),则JobManager的内存大小会设置为该配置值。
- 如果JobManager大小 > YARN 集群能够提供的单个容器的最大资源,则抛出异常:
The cluster does not have the requested resources for the JobManager available! - 如果TaskManager大小 > YARN 集群能够提供的单个容器的最大资源,则抛出异常:
The cluster does not have the requested resources for the TaskManagers available! - 如果TaskManager大小 > 当前YARN集群剩余资源单个任务容器分配的最大资源容量,则会打印告警日志:
The requested amount of memory for the TaskManagers is more than the largest possible YARN container: freeClusterResources.containerLimit - 如果JobManager大小 > 当前YARN集群剩余资源单个任务容器分配的最大资源容量,则会打印告警日志:
The requested amount of memory for the JobManager is more than the largest possible YARN container: freeClusterResources.containerLimit
经过资源检查后,会将最后确定的JobManager和TaskManager资源保存在ClusterSpecification对象中。
在部署模式决定中,Flink 提供了两种部署模式:Detach模式和Non-Detach模式。如果是 Detach模式,Flink 作业提交到YARN后,客户端可以直接退出,而作业将继续在YARN集群上运行。而在 Non-Detach模式下,客户端将持续等待作业执行完成。
然后就到了一个非常重要的方法中:startAppMaster。
会根据上面决定的ClusterSpecification资源实例,启动用于管理Flink作业的Application Master。
startAppMaster方法比较长。
这段代码主要是用于启动Flink在YARN集群上的Application Master的过程,代码中包含了几个主要部分:
- 首先,核心的首步骤是初始化文件系统并获取对应的 FileSystem 实例。代码检查了文件系统的类型,如果是本地文件系统类型(file://开头),会抛出警告,因为Flink在YARN上运行需要分布式文件系统来存储文件。
- 然后,获取了用于提交应用程序的 ApplicationSubmissionContext,并将 Flink 应用所需的各种文件如jar包、配置文件等上传到HDFS,并将这些文件的HDFS路径作为本地资源 (LocalResources)添加到ApplicationSubmissionContext里。
- 在文件上传阶段,包括了一系列复杂的步骤,首先是将 flink 配置、job graph、用户 jar、依赖库等上传到HDFS,并将这些文件的路径添加到应用的classpath;其次,如果设置了 security options(例如,Kerberos认证信息),会将相关文件也上传到HDFS;并且,对配置了Kerberos认证的 flink 应用,会从 YARN 获取 HDFS delegation tokens。
- 在收集完上述一系列依赖文件后,final ContainerLaunchContext amContainer = setupApplicationMasterContainer(yarnClusterEntrypoint, hasKrb5, processSpec) 负责设置启动ApplicationMaster的命令操作。
- 设置ApplicationMaster的环境变量,诸如_FLINK_CLASSPATH、_FLINK_DIST_JAR(Flink jar resource location (in HDFS))、KRB5_PATH、_YARN_SITE_XML_PATH等环境变量。最后调用
amContainer.setEnvironment(appMasterEnv);方法进行设置。 - 接着,会将上述配置好的
amContainer实例放入ApplicationSubmissionContext对象中,以及ApplicationName和所需的资源大小,最终交给交给YarnClient去提交,并随后通过周期性地获取应用状态,来等待应用处于RUNNING或FINISHED状态,完成应用的提交过程。 - 如果在这一系列操作中有任何异常或错误发生,会触发失败保护钩子 DeploymentFailureHook,进行必要的清理工作。
上面这段代码体现了 Flink on YARN 的工作原理,Flink 通过 YARN Client 提交应用,启动 Application Master 来进行资源申请和任务调度,这是典型的 YARN 应用程序模型。各种文件(包括 flink 本身、用户 jar、配置文件等)都被上传到HDFS,然后再从HDFS分发到运行任务的 YARN 容器中,这样做是为了实现文件的分布式共享,并且利用了 YARN 的 LocalResource 机制来进行文件的分发。
对于第四点中的setupApplicationMasterContainer方法,该方法构造了ApplicationMaster的命令行启动命令,如下所示:
ContainerLaunchContext setupApplicationMasterContainer(String yarnClusterEntrypoint, boolean hasKrb5, JobManagerProcessSpec processSpec) {// ------------------ Prepare Application Master Container ------------------------------// respect custom JVM options in the YAML fileString javaOpts = flinkConfiguration.getString(CoreOptions.FLINK_JVM_OPTIONS);if (flinkConfiguration.getString(CoreOptions.FLINK_JM_JVM_OPTIONS).length() > 0) {javaOpts += " " + flinkConfiguration.getString(CoreOptions.FLINK_JM_JVM_OPTIONS);}// krb5.conf file will be available as local resource in JM/TM containerif (hasKrb5) {javaOpts += " -Djava.security.krb5.conf=krb5.conf";}// Set up the container launch context for the application masterContainerLaunchContext amContainer = Records.newRecord(ContainerLaunchContext.class);final Map<String, String> startCommandValues = new HashMap<>();startCommandValues.put("java", "$JAVA_HOME/bin/java");String jvmHeapMem =JobManagerProcessUtils.generateJvmParametersStr(processSpec, flinkConfiguration);startCommandValues.put("jvmmem", jvmHeapMem);startCommandValues.put("jvmopts", javaOpts);startCommandValues.put("logging", YarnLogConfigUtil.getLoggingYarnCommand(flinkConfiguration));startCommandValues.put("class", yarnClusterEntrypoint);startCommandValues.put("redirects","1> "+ ApplicationConstants.LOG_DIR_EXPANSION_VAR+ "/jobmanager.out "+ "2> "+ ApplicationConstants.LOG_DIR_EXPANSION_VAR+ "/jobmanager.err");String dynamicParameterListStr =JobManagerProcessUtils.generateDynamicConfigsStr(processSpec);startCommandValues.put("args", dynamicParameterListStr);final String commandTemplate =flinkConfiguration.getString(ConfigConstants.YARN_CONTAINER_START_COMMAND_TEMPLATE,ConfigConstants.DEFAULT_YARN_CONTAINER_START_COMMAND_TEMPLATE);final String amCommand =BootstrapTools.getStartCommand(commandTemplate, startCommandValues);amContainer.setCommands(Collections.singletonList(amCommand));LOG.debug("Application Master start command: " + amCommand);return amContainer;
}
启动命令的参数包括以下部分:
- “java”:Java二进制文件的路径。一般来说,在YARN容器中,Java的路径会被设置为$JAVA_HOME/bin/java。
- “jvmmem”:JVM参数,主要是内存参数,比如最大堆内存、最小堆内存等。这些参数会基于Flink配置以及JobManager的内存配置来生成。
- “jvmopts”:JVM选项。这些选项来自Flink配置文件中设置的JVM选项,以及若存在Kerberos krb5.conf文件,还会添加-Djava.security.krb5.conf=krb5.conf。
- “logging”:日志配置项,用于配置Flink的日志选项。
- “class”:启动类,即YARN集群入口点类名(yarnClusterEntrypoint)。
- “redirects”:输出重定向的参数,将stdout(输出流)和stderr(错误流)重定向到日志文件中。
- “args”:传递给启动类的参数,主要是JobManager的动态配置参数。
⠀这些参数最后会填入一个启动命令模板(通常为"%java% %jvmmem% %jvmopts% %logging% %class% %args% %redirects%"),来生成实际启动Flink应用的命令。
启动后的ApplicationMaster,在YARN集群上起着以下的关键作用:
- 作为应用程序的主控制器,管理和监视应用程序的执行。
- 负责请求YARN ResourceManager分配所需的资源(例如容器)。
- 启动和监视任务执行器(TaskExecutor),它们在分配的容器中运行。
- 与Flink的client(例如命令行界面或Web界面)以及ResourceManager进行交互,提供应用程序的状态和进度信息。
- 在应用程序出现异常或失败时,它可以选择重新请求资源并重启失败的任务,提供了一定程度的错误恢复能力。
⠀因此,Application Master是Flink在YARN上运行的关键组件,它负责管理Flink应用程序的生命周期和资源。
(五)YarnApplicationClusterEntryPoint
在上面的setupApplicationMasterContainer方法中,我们说该方法构建了ApplicationMaster的启动命令。从该命令行中可以看到,命令行的启动入口类为yarnClusterEntrypoint参数,对于Yarn Application部署模式来说,参数对应的入口类即为YarnApplicationClusterEntryPoint。在第四部分的分析中,当通过yarnClient将ApplicationMaster提交到Yarn集群后,便会申请Container来执行ApplicationMaster,执行该入口类。
为此,接下来我们来分析一下,YarnApplicationClusterEntryPoint入口类的执行逻辑。
public static void main(final String[] args) {// startup checks and loggingEnvironmentInformation.logEnvironmentInfo(LOG, YarnApplicationClusterEntryPoint.class.getSimpleName(), args);SignalHandler.register(LOG);JvmShutdownSafeguard.installAsShutdownHook(LOG);Map<String, String> env = System.getenv();// 获取工作路径final String workingDirectory = env.get(ApplicationConstants.Environment.PWD.key());Preconditions.checkArgument(workingDirectory != null,"Working directory variable (%s) not set",ApplicationConstants.Environment.PWD.key());try {YarnEntrypointUtils.logYarnEnvironmentInformation(env, LOG);} catch (IOException e) {LOG.warn("Could not log YARN environment information.", e);}final Configuration dynamicParameters =ClusterEntrypointUtils.parseParametersOrExit(args,new DynamicParametersConfigurationParserFactory(),YarnApplicationClusterEntryPoint.class);final Configuration configuration =YarnEntrypointUtils.loadConfiguration(workingDirectory, dynamicParameters, env);PackagedProgram program = null;try {// 获取用户应用程序jar,程序参数、入口类名等信息,封装为PackagedProgram实例program = getPackagedProgram(configuration);} catch (Exception e) {LOG.error("Could not create application program.", e);System.exit(1);}try {configureExecution(configuration, program);} catch (Exception e) {LOG.error("Could not apply application configuration.", e);System.exit(1);}YarnApplicationClusterEntryPoint yarnApplicationClusterEntrypoint =new YarnApplicationClusterEntryPoint(configuration, program);// 执行Application Cluster
ClusterEntrypoint.runClusterEntrypoint(yarnApplicationClusterEntrypoint);
}
上面这段代码中,使用getPackagedProgram(configuration)方法获取用户应用程序jar,程序参数、入口类名等信息,封装为PackagedProgram实例,便于后续调用。
最后,调用runClusterEntrypoint方法,启动执行Application Cluster集群。
ClusterEntrypoint.runClusterEntrypoint(...)方法的调用链路如下:
ClusterEntrypoint.runClusterEntrypoint(...)ClusterEntrypoint.startCluster(...)ClusterEntrypoint.runCluster(...)DispatcherResourceManagerComponentFactory.create(…)
在DispatcherResourceManagerComponentFactory.create方法中,启动了一系列服务,比如:
- LeaderRetrievalService
- WebMonitorEndpoint
- ResourceManagerService
- DispatcherRunner
本流程中主要需要关注的服务是DispatcherRunner,该方法中,会调用dispatcherRunnerFactory.createDispatcherRunner来初始化dispatchRunner实例,dispatcherRunner实例负责dispatcher组件的高可用leader选举操作,同时dispatcher组件负责触发Flink用户应用main(…)方法执行。
在创建DispatchRunner的过程中,包含高可用Leader选举过程,经过一系列的方法链调用,会选举出一个Leader DispatchRunner服务来负责后续的处理流程。
DispatcherResourceManagerComponentFactory.createDispatcherRunnerDefaultDispatcherRunner.create()DispatcherRunnerLeaderElectionLifecycleManager.createFor()DefaultLeaderElectionService.start()LeaderElectionDriverFactory.createLeaderElectionDriver()new ZooKeeperLeaderElectionDriverLeaderLatch.start()LeaderLatch.internalStart()LeaderLatch.reset()LeaderLatch.setLeadership()ZooKeeperLeaderElectionDriver.isLeader()DefaultLeaderElectionService.onGrantLeadership()DefaultDispatcherRunner.grantLeadership()DefaultDispatcherRunner.startNewDispatcherLeaderProcess()
选举为leader的DefaultDispatcherRunner实例候选者在回调动作过程中会一直调用到上面的grantLeadership(…)方法,并在startNewDispatcherLeaderProcess(…)方法中生成dispatcherLeaderProcess,表示一个Ledaer Dispatcher进程来提供服务,并通过newDispatcherLeaderProcess::start方法来启动执行该服务的后续处理流程。Leader候选者回调动作触发过程会另起篇幅详细讲解,此处先这样理解。
在后续的处理流程中,我们需要关注的点是在何时触发用户应用程序的main方法执行,为此,继续深入以下调用链:
AbstractDispatcherLeaderProcess.startInternal()SessionDispatcherLeaderProcess.onStart()SessionDispatcherLeaderProcess.createDispatcherIfRunning()SessionDispatcherLeaderProcess.createDispatcher()ApplicationDispatcherGatewayServiceFactory.create()new ApplicationDispatcherBootstrap(...)
上述调用链中,createDispatcher(…)方法会调用dispatcherGatewayServiceFactory.create(…)方法,dispatcherGatewayServiceFactory实际类型是ApplicationDispatcherGatewayServiceFactory。在dispatcherGatewayServiceFactory.create(…)方法中新建ApplicationDispatcherBootstrap实例。
在ApplicationDispatcherBootstrap实例中,继续通过以下方法调用链fixJobIdAndRunApplicationAsync(…) -> runApplicationAsync(…) -> runApplicationEntryPoint(…) -> ClientUtils.executeProgram(…) -> program.invokeInteractiveModeForExecution() -> callMainMethod(mainClass, args) -> mainMethod.invoke(null, (Object) args)触发Flink应用main(…)方法的执行。
ApplicationDispatcherBootstrap.fixJobIdAndRunApplicationAsync()ApplicationDispatcherBootstrap.runApplicationAsync()ApplicationDispatcherBootstrap.runApplicationEntryPoint()ClientUtils.executeProgram()PackagedProgram.invokeInteractiveModeForExecution()PackagedProgram.callMainMethod()mainMethod.invoke(null, (Object) args);
最终,在ApplicationDispatcherBootstrap类的实现中,我们找到了用户应用程序的main方法执行入口。
三、回顾与总结
回顾一下上面的整体流程,首先,我们通过ApplicationMaster的启动命令,找到AM组建执行的入口类为YarnApplicationClusterEntryPoint,接着,在启动集群时,我们发现Flink会初始化一些诸如LeaderRetrievalService、WebMonitorEndpoint、ResourceManagerService、DispatcherRunner的服务,这些服务分别发挥不同的用途,与Yarn和Flink集群进行交互。在本次分析过程中,我们着重探究了DispatcherRunner服务的创建流程。
首先,会执行高可用的选举流程,最终选举出一个Leader DispatcherRunner来执行服务。选举完成后,该Leader DispatchRunner会调用ClientUtils.executeProgram方法,从封装好的PackagedProgram实例中,获取用户应用程序的入口类mainClass以及程序入参,并最终利用反射触发mainClass的main方法的执行,完成用户自定义Flink应用的执行。
以上就是主要的Flink On Yarn客户端作业的提交过程解析。这个提交过程相对来说还是比较复杂的,包含着很多部署配置参数,资源以及权限的校验和分配,ApplicationMaster的提交启动,并伴随AM启动后执行的一系列Flink服务初始化,以及我们关心的用户应用程序的调用入口,发现了在Application的部署模式下,用户应用程序的调用是在集群侧,也就是Leader DispatchRunner服务中完成的。
当然,DispatchRunner服务负责的任务远不止于此,上述流程中还有更多的细节等待我们去挖掘和学习,这篇文章可能只是让我们对提交流程有了一个初步的大体认识,对于更多深入的部分,需要我们不断思考不断挖掘,也欢迎大家交流观点和看法,感谢!
相关文章:
Flink源码解析之:Flink On Yarn模式任务提交部署过程解析
Flink源码解析之:Flink On Yarn模式任务提交部署过程解析 一、Flink on Yarn部署模式概述 Apache Hadoop YARN 在许多数据处理框架中都很流行。 Flink 服务提交给 YARN 的 ResourceManager,后者会在 YARN NodeManagers 管理的机器上生成容器。 Flink 将…...
吊舱激光测距核心技术详解!
一、核心技术 吊舱激光测距的核心技术主要体现在激光发射与接收、信号处理与距离计算、以及数据校正与优化等方面。 激光发射与接收: 激光发射器:产生经过调制的激光束,该激光束具有特定的频率和波形。这些激光束被投射到目标物体上。 光…...
[ZJCTF 2019]NiZhuanSiWei
检查通过 file_get_contents 函数读取 $text 变量指定的文件内容是否等于字符串 "welcome to the zjctf"。 测试了一下直接传参,然后进入下一阶段,通过php伪协议读取useless.php发现不行,我们使用data协议将其输入进去试试 读取到…...
Kafka配置公网或NLB访问(TCP代理)
这套配置适用于TCP代理和公网访问 分几种场景,正常来说我们直接使用kafka IP地址访问就行,考虑到网络架构和环境安全,需要使用公网或代理访问kafka时就需要对kafka进行一些额外配置 EXTERNAL这个地址需要监听本地地址,之后kafka…...
大模型推理:vllm多机多卡分布式本地部署
文章目录 1、vLLM分布式部署 docker镜像构建通信环境配置 2、其他大模型部署工具3、问题记录参考文献 单台机器GPU资源不足以执行推理任务时,一个方法是模型蒸馏量化,结果就是会牺牲些效果。另一种方式是采用多台机器多个GPU进行推理,资源不…...
clickhouse-backup配置及使用(Linux)
一、下载地址 Releases Altinity/clickhouse-backup GitHub 二、上传到服务器解压安装 自行上传至服务器,解压命令: tar xvf clickhouse-backup-linux-amd64.tar.gz 三、创建软连接 sudo ln -sv build/linux/amd64/clickhouse-backup /usr/local/bin/…...
【YashanDB知识库】启动yasom时报错:sqlite connection error
本文内容来自YashanDB官网,原文内容请见 https://www.yashandb.com/newsinfo/7817893.html?templateId1718516 【标题】启动yasom时报错:sqlite connection error 【问题分类】安装部署 【关键字】错误码sqlite3.Error、yasom启动失败、共享集群 、u…...
JAVA学习笔记_Redis进阶
文章目录 初识redisredis简介windows启动redis服务器linux启动redis服务器图形用户界面客户端RDM redis命令常用数据类型特殊类型字符串操作命令Key的层级格式哈希操作命令列表操作命令集合操作命令有序集合操作命令通用命令 java客户端Jedisjedis连接池SpringDataRedis序列化手…...
LabVIEW手部运动机能实验系统
在运动科学、人机交互和康复训练等领域,手部运动功能的研究具有重要的应用价值。开发了一个基于LabVIEW的手部运动机能实验系统设计,该系统利用力量作为关键参数,通过实时数据采集和反馈帮助受试者完成精确的手部动作,同时为研究人…...
SpringBoot的注解@SpringBootApplication及自动装配
目录 一、pom文件 二、SpringBootApplication注解 1.SpringBootApplication 2.Configuration 3.这个启动类也可以被看成是一个配置类 三、SpringBootApplication注解2 1.SpringBootConfiguration 2.Configuration 3.EnableAutoConfiguration!!&…...
STM32学习之EXTI外部中断(以对外式红外传感器 / 旋转编码器为例)
中断:在主程序运行过程中,出现了特定的中断触发条件(中断源),使得CPU暂停当前正在运行的程序,转而去处理中断程序处理完成后又返回原来被暂停的位置继续运行 中断优先级:当有多个中断源同时申请中断时,CPU会根据中断源的轻重缓急…...
数字赋能:制造企业如何靠“数字能力”实现可持续“超车”?
如今,制造业数字化转型可是个热门话题,全球都在积极推进。我国更是出台了一系列给力的政策来助力制造业数字化转型,像《中国制造 2025》就明确提出要加快制造业数字化、网络化、智能化发展,各省市也纷纷响应,从资金、税…...
.NET在中国的就业前景:开源与跨平台带来的新机遇
随着技术的不断发展和市场需求的变化,.NET在中国的就业前景正变得愈加广阔。尤其是在开源和跨平台的推动下,越来越多的中国中小型企业选择了.NET技术作为其开发平台,进一步提升了.NET技术人才的市场需求。尽管在中国市场,.NET的市…...
【基础篇】一、MySQL数据库基础知识
文章目录 Ⅰ. 什么是数据库1、普通文件的缺点2、数据库的概念3、主流数据库4、MySQL Ⅱ. MySQL中客户端、服务端、数据库的关系Ⅲ. 见一见数据库1、数据库文件存放的位置2、创建数据库3、使用数据库4、创建数据库表结构5、表中插入数据6、查询表中数据7、数据的存储逻辑 &#…...
预训练深度双向 Transformers 做语言理解
大家读完觉得有意义记得关注和点赞!!! 与 GPT 一样,BERT 也基于 transformer 架构, 从诞生时间来说,它位于 GPT-1 和 GPT-2 之间,是有代表性的现代 transformer 之一, 现在仍然在很多…...
理解js闭包,原型,原型链
闭包 一个函数嵌套了另一个函数,内部函数引用了外部函数的变量,这样,当外部函数在执行环境中执行完毕后,因为某个变量被引用就无法被GC回收,导致这个变量会一直保持在内存中不能被释放。因此可以用来封装一个私有变量…...
linux tar 文件解压压缩
文件压缩和解压 tar -c: 建立压缩档案 -x:解压 -t:查看内容 -r:向压缩归档文件末尾追加文件 -u:更新原压缩包中的文件 -z:有gzip属性的 -j:有bz2属性的 -v:显示所有过程 -O:…...
【SQL server】教材数据库(5)
使用教材数据库(1)中的数据表完成以下题目: 1 根据上面基本表的信息定义视图显示每个学生姓名、应缴书费 2 观察基本表数据变化时,视图中数据的变化。 3利用视图,查询交费最高的学生。 1、create view 学生应缴费视…...
Oracle 11G还有新BUG?ORACLE 表空间迷案!
前段时间遇到一个奇葩的问题,在开了SR和oracle support追踪两周以后才算是有了不算完美的结果,在这里整理出来给大家分享。 1.问题描述 12/13我司某基地MES全厂停线,系统卡死不可用,通知到我排查,查看alert log看到是…...
java实现预览服务器文件,不进行下载,并增加水印效果
通过文件路径获取文件,对不同类型的文件进行不同处理,将Word文件转成pdf文件预览,并早呢更加水印,暂不支持Excel文件,如果浏览器不支持PDF文件预览需要下载插件。文中currentUser.getUserid(),即为增加的水…...
React 第五十五节 Router 中 useAsyncError的使用详解
前言 useAsyncError 是 React Router v6.4 引入的一个钩子,用于处理异步操作(如数据加载)中的错误。下面我将详细解释其用途并提供代码示例。 一、useAsyncError 用途 处理异步错误:捕获在 loader 或 action 中发生的异步错误替…...
Cursor实现用excel数据填充word模版的方法
cursor主页:https://www.cursor.com/ 任务目标:把excel格式的数据里的单元格,按照某一个固定模版填充到word中 文章目录 注意事项逐步生成程序1. 确定格式2. 调试程序 注意事项 直接给一个excel文件和最终呈现的word文件的示例,…...
Zustand 状态管理库:极简而强大的解决方案
Zustand 是一个轻量级、快速和可扩展的状态管理库,特别适合 React 应用。它以简洁的 API 和高效的性能解决了 Redux 等状态管理方案中的繁琐问题。 核心优势对比 基本使用指南 1. 创建 Store // store.js import create from zustandconst useStore create((set)…...
【WiFi帧结构】
文章目录 帧结构MAC头部管理帧 帧结构 Wi-Fi的帧分为三部分组成:MAC头部frame bodyFCS,其中MAC是固定格式的,frame body是可变长度。 MAC头部有frame control,duration,address1,address2,addre…...
安宝特方案丨XRSOP人员作业标准化管理平台:AR智慧点检验收套件
在选煤厂、化工厂、钢铁厂等过程生产型企业,其生产设备的运行效率和非计划停机对工业制造效益有较大影响。 随着企业自动化和智能化建设的推进,需提前预防假检、错检、漏检,推动智慧生产运维系统数据的流动和现场赋能应用。同时,…...
IGP(Interior Gateway Protocol,内部网关协议)
IGP(Interior Gateway Protocol,内部网关协议) 是一种用于在一个自治系统(AS)内部传递路由信息的路由协议,主要用于在一个组织或机构的内部网络中决定数据包的最佳路径。与用于自治系统之间通信的 EGP&…...
linux arm系统烧录
1、打开瑞芯微程序 2、按住linux arm 的 recover按键 插入电源 3、当瑞芯微检测到有设备 4、松开recover按键 5、选择升级固件 6、点击固件选择本地刷机的linux arm 镜像 7、点击升级 (忘了有没有这步了 估计有) 刷机程序 和 镜像 就不提供了。要刷的时…...
leetcodeSQL解题:3564. 季节性销售分析
leetcodeSQL解题:3564. 季节性销售分析 题目: 表:sales ---------------------- | Column Name | Type | ---------------------- | sale_id | int | | product_id | int | | sale_date | date | | quantity | int | | price | decimal | -…...
Ascend NPU上适配Step-Audio模型
1 概述 1.1 简述 Step-Audio 是业界首个集语音理解与生成控制一体化的产品级开源实时语音对话系统,支持多语言对话(如 中文,英文,日语),语音情感(如 开心,悲伤)&#x…...
Maven 概述、安装、配置、仓库、私服详解
目录 1、Maven 概述 1.1 Maven 的定义 1.2 Maven 解决的问题 1.3 Maven 的核心特性与优势 2、Maven 安装 2.1 下载 Maven 2.2 安装配置 Maven 2.3 测试安装 2.4 修改 Maven 本地仓库的默认路径 3、Maven 配置 3.1 配置本地仓库 3.2 配置 JDK 3.3 IDEA 配置本地 Ma…...
