【Flink】记录Flink 任务单独设置配置文件而不使用集群默认配置的一次实践

前言

我们的大数据环境是 CDP 环境。该环境已经默认添加了Flink on Yarn 的客户端配置。 我们的 Flink 任务类型是 Flink on Yarn 的任务。

默认的配置文件是在 /etc/flink/conf 目录下。如今我们的需求是个别任务提供的配置仅用于配置执行参数,例如影响作业的配置参数,而不是底层集群。

那么我们改如何实现呢。

Flink获取conf目录(Flink配置)的顺序:

  1. 查找FLINK_CONF_DIR环境变量。
  2. 查找.../conf目录。
  3. 查找conf目录。

具体实现

这里我们参考了官网的实现方式,链接如下:

bash 复制代码
https://nightlies.apache.org/flink/flink-docs-release-1.13/docs/deployment/config/

我们这里要实现的功能是对任务自定义 log4j.properties 配置,而不使用集群默认的配置。

可以通过设置环境变量 FLINK_CONF_DIR 来指定 log4j.properties 文件的位置。这样,Flink 将在该目录下查找 log4j.properties 文件并使用其中的配置。

以下是通过环境变量设置 FLINK_CONF_DIR 的例子:

bash 复制代码
export FLINK_CONF_DIR=/path/to/your/config

然后,可以运行 Flink 作业:

bash 复制代码
flink run -c your.main.Class /path/to/your/job.jar

确保 /path/to/your/config 目录中包含正确配置的 log4j.properties 文件。如果没有指定 FLINK_CONF_DIR,Flink 将使用默认的配置。

查看是否生效

当任务成功启动后,我们打开 flink dashbord,点击 Job Manager ,查看 $internal.deployment.config-dir 配置是否更改。

观察 logging.configuration.file 配置是否也变更。

成功。

相关推荐
易营宝15 小时前
多语言网站建设避坑指南:既要“数据同步”,又能“按市场个性化”,别踩这 5 个坑
大数据·人工智能
fanstuck16 小时前
从0到提交,如何用 ChatGPT 全流程参与建模比赛的
大数据·数学建模·语言模型·chatgpt·数据挖掘
春日见16 小时前
vscode代码无法跳转
大数据·人工智能·深度学习·elasticsearch·搜索引擎
萤丰信息17 小时前
AI 筑基・生态共荣:智慧园区的价值重构与未来新途
大数据·运维·人工智能·科技·智慧城市·智慧园区
冰糖猕猴桃19 小时前
【AI】把“大杂烩抽取”拆成多步推理:一个从单提示到多阶段管线的实践案例
大数据·人工智能·ai·提示词·多步推理
才盛智能科技20 小时前
K链通×才盛云:自助KTV品牌从0到1孵化超简单
大数据·人工智能·物联网·自助ktv系统·才盛云
广州赛远20 小时前
IRB2600-201.65特殊机器人防护服清洗工具详解与避坑指南
大数据·人工智能
川西胖墩墩21 小时前
垂直模型价值:专业领域超越通用模型的竞争
大数据·人工智能
Data_Journal21 小时前
如何使用 Python 解析 JSON 数据
大数据·开发语言·前端·数据库·人工智能·php
威胁猎人21 小时前
【黑产大数据】2025年全球KYC攻击风险研究报告
大数据·区块链