【Flink】记录Flink 任务单独设置配置文件而不使用集群默认配置的一次实践

前言

我们的大数据环境是 CDP 环境。该环境已经默认添加了Flink on Yarn 的客户端配置。 我们的 Flink 任务类型是 Flink on Yarn 的任务。

默认的配置文件是在 /etc/flink/conf 目录下。如今我们的需求是个别任务提供的配置仅用于配置执行参数,例如影响作业的配置参数,而不是底层集群。

那么我们改如何实现呢。

Flink获取conf目录(Flink配置)的顺序:

  1. 查找FLINK_CONF_DIR环境变量。
  2. 查找.../conf目录。
  3. 查找conf目录。

具体实现

这里我们参考了官网的实现方式,链接如下:

bash 复制代码
https://nightlies.apache.org/flink/flink-docs-release-1.13/docs/deployment/config/

我们这里要实现的功能是对任务自定义 log4j.properties 配置,而不使用集群默认的配置。

可以通过设置环境变量 FLINK_CONF_DIR 来指定 log4j.properties 文件的位置。这样,Flink 将在该目录下查找 log4j.properties 文件并使用其中的配置。

以下是通过环境变量设置 FLINK_CONF_DIR 的例子:

bash 复制代码
export FLINK_CONF_DIR=/path/to/your/config

然后,可以运行 Flink 作业:

bash 复制代码
flink run -c your.main.Class /path/to/your/job.jar

确保 /path/to/your/config 目录中包含正确配置的 log4j.properties 文件。如果没有指定 FLINK_CONF_DIR,Flink 将使用默认的配置。

查看是否生效

当任务成功启动后,我们打开 flink dashbord,点击 Job Manager ,查看 $internal.deployment.config-dir 配置是否更改。

观察 logging.configuration.file 配置是否也变更。

成功。

相关推荐
tctasia4 小时前
TCT Asia 2026现场观察:中国增材制造,已经进入“规模化时刻”(上)
大数据·人工智能·制造
疯狂成瘾者4 小时前
产品经理职业变迁
大数据·产品经理
Data-Miner5 小时前
51页可编辑PPT | 农产品区块链溯源信息化平台整体解决方案
大数据
智慧医院运行管理解决方案专家5 小时前
中科医信杜鹏:「数据驱动,孪生赋能」,数据资产是医院智慧管理的核心要素之一
大数据·人工智能·数字孪生·智慧医工管理
珠海西格电力5 小时前
鄂尔多斯零碳产业园管理系统的核心功能解析
大数据·运维·人工智能·物联网·能源
Yolo566Q6 小时前
基于Python语言快速批量运行DSSAT模型及交叉融合、扩展应用技术应用
大数据·人工智能
KuAI_KST6 小时前
2026 抖音私信 AI 客服实战手册:快商通 AI 与人工回复转化对比实测
大数据·人工智能·机器学习
A_QXBlms6 小时前
企微私域工具SOP自动化实战:3条核心流程配置教程
大数据·自动化·企业微信
NOCSAH6 小时前
体验统好AI租赁管理:业务闭环与智能数据决策
大数据·人工智能·统好ai
Gofarlic_OMS6 小时前
SolidEdge专业许可证管理工具选型关键评估标准
java·大数据·运维·服务器·人工智能