【Flink】记录Flink 任务单独设置配置文件而不使用集群默认配置的一次实践

前言

我们的大数据环境是 CDP 环境。该环境已经默认添加了Flink on Yarn 的客户端配置。 我们的 Flink 任务类型是 Flink on Yarn 的任务。

默认的配置文件是在 /etc/flink/conf 目录下。如今我们的需求是个别任务提供的配置仅用于配置执行参数,例如影响作业的配置参数,而不是底层集群。

那么我们改如何实现呢。

Flink获取conf目录(Flink配置)的顺序:

  1. 查找FLINK_CONF_DIR环境变量。
  2. 查找.../conf目录。
  3. 查找conf目录。

具体实现

这里我们参考了官网的实现方式,链接如下:

bash 复制代码
https://nightlies.apache.org/flink/flink-docs-release-1.13/docs/deployment/config/

我们这里要实现的功能是对任务自定义 log4j.properties 配置,而不使用集群默认的配置。

可以通过设置环境变量 FLINK_CONF_DIR 来指定 log4j.properties 文件的位置。这样,Flink 将在该目录下查找 log4j.properties 文件并使用其中的配置。

以下是通过环境变量设置 FLINK_CONF_DIR 的例子:

bash 复制代码
export FLINK_CONF_DIR=/path/to/your/config

然后,可以运行 Flink 作业:

bash 复制代码
flink run -c your.main.Class /path/to/your/job.jar

确保 /path/to/your/config 目录中包含正确配置的 log4j.properties 文件。如果没有指定 FLINK_CONF_DIR,Flink 将使用默认的配置。

查看是否生效

当任务成功启动后,我们打开 flink dashbord,点击 Job Manager ,查看 $internal.deployment.config-dir 配置是否更改。

观察 logging.configuration.file 配置是否也变更。

成功。

相关推荐
智慧景区与市集主理人25 分钟前
露营设备租赁低效?巨有科技计时租赁系统激活五一增收新动能
大数据·人工智能
@土豆26 分钟前
Elasticsearch 9.0.1 集群部署(Docker Compose + k8s 部署方式)
大数据·elasticsearch·docker
醉颜凉34 分钟前
Elasticsearch 生产级核心原理:Shard Allocation Awareness 工作机制与实战配置详解
大数据·elasticsearch·搜索引擎
Lisonseekpan36 分钟前
Git:如何将一个分支的特定提交合并到另一个分支?
java·大数据·git·后端·elasticsearch
财迅通Ai36 分钟前
煌上煌2025年净利润大增102.32% 2026年一季度开局稳健
大数据·煌上煌
Elastic 中国社区官方博客41 分钟前
使用 EDOT Browser 和 Kibana 进行 OpenTelemetry 浏览器端埋点
大数据·服务器·数据库·elasticsearch·搜索引擎·单元测试·可用性测试
互联科技报1 小时前
2026年短视频矩阵视频混剪工具赛道巨变:如何选择一款合适的短视频矩阵软件
大数据·人工智能
互联网推荐官2 小时前
上海APP开发公司的技术路径选择:从架构设计到工程落地
大数据·人工智能·物联网·软件工程
亿电连接器替代品网2 小时前
工业防水连接器选型:Amphenol LTW替代方案详解
大数据·网络·人工智能·硬件工程·材料工程
juniperhan2 小时前
Flink 系列第17篇:Flink Table&SQL 核心概念、原理与实战详解
大数据·数据仓库·分布式·sql·flink