flink配置参数

基础配置

复制代码
cpp 复制代码
# jobManager 的IP地址

jobmanager.rpc.address: localhost


# JobManager 的端口号

jobmanager.rpc.port: 6123


# JobManager JVM heap 内存大小

jobmanager.heap.size: 1024m


# TaskManager JVM heap 内存大小

taskmanager.heap.size: 1024m


# 每个 TaskManager 提供的任务 slots 数量大小


taskmanager.numberOfTaskSlots: 1


# 程序默认并行计算的个数

parallelism.default: 1

容错检查点配置

cpp 复制代码
# 用于存储和检查点状态

# state.backend: filesystem /rocksdb/hdfs


# 存储检查点的数据文件和元数据的默认目录

# state.checkpoints.dir: hdfs://namenode-host:port/flink-checkpoints


# savepoints 的默认目标目录(可选)

# state.savepoints.dir: hdfs://namenode-host:port/flink-checkpoints


# 用于启用/禁用增量 checkpoints 的标志

# state.backend.incremental: false

web端

cpp 复制代码
# 基于 Web 的运行时监视器侦听的地址.

#jobmanager.web.address: 0.0.0.0


# Web 的运行时监视器端口

rest.port: 8081


# 是否从基于 Web 的 jobmanager 启用作业提交

# jobmanager.web.submit.enable: false

高可用配置

cpp 复制代码
# 可以选择 'NONE' 或者 'zookeeper'.

# high-availability: zookeeper


# 文件系统路径,让 Flink 在高可用性设置中持久保存元数据

# high-availability.storageDir: hdfs:///flink/ha/


# zookeeper 集群中仲裁者的机器 ip 和 port 端口号

# high-availability.zookeeper.quorum: localhost:2181


# 默认是 open,如果 zookeeper security 启用了该值会更改成 creator

# high-availability.zookeeper.client.acl: open

HistoryServer配置

cpp 复制代码
# 你可以通过 bin/historyserver.sh (start|stop) 命令启动和关闭 HistoryServer


# 将已完成的作业上传到的目录

# jobmanager.archive.fs.dir: hdfs:///completed-jobs/


# 基于 Web 的 HistoryServer 的地址

# historyserver.web.address: 0.0.0.0


# 基于 Web 的 HistoryServer 的端口号

# historyserver.web.port: 8082


# 以逗号分隔的目录列表,用于监视已完成的作业

# historyserver.archive.fs.dir: hdfs:///completed-jobs/


# 刷新受监控目录的时间间隔(以毫秒为单位)

# historyserver.archive.fs.refresh-interval: 10000

其他高级配置

cpp 复制代码
# io.tmp.dirs: /tmp


# 是否应在 TaskManager 启动时预先分配 TaskManager 管理的内存

# taskmanager.memory.preallocate: false


# 类加载解析顺序,是先检查用户代码 jar("child-first")还是应用程序类路径("parent-first")。 默认设置指示首先从用户代码 jar 加载类

# classloader.resolve-order: child-first



# 用于网络缓冲区的 JVM 内存的分数。 这决定了 TaskManager 可以同时拥有多少流数据交换通道以及通道缓冲的程度。 如果作业被拒绝或者您收到系统没有足够缓冲区的警告,请增加此值或下面的最小/最大值。 另请注意,"taskmanager.network.memory.min"和"taskmanager.network.memory.max"可能会覆盖此分数


# taskmanager.network.memory.fraction: 0.1

# taskmanager.network.memory.min: 67108864

# taskmanager.network.memory.max: 1073741824

集群安全配置

cpp 复制代码
# 指示是否从 Kerberos ticket 缓存中读取

# security.kerberos.login.use-ticket-cache: true


# 包含用户凭据的 Kerberos 密钥表文件的绝对路径

# security.kerberos.login.keytab: /path/to/kerberos/keytab


# 与 keytab 关联的 Kerberos 主体名称

# security.kerberos.login.principal: flink-user


# 以逗号分隔的登录上下文列表,用于提供 Kerberos 凭据(例如,`Client,KafkaClient`使用凭证进行 ZooKeeper 身份验证和 Kafka 身份验证)

# security.kerberos.login.contexts: Client,KafkaClient

日志文件配置

相关文件

cpp 复制代码
log4j-cli.properties

log4j-console.properties

log4j-yarn-session.properties

log4j.properties

logback-console.xml

logback-yarn.xml

logback.xml
相关推荐
字节跳动数据平台6 小时前
代码量减少 70%、GPU 利用率达 95%:火山引擎多模态数据湖如何释放模思智能的算法生产力
大数据
得物技术7 小时前
深入剖析Spark UI界面:参数与界面详解|得物技术
大数据·后端·spark
大大大大晴天8 小时前
Flink生产问题排障-HBase NotServingRegionException
flink·hbase
武子康9 小时前
大数据-238 离线数仓 - 广告业务 Hive分析实战:ADS 点击率、购买率与 Top100 排名避坑
大数据·后端·apache hive
臣妾没空1 天前
里程碑5:完成框架npm包抽象封装并发布
前端·npm
sudo_jin1 天前
前端包管理器演进史:为什么 npm 之后,Yarn 和 pnpm 成了新宠?
前端·npm
武子康1 天前
大数据-237 离线数仓 - Hive 广告业务实战:ODS→DWD 事件解析、广告明细与转化分析落地
大数据·后端·apache hive
大大大大晴天1 天前
Flink生产问题排障-Kryo serializer scala extensions are not available
大数据·flink
codingWhat3 天前
前端组件库开发实践:从零到发布
前端·npm·vite
武子康3 天前
大数据-236 离线数仓 - 会员指标验证、DataX 导出与广告业务 ODS/DWD/ADS 全流程
大数据·后端·apache hive