解决:Flink向kafka写数据使用Producer精准一次(EXACTLY_ONCE)异常

复制代码
在使用flink向kafka写入数据报错:Caused by: org.apache.kafka.common.KafkaException: Unexpected error in InitProducerIdResponse; The transaction timeout is larger than the maximum value allowed by the broker (as configured by transaction.max.timeout.ms).

这是因为事务超时值超过了Kafka代理允许的最大值。具体来说,配置的transaction.timeout.ms超过了代理的transaction.max.timeout.ms配置

解决

在使用EXACTLY_ONCE的时候需要增大transaction.max.timeout.ms的值

修改参数

改完之后再重新跑就可以跑通了

相关推荐
徐同保35 分钟前
Git Commit message规范(Git提交信息规范)
大数据·git·elasticsearch
码农很忙1 小时前
解锁数据库迁移新姿势:让AI真正“可用、可信、可落地”
大数据·人工智能
珠海西格电力1 小时前
零碳园区如何吸引企业入驻?
大数据·物联网·产品运营·能源
justwaityou13141 小时前
010银发经济需求与产品矩阵:商业与社会责任的双模实践
大数据·银发经济·养老
一步一个脚印一个坑2 小时前
如何建立精细化运营体系
大数据
2501_933670793 小时前
2026年中专大数据与会计专业可考取的会计相关证书
大数据
indexsunny4 小时前
互联网大厂Java面试实战:从Spring Boot到微服务的逐步深入
java·数据库·spring boot·微服务·kafka·监控·安全认证
江瀚视野5 小时前
昆仑芯启动港股上市:一枚芯片,如何折射百度全栈AI能力?
大数据·人工智能
CNRio5 小时前
Day 50:Git的高级技巧:使用Git的rebase交互式修改提交历史
大数据·git·elasticsearch
Coder_Boy_5 小时前
基于LangChain4j的证券业务系统模块四
大数据·人工智能·spring cloud·langchain