Kafka RecordTooLargeException问题解决

个人博客地址:Kafka RecordTooLargeException问题解决 | 一张假钞的真实世界

Producer向Kafka写入数据时遇到异常:org.apache.kafka.common.errors.RecordTooLargeException。该异常是因为单条消息大小超过限制导致的。解决方法是将限制参数调大:

(1)server端:server.properties
message.max.bytes参数默认值为1000012,调整为适合的值,如10485760。

(2)producer端:

设置Producer的参数max.request.size的值与server端的message.max.bytes值一致。

相关推荐
oMcLin2 小时前
如何在Debian 11上通过配置MySQL 8.0的分布式架构,提升跨区域数据同步的效率与延迟?
分布式·mysql·debian
一条咸鱼_SaltyFish3 小时前
[Day15] 若依框架二次开发改造记录:定制化之旅 contract-security-ruoyi
java·大数据·经验分享·分布式·微服务·架构·ai编程
IT 行者5 小时前
Spring Security 7 OAuth2 授权码分布式存储之Redis存储方案
redis·分布式·spring
潇凝子潇5 小时前
kafka之监控告警
分布式·kafka
Light606 小时前
从“报告”到“能力”——构建智能化、可审计的数据治理闭环——领码 SPARK 数据质量平台白皮书
大数据·分布式·spark
maozexijr6 小时前
RabbitMQ Exchange Headers类型存在的意义?
分布式·rabbitmq
还在忙碌的吴小二6 小时前
XXL-SSO 分布式单点登录框架
分布式
独自破碎E6 小时前
RabbitMQ的消息确认机制是怎么工作的?
分布式·rabbitmq
潇凝子潇7 小时前
Kafka 实现集群安全认证与加密机制
分布式·安全·kafka
indexsunny8 小时前
互联网大厂Java求职面试实战:微服务与Spring Boot在电商场景中的应用
java·数据库·spring boot·微服务·kafka·hibernate·电商