Kafka RecordTooLargeException问题解决

个人博客地址:Kafka RecordTooLargeException问题解决 | 一张假钞的真实世界

Producer向Kafka写入数据时遇到异常:org.apache.kafka.common.errors.RecordTooLargeException。该异常是因为单条消息大小超过限制导致的。解决方法是将限制参数调大:

(1)server端:server.properties
message.max.bytes参数默认值为1000012,调整为适合的值,如10485760。

(2)producer端:

设置Producer的参数max.request.size的值与server端的message.max.bytes值一致。

相关推荐
Philosophy1 小时前
时间轮深度解析:原理、源码与应用场景
分布式
小四的快乐生活4 小时前
kafka小白基础知识
分布式·kafka
Cynthiaaaaalxy4 小时前
clickhouse--本地表和分布式表,副本机制,分片集群
分布式·clickhouse
乐享极致4 小时前
ClickHouse分布式高可用实战:ReplicatedMergeTree引擎深度解析与代码实践
分布式·clickhouse
红队it6 小时前
【Spark+Hadoop】基于Spark大数据小说数据分析推荐系统(完整系统源码+数据库+开发笔记+详细部署教程+虚拟机分布式启动教程)✅
大数据·人工智能·hive·分布式·spark
python资深爱好者7 小时前
如何使用GraphX在Spark中进行图计算
大数据·分布式·spark
0_alan_7 小时前
Java 使用注解实现Redisson分布式锁
java·开发语言·分布式
君子……如玉10 小时前
Thinkphp6 安装Kafka扩展
分布式·kafka
自传丶18 小时前
【开源项目】分布式文本多语言翻译存储平台
分布式