kafka压缩

最近有幸公司参与kafka消息压缩,背景是日志消息量比较大。kafka版本2.4.1

一、确认压缩算法

根据场景不同选择不同。如果是带宽敏感患者推荐高压缩比的zstd,如果是cpu敏感患者推荐lz4

lz4和zstd底层都使用的是lz77算法,具体实现逻辑不同,根据我们现有日志消息计算最高压缩比。

最终结合我们生产环境最终是确认了使用lz4压缩算法。

二、压缩相关的参数

除了这几个基本的参数外,还需要相应的调整kafka的参数。

参数 作用范围 描述 默认值 关键依赖关系 场景/注意事项
message.max.bytes Broker Broker 允许接收的单个消息最大大小(含消息头、键、值)。 1048588 (1MB) 生产者需设置 max.request.size ≤ 此值;消费者需设置 max.partition.fetch.bytes ≥ 此值 若消息超过此值,生产者会被 Broker 拒绝。需与生产者和消费者参数协同配置。
replica.fetch.max.bytes 副本同步(Broker) 副本从 Leader 分区单次拉取数据的最大字节数。 1048576 (1MB) 必须 ≥ message.max.bytes,否则副本无法同步大消息 若设置过小,可能导致副本频繁掉出 ISR 列表。
fetch.message.max.bytes 消费者(旧版本) 已弃用 ,替代参数为 max.partition.fetch.bytes 旧版本默认同 max.partition.fetch.bytes 无(建议使用新参数) 旧版本兼容性参数,新版本无需关注。
max.partition.fetch.bytes 消费者 消费者从单个分区单次拉取数据的最大字节数。 1048576 (1MB) 必须 ≥ message.max.bytes,否则无法消费大消息 若分区中某条消息大小超过此值,消费者会抛出异常。
num.replica.fetchers 副本同步(Broker) Broker 用于副本同步的线程数。增加此值可提升副本同步并行度。 1 无直接依赖,但需根据集群负载调整 分区数多或吞吐量高时,增大此值可加速副本同步。
replica.lag.time.max.ms 副本同步(Broker) 副本若在此时间内未向 Leader 同步数据,则被标记为不同步(移出 ISR)。 30000 (30秒) 无直接依赖 设置过短可能导致副本频繁移出 ISR;过长可能容忍滞后副本(影响可靠性)。

接着就是根据prometheus图 不断调整参数找到最适合的参数

相关推荐
麦聪聊数据32 分钟前
Web 原生架构如何重塑企业级数据库协作流?
数据库·sql·低代码·架构
未来之窗软件服务32 分钟前
数据库优化提速(四)新加坡房产系统开发数据库表结构—仙盟创梦IDE
数据库·数据库优化·计算机软考
Goat恶霸詹姆斯2 小时前
mysql常用语句
数据库·mysql·oracle
大模型玩家七七2 小时前
梯度累积真的省显存吗?它换走的是什么成本
java·javascript·数据库·人工智能·深度学习
曾经的三心草2 小时前
redis-9-哨兵
数据库·redis·bootstrap
ask_baidu2 小时前
KafkaUtils
kafka·bigdata
明哥说编程2 小时前
Dataverse自定义表查询优化:D365集成大数据量提速实战【索引配置】
数据库·查询优化·dataverse·dataverse自定义表·索引配置·d365集成·大数据量提速
xiaowu0803 小时前
C# 拆解 “显式接口实现 + 子类强类型扩展” 的设计思想
数据库·oracle
讯方洋哥3 小时前
HarmonyOS App开发——关系型数据库应用App开发
数据库·harmonyos
惊讶的猫3 小时前
Redis持久化介绍
数据库·redis·缓存