【大数据学习 | kafka高级部分】kafka的优化参数整理

1. 优化参数

参数 解释
buffer.memory RecordAccumulator 缓冲区总大小,默认 32m
batch.size 默认 16k,sender线程拉取数据大小
linger.ms sender线程拉取数据等待时长
acks 确认应答 0 1 -1
max.in.flight.requests.per.connection 没有ack返回时候可以发送几次数据
retries producer失败重试次数
enable.idempotence 启幂等性,默认 true
compression.type 生产者发送的所有数据的压缩方式
auto.leader.rebalance.enable leader是否自动切换
leader.imbalance.per.broker.percentage leader均衡比10%
leader.imbalance.check.interval.seconds leader均衡检测时间五分钟
log.segment.bytes segment大小
log.index.interval.bytes 每4k生成一个索引数据,写入一次文件
log.cleanup.policy 日志删除方式
log.retention.hours 数据保存时长
enable.auto.commit 自动提交
auto.commit.interval.ms 提交间隔
auto.offset.reset 初始化消费位置
offsets.topic.num.partitions __consumer_offsets分区数量
session.timeout.ms 消费者断开超时时间
max.poll.records 消费者拉取条数
fetch.max.bytes 消费者拉取大小
partition.assignment.strategy 消费者分区分配策略

2. 数据吞吐量和数据重复问题

数据在消费的时候可能会遇见数据堆积,无法及时消费计算的问题

这个时候可以适当的调节broker的数量和partition的数量,让多个机器帮助进行处理可提高吞吐量,并且分区越多消费者就可以适当增多,让消费速度得到很大的提升

适当增加每次拉取的大小也会增加消费速度。

java 复制代码
max.poll.records  消费者拉取条数 
fetch.max.bytes  消费者拉取大小

kafka数据稳定性保证。

首先从producer出发

ack = 0 or ack = 1 会出现数据丢失问题

ack = -1 会出现数据重复问题

开始幂等性可以进行单分区去重

保证一批次数据稳定性可以开启事物

消费者部分如果是自动提交偏移量会出现重复消费问题,手动保存偏移量就不会出现这个问题

相关推荐
jixingkj7 分钟前
IP等级的“数字密码”——实验室标准与现实差距
大数据·智能手表
handsome123417 分钟前
Navicat 查数据 乱码 解决 的经历
数据库·mysql·oracle
AllData公司负责人22 分钟前
【亲测好用】数仓建模平台能力演示
大数据·数据库·算法
灰太狼大王灬26 分钟前
OCR-RenameStudio是一个基于 PaddleOCR-json的桌面工具——Umi-OCR 智能重命名助手
json·ocr
2501_9476941840 分钟前
易直聘受邀出席重庆人才研究和人力资源服务协会会员代表大会,赋能企业促就业
大数据·人工智能
小袁进化之路1 小时前
黎跃春讲 AI 智能体运营工程师:从工程架构到可运营系统的完整实战详解
大数据·人工智能·架构
独立站建站C_2Cshop1 小时前
Linkedln内容营销该怎么做?
大数据·人工智能·外贸·独立站·跨境电商独立站
躲在云朵里`2 小时前
更新时对字段的重复校验
数据库·oracle
机器视觉的发动机2 小时前
波士顿动力机器人技术全解析从四足Spot到人形Atlas的机器人革命
大数据·人工智能·深度学习·机器人·视觉检测·机器视觉
汽车仪器仪表相关领域2 小时前
经典指针+瞬态追踪:MTX-A模拟废气温度(EGT)计 改装/赛车/柴油车排气温度监测实战全解
大数据·功能测试·算法·机器学习·可用性测试