kafka发送消费核心参数与设计原理详解

核心参数详解:

发送端参数:

发送方式:默认值一般都是1:

重试参数 :

批量参数:

消费端参数:

自动提交参数:

如果是false,就是说消费完后不提交位移。也就是说比如之前消费的1-5.第N次还是消费到1-5.如果是false。那么第一次消费1-3,第二次消费4-5:默认是true:我们一般用false。因为会有消息丢失和消息重复消费的问题可能发生。那么我们就得手设置提交了:

比如我们设置了false,那么下面这个自动提交间隔参数就没用了。

同步提交和异步提交:

消费指定分区参数:

发消息的时候给分区0和1都发送消息了:

消费的时候只消费了0分区的:

消息回溯消费参数:

指定offset消费参数:

指定时间点消费参数:

这个参数:

这几个参数线上出问题的时候用得到:

心跳参数:

这个参数:

springboot整合kafka:

提交参数的配置可选项:

像这样:如果是上面配置的话 需要加上这个参数提交:

但是如果这里是batch:

就不需要手动提交,这个方法结束的时候,springboot会帮你提交:

这两个参数都是需要像上面那样在java代码里手动提交的:

原理:

进入到zk,就可以看到总控制器是broker0;这个controller节点是broker在启动的时候就创建的。谁先启动谁就是总控制器。但是是批量启动broke的话,那么就牵扯到ZK的ZAB协议选举来决定谁是总控制器了。

找的就是ISR的节点,按照这个顺序来作为新的leader

相关推荐
DemonAvenger4 天前
Kafka性能调优:从参数配置到硬件选择的全方位指南
性能优化·kafka·消息队列
初次攀爬者4 天前
ZooKeeper 实现分布式锁的两种方式
分布式·后端·zookeeper
yumgpkpm5 天前
AI视频生成:Wan 2.2(阿里通义万相)在华为昇腾下的部署?
人工智能·hadoop·elasticsearch·zookeeper·flink·kafka·cloudera
予枫的编程笔记5 天前
【Kafka高级篇】避开Kafka原生重试坑,Java业务端自建DLQ体系,让消息不丢失、不积压
java·kafka·死信队列·消息中间件·消息重试·dlq·java业务开发
倚肆5 天前
在 Windows Docker 中安装 Kafka 并映射 Windows 端口
docker·kafka
断手当码农5 天前
Redis 实现分布式锁的三种方式
数据库·redis·分布式
Sheffield5 天前
如果把ZooKeeper按字面意思比作动物园管理员……
elasticsearch·zookeeper·kafka
初次攀爬者5 天前
Redis分布式锁实现的三种方式-基于setnx,lua脚本和Redisson
redis·分布式·后端
雪碧聊技术5 天前
kafka的下载、安装、启动
kafka