Kafka调试技巧分享

基础理念

对于我们有a,b,c,3台机器,那么我们的消息会被消费3次?

可能会,也可能不会,这取决于你的配置和策略。

消费者组机制:Kafka 使用消费组(Consumer Group)来确保每个消息只会被每个消费者组中的一个消费者消费一次。

分区分配:Kafka 主题可以分为多个分区(Partitions),每个分区只能由一个消费者组中的一个消费者消费。

如果新增1台机器,那么他的偏移量从0开始?

在kafka中,消费组都会维护自己的偏移量(offset),以此来记录消费的消息位置,而当新增1台机器时,会根据分区分配策略,比如:范围分配、轮询分配,这就有2种情况,可能加入旧分区,也可能加入新分区,具体可以配置下策略参数auto.offset.reset,对应的值如下:

  • earliest: automatically reset the offset to the earliest offset
  • latest: automatically reset the offset to the latest offset
  • none: throw exception to the consumer if no previous offset is found for the consumer's group
  • anything else: throw exception to the consumer.

本地调试

所以,当我们在调试kafka消费逻辑的时候,可能由于消费逻辑写的不对,改完代码需要重新测,重新去造1条消息?还是你会怎么去做,了解了前面的原理,我们改消费组是不可行的,他获取的是最新的偏移量,无法实现复用之前造的某条数据,特别是我们有不同逻辑,把每种类型的消息都重新推一波,这不仅麻烦,而且也容易出错,是否可以直接复用之前的消息,准确处理?

我们可以先了解下@KafkaListener里面的一些配置参数,具体如下:

java 复制代码
@KafkaListener(topicPartitions = {@TopicPartition(topic = "yourTopic", partitionOffsets = {@PartitionOffset(partition = "指定分区", initialOffset = "初始偏移量")})})
public void forlanConsumer(ConsumerRecord<String, String> record) {
	String messageStr = record.value();
	log.info("测试触达记录消费:offset = {}, res = {}",record.offset(), messageStr);
}

上面只是指定了我们从什么偏移量开始消费,如果要限制范围,可以在代码里面加限制

java 复制代码
@KafkaListener(topicPartitions = {@TopicPartition(topic = "yourTopic", partitionOffsets = {@PartitionOffset(partition = "指定分区", initialOffset = "初始偏移量")})})
public void forlanConsumer(ConsumerRecord<String, String> record) {
	if (record.offset() > 结束偏移量) return;
	String messageStr = record.value();
	log.info("测试触达记录消费:offset = {}, res = {}",record.offset(), messageStr);
}

测试或正式环境调试

上面只适合本地场景,如果是线上环境,我们本地一般是没有权限连接监听的,那么可以怎么做?其实也能做,只不过需要通过接口去拉取处理

java 复制代码
@Autowired
private KafkaConfig kafkaConfig;

public void reconsumeMessage(String topic, int partition, long offset) {
		ConsumerFactory<Integer, String> consumerFactory = kafkaConfig.consumerFactory();
		Map<String, Object> configurationProperties = consumerFactory.getConfigurationProperties();

		Map<String, Object> customProps = new HashMap<>();
		customProps.put(ConsumerConfig.GROUP_ID_CONFIG, "reconsume-temp-group-" + UUID.randomUUID());
		customProps.put(ConsumerConfig.AUTO_OFFSET_RESET_CONFIG, "earliest");// 防止 offset 不存在时报错
		customProps.put(ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG, false);
		customProps.put(ConsumerConfig.MAX_POLL_RECORDS_CONFIG, "1");// 控制每次 poll 只拉取一条
		// 复用 kafkaConfig 中的基础配置
		Map<String, Object> props = new HashMap<>(configurationProperties);
		props.putAll(customProps);

		try (Consumer<String, String> consumer = new KafkaConsumer<>(props)) {
			TopicPartition topicPartition = new TopicPartition(topic, partition);

			// 分配分区并定位偏移量
			consumer.assign(Collections.singletonList(topicPartition));
			consumer.seek(topicPartition, offset);

			// 拉取消息(设置超时时间)
			ConsumerRecords<String, String> records = consumer.poll(Duration.ofSeconds(5));

			for (ConsumerRecord<String, String> record : records) {
				if (record.offset() == offset) {
					if (Objects.equals(topic, KafkaTopic.Forlan_MESSAGE_NOTIFY)) {
						// 调用@KafkaListener的方法执行逻辑
						forlanConsumer.userConsumer(record);
					}
					break;
				}
			}
		}
	}

项目中如果没有配置kafkaConfig,也可以自定义一个,只要能拿到连接就行

java 复制代码
private Map<String, Object> consumerConfigs() {
    Map<String, Object> props = new HashMap();
    props.put("bootstrap.servers", this.bootstrapServers);
    props.put("group.id", this.groupid);
    props.put("enable.auto.commit", this.autoCommit);
    props.put("auto.commit.interval.ms", this.interval);
    props.put("session.timeout.ms", this.timeout);
    props.put("key.deserializer", this.keyDeserializer);
    props.put("value.deserializer", this.valueDeserializer);
    props.put("auto.offset.reset", this.offsetReset);
    props.put("max.poll.records", this.maxPollRecords);
    return props;
}
相关推荐
ask_baidu7 小时前
KafkaUtils
kafka·bigdata
洛豳枭薰9 小时前
消息队列关键问题描述
kafka·rabbitmq·rocketmq
lucky67079 小时前
Spring Boot集成Kafka:最佳实践与详细指南
spring boot·kafka·linq
袁煦丞 cpolar内网穿透实验室11 小时前
远程调试内网 Kafka 不再求运维!cpolar 内网穿透实验室第 791 个成功挑战
运维·分布式·kafka·远程工作·内网穿透·cpolar
岁岁种桃花儿11 小时前
CentOS7 彻底卸载所有JDK/JRE + 重新安装JDK8(实操完整版,解决kafka/jps报错)
java·开发语言·kafka
闻哥17 小时前
Kafka高吞吐量核心揭秘:四大技术架构深度解析
java·jvm·面试·kafka·rabbitmq·springboot
indexsunny1 天前
互联网大厂Java面试实战:Spring Boot微服务在电商场景中的应用与挑战
java·spring boot·redis·微服务·kafka·spring security·电商
TTBIGDATA1 天前
【Atlas】Ambari 中 开启 Kerberos + Ranger 后 Atlas Hook 无权限访问 Kafka Topic:ATLAS_HOOK
大数据·kafka·ambari·linq·ranger·knox·bigtop
岁岁种桃花儿1 天前
Kafka从入门到上天系列第一篇:kafka的安装和启动
大数据·中间件·kafka
TTBIGDATA3 天前
【Atlas】Atlas Hook 消费 Kafka 报错:GroupAuthorizationException
hadoop·分布式·kafka·ambari·hdp·linq·ranger