Kafka从指定时间开始消费数据

需求-故障定位:flink消费kafka数据,某个时间点漏数据

  • 背景:kafka数据保留3天,如果第二天,发现程序异常导致数据丢失,需要定位是topic源头无数据,还是程序处理出现异常。
bash 复制代码
# 1, 设置一个新的group,重置offset为某个时间,格式为'YYYY-MM-DDTHH:mm:SS.sss'
[root@kafka01 ~]# ./bin/kafka-consumer-groups.sh --bootstrap-server kafka01:9092 \
    --group t1 --topic topicTest:2,1,0 --reset-offsets \
    --to-datetime '2024-11-27T00:00:00.000' --execute
GROUP                          TOPIC                  PARTITION  NEW-OFFSET
t1                             topicTest                  2          23227
t1                             topicTest                  1          12819
t1                             topicTest                  0          187
[root@kafka01 ~]#  ./bin/kafka-consumer-groups.sh --bootstrap-server kafka01:9092 \
     --describe --group t1
GROUP           TOPIC      PARTITION  CURRENT-OFFSET  LOG-END-OFFSET  LAG             CONSUMER-ID     HOST            CLIENT-ID
t1              topicTest   2          23227           27151           3924            -               -               -
t1              topicTest   1          12819           14781           1962            -               -               -
t1              topicTest   0          187             187             0               -               -               -


# 2, 使用该group,开始消费数据 (如下演示:消费7条数据,消费offset从 23227 --变为23234 )
[root@kafka01 ~]# ./bin/kafka-console-consumer.sh --bootstrap-server kafka01:9092 \
       --topic topicTest  --group t1 |head -n 2
#.....打印具体日志...
#Unable to write to standard out, closing consumer.
#Processed a total of 7 messages
[root@kafka01 ~]#  ./bin/kafka-consumer-groups.sh --bootstrap-server kafka01:9092 \
      --describe --group t1
GROUP           TOPIC      PARTITION  CURRENT-OFFSET  LOG-END-OFFSET  LAG             CONSUMER-ID     HOST            CLIENT-ID
t1              topicTest   2          23234           27151           3917            -               -               -
t1              topicTest   1          12819           14781           1962            -               -               -
t1              topicTest   0          187             187             0               -               -               -
相关推荐
gQ85v10Db2 小时前
Redis分布式锁进阶第十八篇:本地缓存+分布式锁双锁架构 + 高并发削峰兜底 + 极致性能无损优化实战
redis·分布式·缓存
小江的记录本3 小时前
【Kafka核心】Kafka高性能的四大核心支柱:零拷贝、批量发送、页缓存、压缩
java·数据库·分布式·后端·缓存·kafka·rabbitmq
gQ85v10Db3 小时前
Redis分布式锁进阶第十四篇:全系列终局架构复盘 + 锁体系统一规范 + 线上全年零事故收官方案
redis·分布式·架构
KmSH8umpK3 小时前
Redis分布式锁进阶第十二篇
数据库·redis·分布式
gQ85v10Db4 小时前
Redis分布式锁进阶第十六篇:番外高阶避坑篇 + 隐性埋点锁故障深挖 + 疑难杂症终极兜底方案
数据库·redis·分布式
KmSH8umpK5 小时前
Redis分布式锁从原生手写到Redisson高阶落地,附线上死锁复盘优化方案进阶第九篇
数据库·redis·分布式
gQ85v10Db5 小时前
Redis分布式锁进阶第十五篇:全系列终极收官复盘 + 全站锁规范归档 + 生产零故障长期运维兜底总方案
运维·redis·分布式
_F_y5 小时前
仿RabbitMQ实现消息队列-服务端核心模块实现(5)
分布式·rabbitmq
Lyyaoo.5 小时前
Redis实现分布式锁
数据库·redis·分布式
ezreal_pan6 小时前
Docker部署Kafka持久化遇到的各种问题及解决方案
docker·容器·kafka