Kafka从指定时间开始消费数据

需求-故障定位:flink消费kafka数据,某个时间点漏数据

  • 背景:kafka数据保留3天,如果第二天,发现程序异常导致数据丢失,需要定位是topic源头无数据,还是程序处理出现异常。
bash 复制代码
# 1, 设置一个新的group,重置offset为某个时间,格式为'YYYY-MM-DDTHH:mm:SS.sss'
[root@kafka01 ~]# ./bin/kafka-consumer-groups.sh --bootstrap-server kafka01:9092 \
    --group t1 --topic topicTest:2,1,0 --reset-offsets \
    --to-datetime '2024-11-27T00:00:00.000' --execute
GROUP                          TOPIC                  PARTITION  NEW-OFFSET
t1                             topicTest                  2          23227
t1                             topicTest                  1          12819
t1                             topicTest                  0          187
[root@kafka01 ~]#  ./bin/kafka-consumer-groups.sh --bootstrap-server kafka01:9092 \
     --describe --group t1
GROUP           TOPIC      PARTITION  CURRENT-OFFSET  LOG-END-OFFSET  LAG             CONSUMER-ID     HOST            CLIENT-ID
t1              topicTest   2          23227           27151           3924            -               -               -
t1              topicTest   1          12819           14781           1962            -               -               -
t1              topicTest   0          187             187             0               -               -               -


# 2, 使用该group,开始消费数据 (如下演示:消费7条数据,消费offset从 23227 --变为23234 )
[root@kafka01 ~]# ./bin/kafka-console-consumer.sh --bootstrap-server kafka01:9092 \
       --topic topicTest  --group t1 |head -n 2
#.....打印具体日志...
#Unable to write to standard out, closing consumer.
#Processed a total of 7 messages
[root@kafka01 ~]#  ./bin/kafka-consumer-groups.sh --bootstrap-server kafka01:9092 \
      --describe --group t1
GROUP           TOPIC      PARTITION  CURRENT-OFFSET  LOG-END-OFFSET  LAG             CONSUMER-ID     HOST            CLIENT-ID
t1              topicTest   2          23234           27151           3917            -               -               -
t1              topicTest   1          12819           14781           1962            -               -               -
t1              topicTest   0          187             187             0               -               -               -
相关推荐
johnny_hhh14 分钟前
Confluent 单节点部署配置
运维·阿里云·zookeeper·kafka·centos·数据可视化
鲨莎分不晴20 分钟前
大数据的“大动脉”:深度剖析 Apache Kafka 的高性能之道
大数据·kafka·apache
魂之木21 分钟前
【零基础教程】基于Docker的RabbitMQ部署方案
分布式·docker·微服务·rabbitmq
oMcLin22 分钟前
如何在 RHEL 7 上通过配置 Apache Kafka 集群的分区机制,提升消息传递系统的吞吐量与数据流处理能力?
分布式·kafka·apache
红队it28 分钟前
【Spark+Hadoop】基于spark+hadoop游戏评论数据分析可视化大屏(完整系统源码+数据库+开发笔记+详细部署教程+虚拟机分布式启动教程)✅
大数据·hadoop·分布式·算法·游戏·数据分析·spark
前端世界29 分钟前
鸿蒙系统中的分布式任务依赖是如何处理的?原理、方案与实践
分布式·华为·harmonyos
小雨下雨的雨31 分钟前
Flutter跨平台开发实战: 鸿蒙与循环交互艺术:分布式联动与多端状态同步
分布式·flutter·华为·交互·harmonyos·鸿蒙系统
DeepFlow 零侵扰全栈可观测32 分钟前
DeepFlow 实践:利用 eBPF 实现覆盖从网关到数据库的全栈分布式追踪
网络·分布式·云原生·云计算
yumgpkpm1 小时前
华为 GaussDB 商业版(本地部署)部署方案及相关步骤
hive·hadoop·redis·elasticsearch·华为·kafka·gaussdb
俊哥大数据1 小时前
【项目9】 基于Spark网站流量日志大数据实时分析系统
大数据·分布式·spark