Kafka3.0.0版本——文件清理策略

目录

一、文件清理策略

1.1、文件清理策略的概述

  • Kafka 中默认的日志保存时间为 7 天,可以通过调整如下参数修改保存时间。

    参数 解释
    log.retention.hours 小时,最低优先级(默认 7天)
    log.retention.minutes 分钟
    log.retention.ms 毫秒,最高优先级
    log.retention.check.interval.ms 负责设置检查周期(默认 5 分钟)

1.2、文件清理策略的官方文档

1.3、日志超过了设置的时间如何处理

  • Kafka 中提供的日志清理策略有 delete 和 compact两种。

1.3.1、delete日志删除(将过期数据删除)

  • log.cleanup.policy = delete 所有数据启用删除策略。
    (1)、基于时间:默认打开。以 segment 中所有记录中的最大时间戳作为该文件时间戳。
    (2)、基于大小:默认关闭。超过设置的所有日志总大小,删除最早的 segment。log.retention.bytes,默认等于-1,表示无穷大。

1.3.2、compact日志压缩

  • compact日志压缩:对于相同key的不同value值,只保留最后一个版本。
  • log.cleanup.policy = compact 所有数据启用压缩策略
  • 压缩后的offset可能是不连续的,比如上图中没有6,当从这些offset消费消息时,将会拿到比这个offset大的offset对应的消息,实际上会拿到offset为7的消息,并从这个位置开始消费。
  • 这种策略只适合特殊场景,比如消息的key是用户ID,value是用户的资料,通过这种压缩策略,整个消息集里就保存了所有用户最新的资料。
相关推荐
BestandW1shEs9 小时前
彻底理解消息队列的作用及如何选择
java·kafka·rabbitmq·rocketmq
天冬忘忧9 小时前
Kafka 生产者全面解析:从基础原理到高级实践
大数据·分布式·kafka
天冬忘忧10 小时前
Kafka 数据倾斜:原因、影响与解决方案
分布式·kafka
隔着天花板看星星10 小时前
Kafka-Consumer理论知识
大数据·分布式·中间件·kafka
holywangle10 小时前
解决Flink读取kafka主题数据无报错无数据打印的重大发现(问题已解决)
大数据·flink·kafka
隔着天花板看星星10 小时前
Kafka-副本分配策略
大数据·分布式·中间件·kafka
我一直在流浪11 小时前
Kafka - 消费者程序仅消费一半分区消息的问题
分布式·kafka
B站计算机毕业设计超人13 小时前
计算机毕业设计SparkStreaming+Kafka旅游推荐系统 旅游景点客流量预测 旅游可视化 旅游大数据 Hive数据仓库 机器学习 深度学习
大数据·数据仓库·hadoop·python·kafka·课程设计·数据可视化
Mephisto.java17 小时前
【大数据学习 | Spark】Spark的改变分区的算子
大数据·elasticsearch·oracle·spark·kafka·memcache
KevinAha1 天前
Kafka 3.5 源码导读
kafka