消息中间件篇之Kafka-数据清理机制

一、Kafka文件存储机制

Kafka文件存储结构:一个Topic有多个分区。每一个分区都有多个段,每个段都有三个文件。

为什么要分段?1. 删除无用文件方便,提高磁盘利用率。 2. 查找数据便捷。

二、数据清理机制

1.日志的清理策略方案1

根据消息的保留时间,当消息在kafka中保存的时间超过了指定的时间,就会触发清理过程。默认是168小时。

2.日志的清理策略方案2

根据topic存储的数据大小,当topic所占的日志文件大小大于一定的阈值,则开始删除最久的消息。需手动开启。

三、面试题

面试官:Kafka数据清理机制了解过嘛?

候选人:Kafka中topic的数据存储在分区上,分区如果文件过大会分段存储segment,每个分段都在磁盘上以索引(xxxx.index)和日志文件(xxxx.log)的形式存储,这样分段的好处是,第一能够减少单个文件内容的大小,查找数据方便,第二方便kafka进行日志清理。

在kafka中提供了两个日志的清理策略:

第一,根据消息的保留时间,当消息保存的时间超过了指定的时间,就会触发清理,默认是168小时( 7天)。

第二是根据topic存储的数据大小,当topic所占的日志文件大小大于一定的阈值,则开始删除最久的消息。这个默认是关闭的。

这两个策略都可以通过kafka的broker中的配置文件进行设置。

相关推荐
uhakadotcom32 分钟前
什么是OpenTelemetry?
后端·面试·github
没有鸡汤吃不下饭34 分钟前
前端【数据类型】 No.1 Javascript的数据类型与区别
前端·javascript·面试
知其然亦知其所以然40 分钟前
MySQL 社招必考题:如何优化特定类型的查询语句?
后端·mysql·面试
汤姆Tom42 分钟前
从零到精通:现代原子化 CSS 工具链完全攻略 | PostCSS × UnoCSS × TailwindCSS 深度实战
前端·css·面试
华仔啊3 小时前
主线程存了用户信息,子线程居然拿不到?ThreadLocal 背锅
java·后端
间彧3 小时前
Spring Boot项目中,Redis 如何同时执行多条命令
java·redis
QZQ541884 小时前
高性能现代CPP--CRTP(奇异递归模板模式)
面试
召摇4 小时前
如何避免写垃圾代码:Java篇
java·后端·代码规范
vker4 小时前
第 1 天:单例模式(Singleton Pattern)—— 创建型模式
java·设计模式
甜瓜看代码4 小时前
Handler机制的深入解析
面试