Kafka文件存储机制

Topic是逻辑上的概念,而partition是物理上的概念,每个partition对应于一个log文件,该log文件中存储的就是Prodcuer生产的数据,Producer生产的数据会被不断追加到该log文件末端,为防止log文件过大导致数据定位效率低下,Kafka采取了分片和索引机制,将每个partition分为多个segment,每个segment包括:".index文件"".log"文件和.timeindex等文件,这些文件位于一个文件夹下,该文件夹的命名规则为:topic名称+分区序号,例如first-0,(server.properties文件里面log.dirs的路径下可以找到该文件夹)

一个topic分为多个partition

一个partition分为多个segment

一个segment由如下部分组成:

.log 日志文件(存储实际数据)
.index 偏移量索引文件
.timeindex 时间戳索引文件

其他文件

说明:indexlog文件以当前segment的第一条消息的offset命名

这里的配置如下:

查看文件:

查看topic为four,0号分区的数据

直接查看log日志和index文件是乱码

可以通过工具查看indexlog信息

c 复制代码
kafka-run-class.sh kafka.tools.DumpLogSegments --files 00000000000000000000.index

注意:
index为稀疏索引,大约每往log文件写入4kb数据,会往index文件写入一条索引,参数log.index.interval.bytes默认为4kb

index文件中保存的offset为相对offset,这样能确保offset的值所占空间不会过大,因此能将offset的值控制在固定大小

  1. 根据目标offset定位segment文件
  2. 找到小于等于目标offset的最大offset对应的索引项
  3. 定位到log文件
  4. 向下遍历找到目标Record

创建topic

创建生产者:

创建生产者:

生产并消费数据

查看数据:

相关推荐
Slow菜鸟15 分钟前
Java后端常用技术选型 |(四)微服务篇
java·分布式
闲人编程34 分钟前
Python与大数据:使用PySpark处理海量数据
大数据·开发语言·分布式·python·spark·codecapsule·大规模
一瓢一瓢的饮 alanchan1 小时前
Flink原理与实战(java版)#第2章 Flink的入门(第二节Flink简介)
java·大数据·flink·kafka·实时计算·离线计算·流批一体化计算
尘世壹俗人1 小时前
分离Hadoop客户端单独使用
大数据·hadoop·分布式
yzp-3 小时前
Zookeeper 笔记
java·分布式·zookeeper
大G的笔记本3 小时前
常见且高频的 ZooKeeper 面试题
分布式·zookeeper·云原生
wddblog5 小时前
分布式环境下的一致性与幂等性
分布式
qq_281317476 小时前
RabbitMQ
分布式·rabbitmq
yumo_fly7 小时前
欧拉22.03系统安装RabbitMQ-3.6.10
分布式·rabbitmq·ruby
百***46807 小时前
RabbitMQ之交换机
分布式·rabbitmq·ruby