RocksDB LSM树
RocksDB是Meta (Facebook) 开源的高性能持久化键值存储库,源于Google的LevelDB,并针对SSD和服务器工作负载进行了深度优化。它广泛应用于需要处理海量数据(亿级甚至更高)并要求高写入吞吐的场景。
RocksDB 以 kv 对集合的形式存储数据, key 和 value 是任意长度的字节数组(byte array)。RocksDB 提供了几个用于操作 kv 集合的函数底层接口:
java
// 插入新的键值对或更新已有键值对
put(key, value)
// 将新值与给定键的原值进行合并
merge(key, value)
// 从集合中删除键值对
delete(key)
// 通过点查来获取 key 所关联的 value
get(key)
// 通过迭代器进行范围扫描------找到特定的key,并按顺序访问该key后续的键值对
iterator.seek(key_prefix); iterator.value(); iterator.next()
LSM树
RocksDB 的核心数据结构被称为日志结构合并树 (Log Structured Merge Tree,LSM Tree)。LSM树是一种专为写密集型工作负载设计的数据结构,其思想最早由O'Neil等人在1996年的同名论文提出被大家所知。
在2000年左右,谷歌发布了大名鼎鼎的"三驾马车"的论文,分别是Google File System(2003年),MapReduce(2004年),BigTable(2006年)。其中在 "BigTable" 的论文中很多很酷的方面之一就是它所使用的文件组织方式,这个方法的名字叫 LSM树 。
如上图所示,LSM树有以下四个重要组成部分。
1)MemTable(内存表):MemTable是在内存中的数据结构,用于保存最近更新的数据,会按照Key有序地组织这些数据,LSM树未明确定义有序组织的数据结构,例如RocksDB使用平衡二叉树来保证内存中key的有序。
2)Immutable MemTable(不可变内存表):Immutable MemTable是将转MemTable变为SSTable的一种中间状态。写操作由新的MemTable处理,在转存过程中不阻塞数据更新操作。
3)WAL:因为数据暂时保存在内存中,内存并不是可靠存储,如果断电会丢失数据,因此通常会通过预写式日志(Write-ahead logging,WAL)的方式来保证数据的可靠性。
WAL是一个只允许追加(Append Only)的文件,包含一组更改记录序列。每个记录包含键值对、记录类型(Put / Merge / Delete)和校验和(checksum)。与 MemTable 不同,在 WAL 中,记录不按 key 有序,而是按照请求到来的顺序被追加到 WAL 中。
WAL是顺序写的,速度很快。若系统崩溃,可通过WAL恢复MemTable中的数据。
4)SSTable(Sorted String Table,有序字符串表):SSTable是一种拥有持久化,有序且不可变的的键值存储结构,它的key和value都是任意的字节数组,并且了提供了按指定key查找和指定范围的key区间迭代遍历的功能。
SSTable内部包含了一系列可配置大小的Block块,典型的大小是64KB。与 WAL 的记录类似,每个数据块中都包含用于检测数据是否损坏的校验和。每次从硬盘读取数据时,LSM树都会使用这些校验和进行校验。
当一个SSTable被打开的时候,存储在SSTable尾部的index会被加载到内存,然后根据key在内存index里面进行一个二分查找,查到该key对应的硬盘的offset之后,然后去硬盘把相应的块数据读取出来。
数据写入
写入一个<Key, Value>时,LSM树的写入顺序是:
1)写操作记录到WAL(顺序写)。
2)写操作插入到内存中的MemTable(有序插入)。
3)当MemTable写满,转换为Immutable MemTable,同时创建新的MemTable和WAL文件接收新写入。
4)后台线程将Immutable MemTable的数据顺序写入磁盘,生成一个新的SSTable文件,通常放在Level-0层。
5)刷盘完成后,对应的WAL文件可以被安全删除。 所有磁盘写入(WAL和SSTable)都是顺序的,极大地提高了写入吞吐。
MemTable 的默认大小为 64 MB。 LSM树定期把内存写满的MemTable转变为Immutable MemTable ,并从内存持久化到硬盘。一旦刷盘(flush)完成,Immutable MemTable 和相应的 WAL就会被丢弃。LSM树写入新的 WAL、MemTable。
每次刷盘都会在 Level 0 层上产生一个新的SSTable文件。该文件一旦写入硬盘后,就不再会修改。有序性使得 MemTable 刷盘时更高效,因为可以直接按顺序迭代键值对顺序写入硬盘。将随机写变为顺序写是 LSM树的核心设计之一。
数据删除
对于需要删除的数据,LSM 树采用一个特殊的标志位,称为墓碑(tombstone),删除一条数据就是把它的值置为墓碑。如果查询当前数据,返回的是空值。因此,删除操作的本质是覆盖写,而不是清除一条数据,墓碑会在合并机制中被清理掉,于是置为墓碑的数据在新的 SSTable 中将不复存在。
合并机制
由于SSTable不可修改,更新和删除操作实际上是写入新的记录(更新是新版本,删除是打上"墓碑"标记Tombstone)。这样的设计虽然大大提高了写性能,但同时也会带来一些问题。
1)空间放大 (Space Amplification):磁盘上可能存在同一Key的多个版本或已删除的"墓碑",占用额外空间。
2)读放大 (Read Amplification):查询一个Key时,可能需要从MemTable查起,然后逐层(从新到旧)查找多个SSTable,直到找到该Key或确认不存在。
3)写放大 (Write Amplification):实际写入磁盘的数据量远大于用户写入的数据量,因为数据在合并过程中会被多次重写。
合并 (Compaction)机制是LSM树维持性能和控制放大的关键:后台线程定期将不同层级(Level)的SSTable进行合并。合并过程会读取多个旧SSTable,将它们的有序键值对归并排序,丢弃被覆盖的旧值和已删除的墓碑,然后将结果写入新的SSTable(通常到下一层)。通过这种方式,减少SSTable数量(降低读放大)、回收无效数据占用的空间(降低空间放大)。然而合并本身是I/O密集型操作,会产生写放大,消耗处理器和磁盘带宽。
RocksDB提供不同的合并策略,如:Leveled Compaction (分层合并):将数据组织成多个层(L0, L1, L2...)。L0的SSTable可能有重叠的Key范围,L1及以上层SSTable的Key范围通常不重叠。合并时,从Ln层选择一个SSTable,与Ln+1层中Key范围重叠的SSTable进行合并。这种策略读放大较小,但写放大可能较高。
Tiered Compaction (分级合并,也称Universal Compaction):将SSTable按大小或时间分组,组内合并,或将多个小SSTable合并成一个大SSTable。写放大较低,但读放大可能较高。 RocksDB允许用户根据应用特性选择和配置合并策略,以在读、写、空间放大之间取得平衡。
数据查询
查询一个Key时,LSM树的查找顺序是:
1)Active MemTable。
2)Immutable MemTable。
3)SSTables on Level-0 (可能有多个,Key范围可能重叠,需逐个查)。
4)SSTables on Level-1, Level-2, ..., Level-N(每层内Key范围不重叠或部分不重叠,可快速定位)。
LSM树在内存中对每个SSTable维护一个稀疏索引(Sparse index)。稀疏索引是指将有序数据切分成(固定大小的)块,仅对各个块开头的一条数据做索引。与之相对的是全量索引(Dense index),即对全部数据编制索引,比如MySQL采用B+树作为索引结构。
有稀疏索引之后,可以先在索引表中使用二分查找快速定位某个 key 位于SSTable哪一小块数据中,这样仅从硬盘中读取这一块数据即可获得最终查询结果,此时加载的数据量仅仅是整个 SSTable 的一小部分,因此 I/O 代价较小。
然而当要查询的结果在 SSTable 中不存在时,将不得不依次扫描完所有的层级SSTable,这是最差的一种情况。因此,为加速查询,特别是查询不存在的Key,每个SSTable通常会关联一个布隆过滤器(Bloom Filter)。查询时先查布隆过滤器,若告知Key"肯定不存在",则可直接跳过该SSTable的实际读取,显著减少不必要的I/O。布隆过滤器有一定假阳性率(可能误报"存在"),但绝无假阴性(不会漏报)。
未完待续
很高兴与你相遇!如果你喜欢本文内容,记得关注哦!!!