【Elasticsearch】副本恢复机制文件级(file-based)操作级(ops-based)顶级理解

两种恢复最终都要**让副本的 Lucene 段文件跟主分片一致**,但"动手对象"不同:

  1. **文件级(file-based)**
  • 直接复制**整个段文件(.cfs、.si、.dvd ...)**到副本节点

  • 副本**原样替换**自己的目录,**不再逐条解析**

  • 过程中**不打开 Lucene 文档**,只搬运字节;最后由副本自己打开 IndexWriter 做一次 commit 即可

  1. **操作级(ops-based)**
  • 不复制段文件,而是**一条条发 Translog.Operation**

  • 副本收到后,**在本地的 IndexWriter 上重放**:addDocument、deleteDocument、updateDocument ...

  • 每条操作都会**实时写副本的 Lucene 段**,也会写副本的 translog,最后 commit

→ 所以:

  • **文件级**:**主分片**的 Lucene 文件 → **副本磁盘**(字节搬运)

  • **操作级**:**主分片**的 Lucene 文档 → **反序列化成操作** → **副本 IndexWriter** → **副本的 Lucene 文件**(逐条写入)

**最终都是让副本的 Lucene 段保持一致,只是路径不同:一个"整块复制",一个"逐条重放"。**

操作级(ops-based)恢复跟**物理 translog 文件**完全无关:

  1. 主分片**不读自己的 `.tlog` 文件**;

  2. 用 `LuceneChangesSnapshot` **直接从 Lucene 倒排表里**按 `_seq_no` 把文档/墓碑捞出来;

  3. 现场包成 `Translog.Index` / `Delete` / `NoOp` 对象发给副本;

  4. 副本收到后,**在自己的 IndexWriter 上重放**这些操作,生成**自己的** Lucene 段。

因此整个流程**既不读主分片的 translog 文件,也不依赖 translog 文件做传输**,只是借用了"Translog.Operation"这个统一的数据结构而已。

相关推荐
lifallen20 小时前
如何保证 Kafka 的消息顺序性?
java·大数据·分布式·kafka
Geoking.20 小时前
后端Long型数据传到前端js后精度丢失的问题(前后端传输踩坑指南)
java·前端·javascript·后端
Seven9720 小时前
【从0到1构建一个ClaudeAgent】规划与协调-子Agent
java
Fᴏʀ ʏ꯭ᴏ꯭ᴜ꯭.20 小时前
MySQL 主从架构中的使用技巧及优化
android·mysql·架构
羊小蜜.20 小时前
Mysql 11: 存储过程全解——从创建到使用
android·数据库·mysql·存储过程
宠友信息20 小时前
社交软件源码哪个渠道好
java·微服务·架构·社交电子·springboot·uniapp
improvement...20 小时前
Maven 编译打包全指南:整体 / 逐个打包 + 核心参数详解
java·maven
_李小白20 小时前
【OSG学习笔记】Day 41: ReadFileCallback 与 WriteFileCallback(自定义文件读取)
java·笔记·学习
每天吃饭的羊20 小时前
nest,java对比
java·开发语言
组合缺一20 小时前
SolonCode CLI v2026.4.11 发布(中文驱动的编码智能体)
java·ai编程·agents·solon-ai·claudecode·opencode·soloncode