Elasticsearch 中批量更新文档(Update By Query)的标准写法

1. 准备阶段:确定目标和条件

复制代码
UpdateByQueryRequest updateByQueryRequest = new UpdateByQueryRequest(ArchivesGlobalConstant.PROFILE_INDEX_NAME);
updateByQueryRequest.setDocTypes(ArchivesGlobalConstant.TYPE_NAME);
updateByQueryRequest.setQuery(QueryBuilders.termsQuery("lib_id", libIds));
  • 创建请求对象new UpdateByQueryRequest(...)
    • 意义 :告诉 ES,"我要对 PROFILE_INDEX_NAME 这个索引执行批量更新操作"。
  • 设置类型setDocTypes(...)
    • 意义:限定操作的文档类型(虽然新版 ES 逐渐弱化类型,但旧版客户端代码里还需要写)。
  • 设置查询条件setQuery(...)
    • 意义"找谁?" 。使用 termsQuery 找出所有 lib_idlibIds 列表中的文档。这一步和查数据是一模一样的。

2. 逻辑阶段:定义修改规则(核心)

复制代码
Map<String, Object> params = Maps.newHashMap();
params.put("groupId", groupId);
params.put("groupIds", Lists.newArrayList(groupId));

// ... 中间根据 ADD/REMOVE 选择脚本
updateByQueryRequest.setScript(new Script(...));
  • 准备参数params
    • 意义 :把 Java 里的变量(groupId)包装成 Map,准备传给 ES。这样做的目的是为了防止字符串拼接错误,也方便 ES 做安全检查。
  • 定义脚本new Script(...)
    • 意义"改成什么样?"。这是批量更新的灵魂。
    • 逻辑:把刚才的参数、脚本语言(Painless)、以及具体的修改代码(那个长字符串)组装在一起。
    • 注意 :这里根据 operateTag 判断是执行"添加 ID"还是"删除 ID"的逻辑。

3. 执行阶段:发送指令并处理

复制代码
updateByQueryRequest.setRefresh(true);
updateByQueryRequest.setConflicts("proceed");

try {
    restHighLevelClient.updateByQuery(updateByQueryRequest, RequestOptions.DEFAULT);
} catch (IOException e) {
    // 错误处理
}
  • 配置选项
    • setRefresh(true)立即生效。更新完马上刷新索引,让数据能立刻被搜索到(如果不设,ES 可能会为了性能稍后才刷新,导致查不到刚改的数据)。
    • setConflicts("proceed")冲突忽略。如果在更新过程中有其他人在修改同一条数据,不要报错停止,而是继续执行下去。
  • 发送请求client.updateByQuery(...)
    • 意义:把请求发给 ES。ES 会根据条件找到文档,然后执行脚本里的逻辑,最后保存。
相关推荐
冯RI375II6948721 小时前
CPC认证的流程是怎样的呢
大数据
打码人的日常分享1 天前
数据中心信息中心信息科管理制度
大数据·运维·网络·云计算·制造
AI周红伟1 天前
周红伟:信创大模型企业级部署实操,Qwen3.5 昇腾企业级部署案例实操
大数据·人工智能·大模型·智能体
SickeyLee1 天前
AI产品经理-大模型的智力之源与能力边界
大数据·人工智能
智海观潮1 天前
Vanna-ai - 让自然语言对话SQL数据库成为可能,支持多种数据库,大模型和向量存储
大数据·nlp·aigc
阿甘编程点滴1 天前
2026年适合企业产品介绍可商用的9款解说配音软件
大数据
AI周红伟1 天前
周红伟:Qwen3.5-Plus - 企业级部署案例实操,Qwen3.5 LLM,包括 Qwen3.5-397B-A17B
大数据·人工智能·大模型·智能体
历程里程碑1 天前
普通数组---合并区间
java·大数据·数据结构·算法·leetcode·elasticsearch·搜索引擎
T06205141 天前
【面板数据】A股上市公司重污染行业分组数据集-含参考文献 (2000-2024年)
大数据
cm_chenmin1 天前
Cursor最佳实践之三:MCP
大数据·elasticsearch·搜索引擎