Elasticsearch 中批量更新文档(Update By Query)的标准写法

1. 准备阶段:确定目标和条件

复制代码
UpdateByQueryRequest updateByQueryRequest = new UpdateByQueryRequest(ArchivesGlobalConstant.PROFILE_INDEX_NAME);
updateByQueryRequest.setDocTypes(ArchivesGlobalConstant.TYPE_NAME);
updateByQueryRequest.setQuery(QueryBuilders.termsQuery("lib_id", libIds));
  • 创建请求对象new UpdateByQueryRequest(...)
    • 意义 :告诉 ES,"我要对 PROFILE_INDEX_NAME 这个索引执行批量更新操作"。
  • 设置类型setDocTypes(...)
    • 意义:限定操作的文档类型(虽然新版 ES 逐渐弱化类型,但旧版客户端代码里还需要写)。
  • 设置查询条件setQuery(...)
    • 意义"找谁?" 。使用 termsQuery 找出所有 lib_idlibIds 列表中的文档。这一步和查数据是一模一样的。

2. 逻辑阶段:定义修改规则(核心)

复制代码
Map<String, Object> params = Maps.newHashMap();
params.put("groupId", groupId);
params.put("groupIds", Lists.newArrayList(groupId));

// ... 中间根据 ADD/REMOVE 选择脚本
updateByQueryRequest.setScript(new Script(...));
  • 准备参数params
    • 意义 :把 Java 里的变量(groupId)包装成 Map,准备传给 ES。这样做的目的是为了防止字符串拼接错误,也方便 ES 做安全检查。
  • 定义脚本new Script(...)
    • 意义"改成什么样?"。这是批量更新的灵魂。
    • 逻辑:把刚才的参数、脚本语言(Painless)、以及具体的修改代码(那个长字符串)组装在一起。
    • 注意 :这里根据 operateTag 判断是执行"添加 ID"还是"删除 ID"的逻辑。

3. 执行阶段:发送指令并处理

复制代码
updateByQueryRequest.setRefresh(true);
updateByQueryRequest.setConflicts("proceed");

try {
    restHighLevelClient.updateByQuery(updateByQueryRequest, RequestOptions.DEFAULT);
} catch (IOException e) {
    // 错误处理
}
  • 配置选项
    • setRefresh(true)立即生效。更新完马上刷新索引,让数据能立刻被搜索到(如果不设,ES 可能会为了性能稍后才刷新,导致查不到刚改的数据)。
    • setConflicts("proceed")冲突忽略。如果在更新过程中有其他人在修改同一条数据,不要报错停止,而是继续执行下去。
  • 发送请求client.updateByQuery(...)
    • 意义:把请求发给 ES。ES 会根据条件找到文档,然后执行脚本里的逻辑,最后保存。
相关推荐
百***07452 小时前
OpenClaw+一步API实战:本地化AI自动化助手从部署到落地全指南
大数据·人工智能·python
BYSJMG2 小时前
计算机毕设选题推荐:基于Hadoop的交通事故数据可视化分析系统
大数据·vue.js·hadoop·分布式·后端·信息可视化·课程设计
小程故事多_802 小时前
Elasticsearch ES 分词与关键词匹配技术方案解析
大数据·人工智能·elasticsearch·搜索引擎·aigc
念丶小宇2 小时前
Git常用指令
大数据·git·elasticsearch
IT研究所2 小时前
信创浪潮下 ITSM 的价值重构与实践赋能
大数据·运维·人工智能·安全·低代码·重构·自动化
AI职业加油站2 小时前
Python技术应用工程师:互联网行业技能赋能者
大数据·开发语言·人工智能·python·数据分析
深蓝海域知识库3 小时前
深蓝海域中标大型机电企业大模型知识工程平台项目
大数据·人工智能
Gain_chance3 小时前
32-学习笔记尚硅谷数仓搭建-DWD层首日数据装载脚本及每日数据装载脚本
大数据·数据仓库·hive·笔记·学习
sheji34163 小时前
【开题答辩全过程】以 基于hadoop的空气质量数据分析及可视化系统为例,包含答辩的问题和答案
大数据·hadoop·数据分析