ES入门二:文档的基本操作

索引管理

创建索引

删除索引

文档管理

创建文档

  1. 如果有更新需求,使用第一种
  2. 如果有唯一性校验,使用第二种
  3. 如果需要系统给你创建文档Id,使用第三种 (这个性能更好

相比第一种,第三种的写入效率更高,因为不需要在库中查询是否已经存在,并且进行后续的删除工作

获取文档

使用Get Api来获取单个文档

Get Api比较简单,使用时只需要指定文档id即可。文档的原生内容保存在"_source"字段中,其他字段是这个文档的元数据。如果成功,返回的是http状态码为200,如果文档不存在则http状态码为404,并且found字段为false。

Get Api提供了多个参数,下面是几个比较常用的:

使用Mget Api来获取多个文档

更新文档

如果说发现一些书籍的信息有误,需要进行修改,ES提供了update Api来更新信息,我们可以通过这个接口来更新书本的信息

上图中更新了文档2的name和intro字段,如返回结果所示,版本号为增加,"result"字段为updated。

上面提到过,创建文档的时候也有更新文档的效果,但是和文档更新接口有什么区别那?其实之前PUT books/_doc/1 的效果是删除数据,然后再写入数据。它完成不了只更新某些字段的需求

删除文档

如上示例,如果文档存在则删除成功,"result"为"deleted",如果文档不存在,则返回http的状态码为404

批量操作文档

当我们需要写入多个文档的时候,如果每写入一个文档就发送一个请求,多少有点浪费。这个时候我们可以使用bulk api来批量处理

bulk api支持在一次调用中操作不同的索引,使用可以在Body中指定索引也可以在URI中指定索引。而且还可以同时支持4种索引操作:

  • Index
  • Create
  • Update
  • Delete
相关推荐
Elasticsearch20 小时前
为上下文工程构建高效的数据库检索工具
elasticsearch
武子康21 小时前
大数据-243 离线数仓 - 实战电商核心交易增量导入(DataX - HDFS - Hive 分区
大数据·后端·apache hive
代码匠心2 天前
从零开始学Flink:Flink SQL四大Join解析
大数据·flink·flink sql·大数据处理
武子康4 天前
大数据-242 离线数仓 - DataX 实战:MySQL 全量/增量导入 HDFS + Hive 分区(离线数仓 ODS
大数据·后端·apache hive
Elasticsearch4 天前
需要知道某个同义词是否实际匹配了你的 Elasticsearch 查询吗?
elasticsearch
SelectDB5 天前
易车 × Apache Doris:构建湖仓一体新架构,加速 AI 业务融合实践
大数据·agent·mcp
武子康5 天前
大数据-241 离线数仓 - 实战:电商核心交易数据模型与 MySQL 源表设计(订单/商品/品类/店铺/支付)
大数据·后端·mysql
IvanCodes5 天前
一、消息队列理论基础与Kafka架构价值解析
大数据·后端·kafka
武子康6 天前
大数据-240 离线数仓 - 广告业务 Hive ADS 实战:DataX 将 HDFS 分区表导出到 MySQL
大数据·后端·apache hive
洛森唛7 天前
ElasticSearch查询语句Query String详解:从入门到精通
后端·elasticsearch