ES入门二:文档的基本操作

索引管理

创建索引

删除索引

文档管理

创建文档

  1. 如果有更新需求,使用第一种
  2. 如果有唯一性校验,使用第二种
  3. 如果需要系统给你创建文档Id,使用第三种 (这个性能更好

相比第一种,第三种的写入效率更高,因为不需要在库中查询是否已经存在,并且进行后续的删除工作

获取文档

使用Get Api来获取单个文档

Get Api比较简单,使用时只需要指定文档id即可。文档的原生内容保存在"_source"字段中,其他字段是这个文档的元数据。如果成功,返回的是http状态码为200,如果文档不存在则http状态码为404,并且found字段为false。

Get Api提供了多个参数,下面是几个比较常用的:

使用Mget Api来获取多个文档

更新文档

如果说发现一些书籍的信息有误,需要进行修改,ES提供了update Api来更新信息,我们可以通过这个接口来更新书本的信息

上图中更新了文档2的name和intro字段,如返回结果所示,版本号为增加,"result"字段为updated。

上面提到过,创建文档的时候也有更新文档的效果,但是和文档更新接口有什么区别那?其实之前PUT books/_doc/1 的效果是删除数据,然后再写入数据。它完成不了只更新某些字段的需求

删除文档

如上示例,如果文档存在则删除成功,"result"为"deleted",如果文档不存在,则返回http的状态码为404

批量操作文档

当我们需要写入多个文档的时候,如果每写入一个文档就发送一个请求,多少有点浪费。这个时候我们可以使用bulk api来批量处理

bulk api支持在一次调用中操作不同的索引,使用可以在Body中指定索引也可以在URI中指定索引。而且还可以同时支持4种索引操作:

  • Index
  • Create
  • Update
  • Delete
相关推荐
huaqianzkh31 分钟前
了解Hadoop:大数据处理的核心框架
大数据·hadoop·分布式
Kika写代码1 小时前
【Hadoop】【hdfs】【大数据技术基础】实验三 HDFS 基础编程实验
大数据·hadoop·hdfs
okmacong3 小时前
2024.11.12_大数据的诞生以及解决的问题
大数据
Java资深爱好者5 小时前
数据湖与数据仓库的区别
大数据·数据仓库·spark
heromps5 小时前
hadoop报错找不到主类
大数据·hadoop·eclipse
未 顾7 小时前
day12:版本控制器
大数据·elasticsearch·搜索引擎
CherishTaoTao7 小时前
Git别名设置
大数据·git
Dreams°1238 小时前
【大数据测试HBase数据库 — 详细教程(含实例与监控调优)】
大数据·功能测试·单元测试
Elastic 中国社区官方博客12 小时前
Lucene 和 Elasticsearch 中更好的二进制量化 (BBQ)
大数据·人工智能·elasticsearch·搜索引擎·ai·全文检索·lucene