ES入门二:文档的基本操作

索引管理

创建索引

删除索引

文档管理

创建文档

  1. 如果有更新需求,使用第一种
  2. 如果有唯一性校验,使用第二种
  3. 如果需要系统给你创建文档Id,使用第三种 (这个性能更好

相比第一种,第三种的写入效率更高,因为不需要在库中查询是否已经存在,并且进行后续的删除工作

获取文档

使用Get Api来获取单个文档

Get Api比较简单,使用时只需要指定文档id即可。文档的原生内容保存在"_source"字段中,其他字段是这个文档的元数据。如果成功,返回的是http状态码为200,如果文档不存在则http状态码为404,并且found字段为false。

Get Api提供了多个参数,下面是几个比较常用的:

使用Mget Api来获取多个文档

更新文档

如果说发现一些书籍的信息有误,需要进行修改,ES提供了update Api来更新信息,我们可以通过这个接口来更新书本的信息

上图中更新了文档2的name和intro字段,如返回结果所示,版本号为增加,"result"字段为updated。

上面提到过,创建文档的时候也有更新文档的效果,但是和文档更新接口有什么区别那?其实之前PUT books/_doc/1 的效果是删除数据,然后再写入数据。它完成不了只更新某些字段的需求

删除文档

如上示例,如果文档存在则删除成功,"result"为"deleted",如果文档不存在,则返回http的状态码为404

批量操作文档

当我们需要写入多个文档的时候,如果每写入一个文档就发送一个请求,多少有点浪费。这个时候我们可以使用bulk api来批量处理

bulk api支持在一次调用中操作不同的索引,使用可以在Body中指定索引也可以在URI中指定索引。而且还可以同时支持4种索引操作:

  • Index
  • Create
  • Update
  • Delete
相关推荐
mazhafener1237 小时前
智慧照明:集中控制器、单双灯控制器与智慧灯杆网关的高效协同
大数据
打码人的日常分享7 小时前
物联网智慧医院建设方案(PPT)
大数据·物联网·架构·流程图·智慧城市·制造
Lansonli8 小时前
大数据Spark(六十一):Spark基于Standalone提交任务流程
大数据·分布式·spark
Rverdoser10 小时前
电脑硬盘分几个区好
大数据
傻啦嘿哟10 小时前
Python 数据分析与可视化实战:从数据清洗到图表呈现
大数据·数据库·人工智能
Theodore_102210 小时前
大数据(2) 大数据处理架构Hadoop
大数据·服务器·hadoop·分布式·ubuntu·架构
簌簌曌10 小时前
CentOS7 + JDK8 虚拟机安装与 Hadoop + Spark 集群搭建实践
大数据·hadoop·spark
冒泡的肥皂12 小时前
强大的ANTLR4语法解析器入门demo
后端·搜索引擎·编程语言
Theodore_102212 小时前
大数据(1) 大数据概述
大数据·hadoop·数据分析·spark·hbase
Aurora_NeAr13 小时前
Apache Spark详解
大数据·后端·spark