ES入门二:文档的基本操作

索引管理

创建索引

删除索引

文档管理

创建文档

  1. 如果有更新需求,使用第一种
  2. 如果有唯一性校验,使用第二种
  3. 如果需要系统给你创建文档Id,使用第三种 (这个性能更好

相比第一种,第三种的写入效率更高,因为不需要在库中查询是否已经存在,并且进行后续的删除工作

获取文档

使用Get Api来获取单个文档

Get Api比较简单,使用时只需要指定文档id即可。文档的原生内容保存在"_source"字段中,其他字段是这个文档的元数据。如果成功,返回的是http状态码为200,如果文档不存在则http状态码为404,并且found字段为false。

Get Api提供了多个参数,下面是几个比较常用的:

使用Mget Api来获取多个文档

更新文档

如果说发现一些书籍的信息有误,需要进行修改,ES提供了update Api来更新信息,我们可以通过这个接口来更新书本的信息

上图中更新了文档2的name和intro字段,如返回结果所示,版本号为增加,"result"字段为updated。

上面提到过,创建文档的时候也有更新文档的效果,但是和文档更新接口有什么区别那?其实之前PUT books/_doc/1 的效果是删除数据,然后再写入数据。它完成不了只更新某些字段的需求

删除文档

如上示例,如果文档存在则删除成功,"result"为"deleted",如果文档不存在,则返回http的状态码为404

批量操作文档

当我们需要写入多个文档的时候,如果每写入一个文档就发送一个请求,多少有点浪费。这个时候我们可以使用bulk api来批量处理

bulk api支持在一次调用中操作不同的索引,使用可以在Body中指定索引也可以在URI中指定索引。而且还可以同时支持4种索引操作:

  • Index
  • Create
  • Update
  • Delete
相关推荐
lizz6666 分钟前
Python查询ES错误ApiError(406, ‘Content-Type ...is not supported
python·elasticsearch
2401_871290581 小时前
Spark的缓存
大数据·spark
IvanCodes3 小时前
六、Hive 分桶
大数据·hive
依年南台3 小时前
Spark处理过程-转换算子和行动算子
大数据·ajax·spark
中电金信3 小时前
重构金融数智化产业版图:中电金信“链主”之道
大数据·人工智能
七七-d3 小时前
配置Hadoop集群-上传文件
大数据·hadoop·eclipse
心仪悦悦5 小时前
Spark缓存
大数据·缓存·spark
lix的小鱼5 小时前
安装Hadoop并运行WordCount程序
大数据·linux·hadoop
七七-d5 小时前
测试集群的功能-执行wordcount程序
大数据
INFINI Labs5 小时前
INFINI Console 纳管 Elasticsearch 9(一):指标监控、数据管理、DSL 语句执行
大数据·elasticsearch·搜索引擎·console