elasticsearch的索引库操作

索引库就类似数据库表,mapping映射就类似表的结构。我们要向es中存储数据,必须先创建"库"和"表"。

mapping映射属性

mapping是对索引库中文档的约束,常见的mapping属性包括:

  • type:字段数据类型,常见的简单类型有:

    • 字符串:text(可分词的文本)、keyword(精确值,例如:品牌、国家、ip地址)

    • 数值:long、integer、short、byte、double、float、

    • 布尔:boolean

    • 日期:date

    • 对象:object

  • index:是否创建索引,默认为true

  • analyzer:使用哪种分词器

  • properties:该字段的子字段

    {
    "age": 321,
    "weight": 520.1,
    "isMarried": false,
    "info": "java实习生",
    "email": "1216019850@qq.com",
    "score": [929.1, 199.5, 98.9],
    "name": {
    "firstName": "白",
    "lastName": "李"
    }
    }

对应的每个字段映射(mapping):

  • age:类型为 integer;参与搜索,因此需要index为true;无需分词器

  • weight:类型为float;参与搜索,因此需要index为true;无需分词器

  • isMarried:类型为boolean;参与搜索,因此需要index为true;无需分词器

  • info:类型为字符串,需要分词,因此是text;参与搜索,因此需要index为true;分词器可以用ik_smart

  • email:类型为字符串,但是不需要分词,因此是keyword;不参与搜索,因此需要index为false;无需分词器

  • score:虽然是数组,但是我们只看元素的类型,类型为float;参与搜索,因此需要index为true;无需分词器

  • name:类型为object,需要定义多个子属性

    • name.firstName;类型为字符串,但是不需要分词,因此是keyword;参与搜索,因此需要index为true;无需分词器

    • name.lastName;类型为字符串,但是不需要分词,因此是keyword;参与搜索,因此需要index为true;无需分词器

索引库的CRUD

创建索引库和映射

复制代码
PUT /baima
{
 "mappings": {
    "properties": {
      "info":{
      "type": "text",
      "analyzer": "ik_smart"
      },
      "email":{
        "type": "keyword",
        "index": "false"
        },
      "name":{
          "properties": {
            "firstName": {
            "type":  "keyword"
          }
        }
      }
       
    }
  }
}

结果

查询索引库

复制代码
GET /baima

结果

修改索引库

索引库**一旦创建,无法修改mapping.**虽然无法修改mapping中已有的字段,但是却允许添加新的字段到mapping中,因为不会对倒排索引产生影响。

复制代码
PUT /baima/_mapping
{
  "properties":{
    "age":{
      "type":"integer"
    }
  }
}

结果

删除索引库

复制代码
DELETE /baima

结果

文档操作

新增文档

POST /baima/_doc/1,1为id,可以不填,es会帮我随机生成

复制代码
POST /baima/_doc/1
{
    "info": "java实习生",
    "email": "1216019850@qq.com",
    "name": {
        "firstName": "白",
        "lastName": "李"
    }
}

结果

查询文档

根据rest风格,新增是post,查询应该是get,不过查询一般都需要条件,这里我们把文档id带上。

复制代码
GET /baima/_doc/1

结果

删除文档

删除使用DELETE请求,同样,需要根据id进行删除

复制代码
DELETE /baima/_doc/1

结果

修改文档

修改有两种方式:

  • 全量修改:直接覆盖原来的文档

  • 增量修改:修改文档中的部分字段

全量修改

全量修改是覆盖原来的文档,其本质是

  • 根据指定的id删除

  • 新增一个相同id的文档

如果根据id删除时,id不存在,第二步的新增也会执行,也就从修改变成了新增操作了

复制代码
POST /baima/_doc/1
{
    "info": "es实习生",
    "email": "1216019851@qq.com",
    "name": {
        "firstName": "白白",
        "lastName": "李"
    }
}

增量修改

增量修改是只修改指定id匹配的文档中的部分字段

复制代码
POST /baima/_update/1
{
  "doc": {
    "info": "es实习生"
  }
}
相关推荐
二进制_博客24 分钟前
spark on hive 还是 hive on spark?
大数据·hive·spark
智海观潮37 分钟前
Spark RDD详解 —— RDD特性、lineage、缓存、checkpoint、依赖关系
大数据·缓存·spark
极限实验室2 小时前
Elasticsearch 备份:snapshot 镜像使用篇
数据库·elasticsearch
一个会的不多的人4 小时前
数字化转型:概念性名词浅谈(第七十二讲)
大数据·人工智能·制造·数字化转型
数据智能老司机4 小时前
在 Databricks 上的 Unity Catalog 数据治理——Unity Catalog 的内部机制
大数据·架构
LaughingZhu6 小时前
Product Hunt 每日热榜 | 2025-10-11
人工智能·经验分享·搜索引擎·产品运营
gb42152876 小时前
elasticsearch索引多长时间刷新一次(智能刷新索引根据数据条数去更新)
大数据·elasticsearch·jenkins
IT毕设梦工厂7 小时前
大数据毕业设计选题推荐-基于大数据的人体生理指标管理数据可视化分析系统-Hadoop-Spark-数据可视化-BigData
大数据·hadoop·信息可视化·spark·毕业设计·源码·bigdata
数在表哥7 小时前
从数据沼泽到智能决策:数据驱动与AI融合的中台建设方法论与技术实践指南(四)
大数据·人工智能
爱思德学术7 小时前
中国计算机学会(CCF)推荐学术会议-C(数据库/数据挖掘/内容检索):PAKDD 2026
大数据·机器学习·数据挖掘·知识发现