elasticsearch的基本使用

使用postman进行测试

如下图所示:

需要进行验证,请选择Authorization中的basic auth,填写账号以及密码。

添加ik中文分词

安装 IK 分词器插件:

下载 IK 分词器插件,可以从 GitHub 上的
elasticsearch-analysis-ik

页面下载最好下载与ES版本相同的IK版本文件。

将下载的插件解压缩到 Elasticsearch 的插件目录中。(插件目录在ES的根目录下的plugins)

创建索引并指定 IK 分词器:

在创建索引时,使用自定义的分词器配置来指定字段的分词器为 IK 分词器。

具体步骤如下:

ps: plugins下面只存放插件,而压缩包必须删除掉,千万不要也放在下面!!!!切记。

创建索引格式演示:

powershell 复制代码
PUT /my_index
{
  "settings": {
    "analysis": {
      "analyzer": {
        "ik_analyzer": {
          "type": "custom",
          "tokenizer": "ik_max_word",
          "filter": ["synonym_filter", "stop_filter"]
        }
      },
      "filter": {
        "synonym_filter": {
          "type": "synonym",
          "synonyms_path": "analysis/synonyms.txt"
        },
        "stop_filter": {
          "type": "stop",
          "stopwords_path": "analysis/stop.txt"
        }
      }
    }
  },
  "mappings": {
    "properties": {
      "content": {
        "type": "text",
        "analyzer": "ik_analyzer"
      }
    }
  }
}

说明:

设置了一个自定义的解析器analyzer

定义名称为ik_analyzer(可根据自己喜好修改名称)

定义它的类型为custom自定义类型

采用的分词tokenizer为ik_max_word

定义了同义词和停用词过滤filter为synonym_filter、stop_filter

设置过滤filter

分别命名为synonym_filter和stop_filter(名字自己取),上边引用的filter就是对应的这个名字(不要写错)

定义了type类型分别是synonym(同义词)、stop(停用词)

synonyms_path和stopwords_path分别是同义词和停用词文件位置,文件路径为ES根目录下的config中创建analysis/synonyms.txt和analysis/stop.txt;(文件夹analysis和文件XXX.txt可自己定义,主要是放在config下边)

二、 以上mappings中说明:

定义属性properties为content(这个就是我们要进行分词的字段名)

定义content字段类型为type:text

字段content采用的解析方式analyzer为上边settings中定义的ik_analyzer

相关推荐
Elastic 中国社区官方博客2 小时前
Elastic 在 AWS re:Invent:总结一年在 agentic AI 创新中的合作
大数据·人工智能·elasticsearch·搜索引擎·云计算·全文检索·aws
ToB营销学堂2 小时前
自动化营销是什么?B2B企业高效增长的核心引擎
大数据·运维·自动化·b2b营销获客·b2b系统管理
AI营销资讯站2 小时前
AI营销内容生产领域原圈科技多智能体系统优势分析
大数据·人工智能
TG:@yunlaoda360 云老大2 小时前
华为云国际站代理商的CCE主要有什么作用呢?
大数据·华为云·云计算·产品运营
TG:@yunlaoda360 云老大2 小时前
华为云国际站代理商DSS主要有什么作用呢?
大数据·华为云·云计算·产品运营
写代码的【黑咖啡】3 小时前
在大数据环境中如何设计数据集市
大数据
叮咚侠3 小时前
将已创建的Elasticsearch 8.12.0的docker容器中的数据挂载到宿主机操作步骤
运维·elasticsearch·docker·容器·kibana
老徐电商数据笔记3 小时前
技术复盘第三篇:百果园新零售核心业务流程主题域划分详解
大数据·数据仓库·零售·技术面试
liliangcsdn3 小时前
elasticsearch多字段组合查询示例
大数据·elasticsearch·搜索引擎
TDengine (老段)3 小时前
TDengine IDMP 1.0.9.0 上线:数据建模、分析运行与可视化能力更新一览
大数据·数据库·物联网·ai·时序数据库·tdengine·涛思数据