elasticsearch中文分词器插件下载教程

一、下载原因:

我们的业务中通常使⽤的是中⽂分词,es的中⽂分词默认会将中⽂词每个字看成⼀个词⽐如:"我想吃⾁夹馍"会被分为"我","想","吃","⾁" ,"夹","馍" 这显然是不太符合⽤⼾的使⽤习惯,所以我们需要安装中⽂分词器ik,来讲中⽂内容分解成更加符合⽤⼾使⽤的关键字。如下图:

二、下载地址

下载链接点这-->

找到与自己的elasticsearch想对应的版本下载即可

三、配置插件

下载完成后将其压随后放置在:es容器内/usr/share/elasticsearch/plugins⽬录下,也可以通过配置
挂载⽬录的⽅式将插件放在挂载⽬录下。然后可以去kibana可视化页面中,进行校验,如图:

至此我们成功的下载了对应的中文分词器,我们来看看效果如何:

可以看到,对中文的分词达到了我们预期的效果。

相关推荐
Ai 编码助手9 分钟前
Elasticsearch插件:IDEA中的Elasticsearch开发利器
elasticsearch·jenkins·intellij-idea
API_technology2 小时前
高并发场景下的淘宝 API 开发实践:商品数据实时采集与性能优化
大数据·数据库·性能优化·数据挖掘
D愿你归来仍是少年3 小时前
Clickhouse 配置参考
大数据·clickhouse
极小狐9 小时前
极狐GitLab 项目 API 的速率限制如何设置?
大数据·运维·git·elasticsearch·gitlab
IT成长日记9 小时前
【HDFS】HDFS数据迁移与备份全攻略:从日常备份到灾难恢复
大数据·hadoop·hdfs·数据迁移与备份
残月只会敲键盘9 小时前
Git 命令速查手册
大数据·git·elasticsearch
凉白开33810 小时前
Spark-SQL核心编程
大数据·sql·spark
Matrix7013 小时前
Spark宽窄依赖与Join优化:协同划分与非协同划分的底层逻辑
大数据
key_3_feng14 小时前
大模型时代下全场景数据消费平台的智能BI—Quick BI深度解析
大数据·deepseek