elasticsearch中文分词器插件下载教程

一、下载原因:

我们的业务中通常使⽤的是中⽂分词,es的中⽂分词默认会将中⽂词每个字看成⼀个词⽐如:"我想吃⾁夹馍"会被分为"我","想","吃","⾁" ,"夹","馍" 这显然是不太符合⽤⼾的使⽤习惯,所以我们需要安装中⽂分词器ik,来讲中⽂内容分解成更加符合⽤⼾使⽤的关键字。如下图:

二、下载地址

下载链接点这-->

找到与自己的elasticsearch想对应的版本下载即可

三、配置插件

下载完成后将其压随后放置在:es容器内/usr/share/elasticsearch/plugins⽬录下,也可以通过配置
挂载⽬录的⽅式将插件放在挂载⽬录下。然后可以去kibana可视化页面中,进行校验,如图:

至此我们成功的下载了对应的中文分词器,我们来看看效果如何:

可以看到,对中文的分词达到了我们预期的效果。

相关推荐
Lx3521 小时前
Hadoop数据倾斜问题诊断与解决方案
大数据·hadoop
IT果果日记3 小时前
flink+dolphinscheduler+dinky打造自动化数仓平台
大数据·后端·flink
chenglin0163 小时前
ES_预处理
大数据·elasticsearch·jenkins
AWS官方合作商3 小时前
零性能妥协:Gearbox Entertainment 通过 AWS 和 Perforce 实现远程开发革命
大数据·云计算·aws
武子康4 小时前
大数据-75 Kafka 高水位线 HW 与日志末端 LEO 全面解析:副本同步与消费一致性核心
大数据·后端·kafka
一飞大数据4 小时前
一文搞懂Flink时间语义
大数据
Elasticsearch4 小时前
使用 Ragas 评估你的 Elasticsearch LLM 应用
elasticsearch
chenglin0165 小时前
ES_文档
大数据·elasticsearch·jenkins
不辉放弃5 小时前
大数据仓库分层
大数据·数据仓库
杨荧7 小时前
基于Python的反诈知识科普平台 Python+Django+Vue.js
大数据·前端·vue.js·python·数据分析