elasticsearch中文分词器插件下载教程

一、下载原因:

我们的业务中通常使⽤的是中⽂分词,es的中⽂分词默认会将中⽂词每个字看成⼀个词⽐如:"我想吃⾁夹馍"会被分为"我","想","吃","⾁" ,"夹","馍" 这显然是不太符合⽤⼾的使⽤习惯,所以我们需要安装中⽂分词器ik,来讲中⽂内容分解成更加符合⽤⼾使⽤的关键字。如下图:

二、下载地址

下载链接点这-->

找到与自己的elasticsearch想对应的版本下载即可

三、配置插件

下载完成后将其压随后放置在:es容器内/usr/share/elasticsearch/plugins⽬录下,也可以通过配置
挂载⽬录的⽅式将插件放在挂载⽬录下。然后可以去kibana可视化页面中,进行校验,如图:

至此我们成功的下载了对应的中文分词器,我们来看看效果如何:

可以看到,对中文的分词达到了我们预期的效果。

相关推荐
王伯安呢7 分钟前
Python实战:爬取百度热搜榜,制作动态可视化报告
python·百度·中文分词·jieba·新手教程·技术教程
不会聊天真君64716 分钟前
ES(springcloud笔记第五期)
笔记·elasticsearch·spring cloud
时空自由民.17 分钟前
repo 学习教程
大数据·学习·elasticsearch
刘一说18 分钟前
Elasticsearch HTTPS访问错误解决指南
大数据·elasticsearch·https
Frank_zhou1 小时前
Easy-Es 架构设计详解
后端·elasticsearch
华略创新2 小时前
引入外部咨询顾问,提供专业指导——制造企业大型系统项目的明智之选
大数据·制造·crm·erp系统·企业管理软件
时序数据说3 小时前
物联网时序数据管理的利器:为何IoTDB备受青睐?
大数据·数据库·物联网·时序数据库·iotdb
零千叶3 小时前
【面试】Elasticsearch 实战面试问题
elasticsearch
Justin_193 小时前
Linux防火墙firewalld
大数据·linux·运维
Lx3524 小时前
Hadoop数据处理模式:批处理与流处理结合技巧
大数据·hadoop