elasticsearch中文分词器插件下载教程

一、下载原因:

我们的业务中通常使⽤的是中⽂分词,es的中⽂分词默认会将中⽂词每个字看成⼀个词⽐如:"我想吃⾁夹馍"会被分为"我","想","吃","⾁" ,"夹","馍" 这显然是不太符合⽤⼾的使⽤习惯,所以我们需要安装中⽂分词器ik,来讲中⽂内容分解成更加符合⽤⼾使⽤的关键字。如下图:

二、下载地址

下载链接点这-->

找到与自己的elasticsearch想对应的版本下载即可

三、配置插件

下载完成后将其压随后放置在:es容器内/usr/share/elasticsearch/plugins⽬录下,也可以通过配置
挂载⽬录的⽅式将插件放在挂载⽬录下。然后可以去kibana可视化页面中,进行校验,如图:

至此我们成功的下载了对应的中文分词器,我们来看看效果如何:

可以看到,对中文的分词达到了我们预期的效果。

相关推荐
大有数据可视化36 分钟前
数字孪生背后的大数据技术:时序数据库为何是关键?
大数据·数据库·人工智能
山河亦问安2 小时前
基于Kafka+ElasticSearch+MongoDB+Redis+XXL-Job日志分析系统(学习)
mongodb·elasticsearch·kafka
Elastic 中国社区官方博客2 小时前
CI/CD 流水线与 agentic AI:如何创建自我纠正的 monorepos
大数据·运维·数据库·人工智能·搜索引擎·ci/cd·全文检索
计算机毕设残哥7 小时前
基于Hadoop+Spark的商店购物趋势分析与可视化系统技术实现
大数据·hadoop·python·scrapy·spark·django·dash
IT研究室7 小时前
大数据毕业设计选题推荐-基于大数据的全球能源消耗量数据分析与可视化系统-大数据-Spark-Hadoop-Bigdata
大数据·hadoop·spark·毕业设计·源码·数据可视化·bigdata
武子康7 小时前
大数据-113 Flink 源算子详解:非并行源(Non-Parallel Source)的原理与应用场景
大数据·后端·flink
禁默9 小时前
第四届云计算、大数据应用与软件工程国际学术会议(CBASE 2025)
大数据·云计算
Elasticsearch9 小时前
Elasticsearch MCP 服务器:与你的 Index 聊天
elasticsearch
Lansonli10 小时前
大数据Spark(六十五):Transformation转换算子groupByKey和filter
大数据·分布式·spark
数据皮皮侠AI10 小时前
再发《管理世界》!智能制造试点DID(2000-2023)
大数据·数据库·人工智能·科技·金融·制造