elasticsearch中文分词器插件下载教程

一、下载原因:

我们的业务中通常使⽤的是中⽂分词,es的中⽂分词默认会将中⽂词每个字看成⼀个词⽐如:"我想吃⾁夹馍"会被分为"我","想","吃","⾁" ,"夹","馍" 这显然是不太符合⽤⼾的使⽤习惯,所以我们需要安装中⽂分词器ik,来讲中⽂内容分解成更加符合⽤⼾使⽤的关键字。如下图:

二、下载地址

下载链接点这-->

找到与自己的elasticsearch想对应的版本下载即可

三、配置插件

下载完成后将其压随后放置在:es容器内/usr/share/elasticsearch/plugins⽬录下,也可以通过配置
挂载⽬录的⽅式将插件放在挂载⽬录下。然后可以去kibana可视化页面中,进行校验,如图:

至此我们成功的下载了对应的中文分词器,我们来看看效果如何:

可以看到,对中文的分词达到了我们预期的效果。

相关推荐
赞奇科技Xsuperzone20 小时前
【首发】DGX Spark 三机互连跑 Qwen3-235B-A22B-FP8!
大数据·分布式·spark
leijiwen1 天前
Bsin X BDCM:从流量驱动到价值激励驱动的智能增长引擎
大数据·人工智能·web3
fruge1 天前
Git 进阶技巧:分支管理、冲突解决、提交规范实操
大数据·git·elasticsearch
1***y1781 天前
区块链跨链桥、 跨链桥到底在解决什么问题?
大数据·人工智能·区块链
金融小师妹1 天前
基于LSTM-GARCH混合模型:降息预期驱动金价攀升,白银刷新历史峰值的蒙特卡洛模拟验证
大数据·人工智能·深度学习·1024程序员节
有味道的男人1 天前
速卖通商品详情接口(速卖通API系列)
java·大数据·数据库
天远云服1 天前
Golang 硬核实战:手撸 AES-CBC 算法,对接天远风控决策接口
大数据·api
天远数科1 天前
Node.js 全栈实战:5分钟对接天远风控 API与数据清洗
大数据·api
老蒋新思维1 天前
创客匠人 2025 峰会深度解析:AI 赋能垂直领域,创始人 IP 变现的差异化路径
大数据·网络·人工智能·网络协议·tcp/ip·重构·知识付费
EveryPossible1 天前
大数据优化
大数据