elasticsearch中文分词器插件下载教程

一、下载原因:

我们的业务中通常使⽤的是中⽂分词,es的中⽂分词默认会将中⽂词每个字看成⼀个词⽐如:"我想吃⾁夹馍"会被分为"我","想","吃","⾁" ,"夹","馍" 这显然是不太符合⽤⼾的使⽤习惯,所以我们需要安装中⽂分词器ik,来讲中⽂内容分解成更加符合⽤⼾使⽤的关键字。如下图:

二、下载地址

下载链接点这-->

找到与自己的elasticsearch想对应的版本下载即可

三、配置插件

下载完成后将其压随后放置在:es容器内/usr/share/elasticsearch/plugins⽬录下,也可以通过配置
挂载⽬录的⽅式将插件放在挂载⽬录下。然后可以去kibana可视化页面中,进行校验,如图:

至此我们成功的下载了对应的中文分词器,我们来看看效果如何:

可以看到,对中文的分词达到了我们预期的效果。

相关推荐
王子文-上海13 分钟前
风控研发大数据学习路线
大数据·学习
仟濹5 小时前
【HTML】基础学习【数据分析全栈攻略:爬虫+处理+可视化+报告】
大数据·前端·爬虫·数据挖掘·数据分析·html
viperrrrrrrrrr77 小时前
大数据学习(125)-hive数据分析
大数据·学习
仟濹7 小时前
「数据采集与网络爬虫(使用Python工具)」【数据分析全栈攻略:爬虫+处理+可视化+报告】
大数据·爬虫·python·数据挖掘·数据分析
鼓掌MVP8 小时前
软件工程方法论:在确定性与不确定性的永恒之舞中寻找平衡
大数据·软件工程
伊克罗德信息科技8 小时前
基于RPA技术的ECRobot企业智能体解决方案,打通企业自动化业务流程的最后一公里
大数据·人工智能
Elastic 中国社区官方博客8 小时前
Elastic 和 AWS 合作将 GenAI 引入 DevOps、安全和搜索领域
大数据·数据库·elasticsearch·搜索引擎·云计算·全文检索·aws
乱世刀疤8 小时前
深度 |推动公共数据按需有序安全流动
大数据
Mikhail_G9 小时前
Python应用for循环临时变量作用域
大数据·运维·开发语言·python·数据分析
AI大模型系统化学习9 小时前
AI产品风向标:从「工具属性」到「认知引擎」的架构跃迁
大数据·人工智能·ai·架构·大模型·ai大模型·大模型学习