elasticsearch中文分词器插件下载教程

一、下载原因:

我们的业务中通常使⽤的是中⽂分词,es的中⽂分词默认会将中⽂词每个字看成⼀个词⽐如:"我想吃⾁夹馍"会被分为"我","想","吃","⾁" ,"夹","馍" 这显然是不太符合⽤⼾的使⽤习惯,所以我们需要安装中⽂分词器ik,来讲中⽂内容分解成更加符合⽤⼾使⽤的关键字。如下图:

二、下载地址

下载链接点这-->

找到与自己的elasticsearch想对应的版本下载即可

三、配置插件

下载完成后将其压随后放置在:es容器内/usr/share/elasticsearch/plugins⽬录下,也可以通过配置
挂载⽬录的⽅式将插件放在挂载⽬录下。然后可以去kibana可视化页面中,进行校验,如图:

至此我们成功的下载了对应的中文分词器,我们来看看效果如何:

可以看到,对中文的分词达到了我们预期的效果。

相关推荐
li_wen015 小时前
文件系统(八):Linux JFFS2文件系统工作原理、优势与局限
大数据·linux·数据库·文件系统·jffs2
昨夜见军贴06166 小时前
IACheck AI审核在生产型企业质量控制记录中的实践探索——全面赋能有关物质研究合规升级
大数据·人工智能
盖雅工场7 小时前
驱动千店销售转化提升10%:3C零售门店的人效优化实战方案
大数据·人工智能·零售·数字化管理·智能排班·零售排班
发哥来了7 小时前
【AI视频创作】【评测】【核心能力与成本效益】
大数据·人工智能
你才是臭弟弟7 小时前
什么是真正的“数据湖”(核心)
大数据
街灯L9 小时前
【kylin-Linux】Flash兼容插件包安装
大数据·linux·运维·kylin
min1811234569 小时前
AI金融风控:智能反欺诈与个性化理财
大数据·人工智能
渣渣盟11 小时前
大数据技术 Flink 优化之数据倾斜
大数据·flink
2501_9336707911 小时前
高职/大专学计算机的突围路径
大数据
xinyuan_12345611 小时前
不止于提速:德州数智招标采购交易平台,重塑采购生态新效率
大数据·人工智能