elasticsearch-安装IK分词器

一、el默认分词器

es在创建倒排索引时需要对文档分词,在搜索时,需要对用户输入内容分词。但默认的分词规则对中文处理并不友好,在kibana的DevTools中测试

二、IK分词器

处理中文分词,一般会使用IK分词器。

GitHub官方网址:https://github.com/medcl/elasticsearch-analysis-ik

三、安装IK分词器

3.1 安装ik插件(在线安装)

进入容器内部

docker exec -it elasticsearch /bin/bash

#在线下载并安装

./bin/elasticsearch-plugin install https://github.com/medcl/elasticsearch-analysis-ik/releases/download/v7.12.1/elasticsearch-analysis-ik-7.12.1.zip

#退出

exit

#重启容器

docker restart elasticsearch

3.2 安装ik插件(离线安装)

1)查看数据卷目录

安装插件需要知道elasticsearch的plugins目录位置,通过下面命令查看elasticsearch的数据卷目录:

docker volume inspect es-pIugins

结果

说明plugins目录被挂载到了/var/lib/docker/volumes/es-plugins/_data这个目录

2)解压缩分词器安装包

下面我们需要把课前资料中ik人词器解压缩,重命名为ik

3)上传到es容器的插件数据卷中

地址路径 /var/1ib/docker/volumes/es-plugins/_data

4)重启容器

重启容器

docker restart es

查看es日志

docker logs -f es

5)IK的使用

IK分词器包含两种模式:

  • ik_smart:最少切分
  • ik_max_word:最细切分
相关推荐
筑梦之路38 分钟前
etcd节点噶了导致的k8s集群瘫痪处理参考——筑梦之路
docker·kubernetes·etcd
云淡风轻~~1 小时前
构建和部署Spark、Hadoop与Zeppelin集成环境
大数据·hadoop·spark
IT研究室1 小时前
大数据毕业设计选题推荐-基于大数据的人体体能活动能量消耗数据分析与可视化系统-大数据-Spark-Hadoop-Bigdata
大数据·hadoop·数据分析·spark·毕业设计·源码·bigdata
@LetsTGBot搜索引擎机器人2 小时前
用 Python 打造一个 Telegram 二手交易商城机器人
开发语言·python·搜索引擎·机器人·.net·facebook·twitter
元基时代2 小时前
视频图文矩阵发布系统企业
大数据·人工智能·矩阵
三坛海会大神5552 小时前
K8S入门1.20版本部署
云原生·容器·kubernetes
IT研究室2 小时前
大数据毕业设计选题推荐-基于大数据的人类健康生活方式数据分析与可视化系统-大数据-Spark-Hadoop-Bigdata
大数据·生活·课程设计
讓丄帝愛伱3 小时前
idea 中 mapper.xml黄线警告怎么去掉
java·intellij-idea
风清再凯4 小时前
03-docker存储与网络
网络·docker·容器
武子康4 小时前
大数据-122 - Flink Watermark 全面解析:事件时间窗口、乱序处理与迟到数据完整指南
大数据·后端·flink