elasticsearch-安装IK分词器

一、el默认分词器

es在创建倒排索引时需要对文档分词,在搜索时,需要对用户输入内容分词。但默认的分词规则对中文处理并不友好,在kibana的DevTools中测试

二、IK分词器

处理中文分词,一般会使用IK分词器。

GitHub官方网址:https://github.com/medcl/elasticsearch-analysis-ik

三、安装IK分词器

3.1 安装ik插件(在线安装)

进入容器内部

docker exec -it elasticsearch /bin/bash

#在线下载并安装

./bin/elasticsearch-plugin install https://github.com/medcl/elasticsearch-analysis-ik/releases/download/v7.12.1/elasticsearch-analysis-ik-7.12.1.zip

#退出

exit

#重启容器

docker restart elasticsearch

3.2 安装ik插件(离线安装)

1)查看数据卷目录

安装插件需要知道elasticsearch的plugins目录位置,通过下面命令查看elasticsearch的数据卷目录:

docker volume inspect es-pIugins

结果

说明plugins目录被挂载到了/var/lib/docker/volumes/es-plugins/_data这个目录

2)解压缩分词器安装包

下面我们需要把课前资料中ik人词器解压缩,重命名为ik

3)上传到es容器的插件数据卷中

地址路径 /var/1ib/docker/volumes/es-plugins/_data

4)重启容器

重启容器

docker restart es

查看es日志

docker logs -f es

5)IK的使用

IK分词器包含两种模式:

  • ik_smart:最少切分
  • ik_max_word:最细切分
相关推荐
曲幽1 小时前
FastAPI + PostgreSQL 实战:给应用装上“缓存”和“日志”翅膀
redis·python·elasticsearch·postgresql·logging·fastapi·web·es·fastapi-cache
Lupino4 小时前
别再只聊 AI 写代码了:技术负责人要把“变更治理”提到第一优先级
python·docker·容器
武子康4 小时前
大数据-244 离线数仓 - Hive ODS 层建表与分区加载实战(DataX→HDFS→Hive)
大数据·后端·apache hive
Elasticsearch1 天前
为上下文工程构建高效的数据库检索工具
elasticsearch
武子康1 天前
大数据-243 离线数仓 - 实战电商核心交易增量导入(DataX - HDFS - Hive 分区
大数据·后端·apache hive
Java陈序员2 天前
轻量强大!一款现代化的 Kubernetes 集群管理与监控工具!
云原生·容器·kubernetes
代码匠心3 天前
从零开始学Flink:Flink SQL四大Join解析
大数据·flink·flink sql·大数据处理
Sheffield4 天前
Docker的跨主机服务与其对应的优缺点
linux·网络协议·docker
武子康4 天前
大数据-242 离线数仓 - DataX 实战:MySQL 全量/增量导入 HDFS + Hive 分区(离线数仓 ODS
大数据·后端·apache hive
Sheffield4 天前
Alpine是什么,为什么是Docker首选?
linux·docker·容器