ES使用ik分词器查看分词结果及自定义词汇

本文使用ES版本:elasticsearch-7.17.9

对应Kibana版本也是7.17.9

1、查看es分词结果

在Kibana的dev tools中使用命令查看:

智能分词器--

Scala 复制代码
GET _analyze
{
  "analyzer": "ik_smart",
  "text": "1号线,2号线"
}

细粒度分词器--

Scala 复制代码
GET _analyze
{
  "analyzer": "ik_max_word",
  "text": "1号线,2号线"
}

2、扩展词库、自定义词库

找到es的IK插件位置:

\elasticsearch-7.17.9\plugins\ik\config

打开IKAnalyzer.cfg.xml文件

添加自定义扩展文件

<!--用户可以在这里配置自己的扩展字典 -->

<entry key="ext_dict">my.dic</entry>

同时,在同级目录新建my.dic文件,加入自定义词汇,例如:

1号线

2号线

.......

保存,重启ES即可生效。

注意:自定义的词库只有在使用ik_smart分词才会起作用。

相关推荐
代码匠心17 小时前
从零开始学Flink:Flink SQL四大Join解析
大数据·flink·flink sql·大数据处理
武子康2 天前
大数据-242 离线数仓 - DataX 实战:MySQL 全量/增量导入 HDFS + Hive 分区(离线数仓 ODS
大数据·后端·apache hive
Elasticsearch2 天前
需要知道某个同义词是否实际匹配了你的 Elasticsearch 查询吗?
elasticsearch
SelectDB3 天前
易车 × Apache Doris:构建湖仓一体新架构,加速 AI 业务融合实践
大数据·agent·mcp
武子康3 天前
大数据-241 离线数仓 - 实战:电商核心交易数据模型与 MySQL 源表设计(订单/商品/品类/店铺/支付)
大数据·后端·mysql
IvanCodes3 天前
一、消息队列理论基础与Kafka架构价值解析
大数据·后端·kafka
武子康4 天前
大数据-240 离线数仓 - 广告业务 Hive ADS 实战:DataX 将 HDFS 分区表导出到 MySQL
大数据·后端·apache hive
洛森唛5 天前
ElasticSearch查询语句Query String详解:从入门到精通
后端·elasticsearch
字节跳动数据平台5 天前
5000 字技术向拆解 | 火山引擎多模态数据湖如何释放模思智能的算法生产力
大数据
武子康5 天前
大数据-239 离线数仓 - 广告业务实战:Flume 导入日志到 HDFS,并完成 Hive ODS/DWD 分层加载
大数据·后端·apache hive