ik_smart 与 ik_max_word到底有啥区别?

ik_smart 与 ik_max_word 的异同

首先来看下官方的FAQs

What is the difference between ik_max_word and ik_smart?

ik_max_word: Performs the finest-grained segmentation of the text. For example, it will segment "中华人民共和国国歌" into "中华人民共和国,中华人民,中华,华人,人民共和国,人民,人,民,共和国,共和,和,国国,国歌", exhaustively generating various possible combinations, suitable for Term Query.

ik_smart: Performs the coarsest-grained segmentation of the text. For example, it will segment "中华人民共和国国歌" into "中华人民共和国,国歌", suitable for Phrase queries.

Note: ik_smart is not a subset of ik_max_word.

官方这里简单的描述了一下使用用途,即:

  1. ik_smart 比较适合 match_phrase query,而 ik_max_word 更合适 term query。
  1. ik_smart 的分词结果并不是 ik_max_word 的分词结果的子集。

那这两个分词器在具体实现上会有什么不一样呢?

哪些场景两个分词器的分词结果肯定不同呢?

造成分词结果不一样的原因是什么?

3、ik 分词器源码分析

3.1. 量词处理源码剖析

这里先看一下这段代码。

  private void compound(Lexeme result){

  if(!this.cfg.isUseSmart()){
   return ;
  }
     //数量词合并处理
  if(!this.results.isEmpty()){

   if(Lexeme.TYPE_ARABIC == result.getLexemeType()){
    Lexeme nextLexeme = this.results.peekFirst();
    boolean appendOk = false;
    if(Lexeme.TYPE_CNUM == nextLexeme.getLexemeType()){
     //合并英文数词+中文数词
     appendOk = result.append(nextLexeme, Lexeme.TYPE_CNUM);
    }else if(Lexeme.TYPE_COUNT == nextLexeme.getLexemeType()){
     //合并英文数词+中文量词
     appendOk = result.append(nextLexeme, Lexeme.TYPE_CQUAN);
    }
    if(appendOk){
     //弹出
     this.results.pollFirst(); 
    }
   }
   
   //可能存在第二轮合并
   if(Lexeme.TYPE_CNUM == result.getLexemeType() && !this.results.isEmpty()){
    Lexeme nextLexeme = this.results.peekFirst();
    boolean appendOk = false;
     if(Lexeme.TYPE_COUNT == nextLexeme.getLexemeType()){
      //合并中文数词+中文量词
      appendOk = result.append(nextLexeme, Lexeme.TYPE_CQUAN);
     }  
    if(appendOk){
     //弹出
     this.results.pollFirst();       
    }
   }

  }
 }

这里由 smart 模式触发的 合并英文数词+中文量词 的处理中,把 token 的属性修改成了 TYPE_CQUAN (中文数量词)。

这是 smart 模式下拥有而 max 模式下没有的分词方式和 token 类型。

举个例子:"7天" 这个词的分词结果,结果中分别展示了位置:内容:类型

ik_max_word:
0-1 : 7 :  ARABIC
1-2 : 天 :  COUNT

ik_smart
0-2 : 7天 :  TYPE_CQUAN

也就是说 ik_max_word 与 ik_smart 在'英文数词+中文量词'的分词场景下,分词结果必定不一样。

3.2. 切分模式和歧义消除剖析

ik分词器的算法原则还是基于中文字典进行字典树的匹配。

也就是说词元匹配的前提是丰富的中文字典库(ik 已经默认加载了几十万的字典库了)。

我们先来看 ik_max_word 的切分模式:执行文本的最细粒度分割,将分段详尽地生成各种可能的组合。

来看下"中华人民共和国国歌"的例子,这里为了更加直观的体现字典树的匹配模式,我们把字典库的内容也列出来。

文本:中华人民共和国国歌

字典库:中华人民共和国国歌,中华人民,中华,华人,人民共和国,人民,共和国,共和,国国,国歌

ik_max_word 分词结果:
0-9 : 中华人民共和国国歌 :  CN_WORD
0-4 : 中华人民 :  CN_WORD
0-2 : 中华 :  CN_WORD
1-3 : 华人 :  CN_WORD
2-7 : 人民共和国 :  CN_WORD
2-4 : 人民 :  CN_WORD
4-7 : 共和国 :  CN_WORD
4-6 : 共和 :  CN_WORD
6-8 : 国国 :  CN_WORD
7-9 : 国歌 :  CN_WORD

可以看出 ik_max_word 分词器把所有的字典结果都匹配出来了,同时也看到了好几个词元的位置是有重叠的,比如:"中华人民""中华""华人"这几个词元,位置在0-4这段有着不同的重叠。

这也就是造成了代码中所需要处理的"歧义",我们这里可以把"歧义"理解为多个词元组合去代表一段内容。

而 ik_smart 分词器主要作用就是通过对词元组合进行歧义裁决 来消除词元间的歧义,消除歧义后的直观体现就是不再会有位置重叠的词元(这也是 ik_smart 更适合 match_phrase 查询的原因)。

ik_smart 遵循歧义裁决的主要原则顺序如下:

  1. 比较有效文本长度,越长越好;

  2. 比较词元个数,越少越好;

  3. 路径跨度越大越好;

  4. 根据统计学结论,逆向切分概率高于正向切分,因此位置越靠后的优先;

  5. 词元位置权重比较,词长越平均越好。

同样的文本内容,同样的字典库,ik_smart 的分词结果如下:

ik_smart 分词结果:
0-9 : 中华人民共和国国歌 :  CN_WORD

由于字典库中"中华人民共和国国歌"可以覆盖整个文本,并满足上诉大多数条件,ik_smart 就只保留了第一个词元。

为了更直观的感受,我们把"中华人民共和国国歌"从词库中去除。

字典库:中华人民,中华,华人,人民共和国,人民,共和国,共和,国国,国歌

ik_smart 分词结果:
0-4 : 中华人民 :  CN_WORD
4-7 : 共和国 :  CN_WORD
7-9 : 国歌 :  CN_WORD

对于 ik_smart 歧义裁决原理有兴趣的同学可以看源码中 LexemePath 类的 compareTo 方法。

相关推荐
河南查新信息技术研究院14 小时前
科技查新在医药健康领域的应用
大数据·科技·全文检索
河南查新信息技术研究院2 天前
不同的科技查新机构之间有什么区别?
大数据·科技·全文检索
铭毅天下3 天前
基于 Canal + Elasticsearch 的业务操作日志解决方案
大数据·elasticsearch·搜索引擎·全文检索·jenkins
Elastic 中国社区官方博客3 天前
什么是 OpenTelemetry?
大数据·数据库·elasticsearch·搜索引擎·全文检索·可用性测试
Elastic 中国社区官方博客4 天前
使用 Elasticsearch 进行语义搜索
大数据·python·elasticsearch·搜索引擎·全文检索
Elastic 中国社区官方博客5 天前
Elasticsearch Interval 查询:为什么它们是真正的位置查询,以及如何从 Span 转换
大数据·数据库·elasticsearch·搜索引擎·全文检索
程序猿小D5 天前
第三百零二节 Lucene教程 - Lucene搜索文件
java·数据库·sql·搜索引擎·全文检索·mybatis·lucene
緑水長流*z5 天前
Lucene的使用方法与Luke工具(2)
java·elasticsearch·搜索引擎·全文检索·solr·lucene·倒排索引
花千树-0106 天前
深入探讨 Tantivy 及其在 Milvus 中的应用:倒排索引库对比与选择
elasticsearch·全文检索·lucene·milvus·es
程序猿小D6 天前
第三百零七节 Log4j教程 - Log4j日志格式、Log4j日志到文件
数据库·sql·log4j·全文检索·mybatis·lucene