ik_smart 与 ik_max_word到底有啥区别?

ik_smart 与 ik_max_word 的异同

首先来看下官方的FAQs

What is the difference between ik_max_word and ik_smart?

ik_max_word: Performs the finest-grained segmentation of the text. For example, it will segment "中华人民共和国国歌" into "中华人民共和国,中华人民,中华,华人,人民共和国,人民,人,民,共和国,共和,和,国国,国歌", exhaustively generating various possible combinations, suitable for Term Query.

ik_smart: Performs the coarsest-grained segmentation of the text. For example, it will segment "中华人民共和国国歌" into "中华人民共和国,国歌", suitable for Phrase queries.

Note: ik_smart is not a subset of ik_max_word.

官方这里简单的描述了一下使用用途,即:

  1. ik_smart 比较适合 match_phrase query,而 ik_max_word 更合适 term query。
  1. ik_smart 的分词结果并不是 ik_max_word 的分词结果的子集。

那这两个分词器在具体实现上会有什么不一样呢?

哪些场景两个分词器的分词结果肯定不同呢?

造成分词结果不一样的原因是什么?

3、ik 分词器源码分析

3.1. 量词处理源码剖析

这里先看一下这段代码。

  private void compound(Lexeme result){

  if(!this.cfg.isUseSmart()){
   return ;
  }
     //数量词合并处理
  if(!this.results.isEmpty()){

   if(Lexeme.TYPE_ARABIC == result.getLexemeType()){
    Lexeme nextLexeme = this.results.peekFirst();
    boolean appendOk = false;
    if(Lexeme.TYPE_CNUM == nextLexeme.getLexemeType()){
     //合并英文数词+中文数词
     appendOk = result.append(nextLexeme, Lexeme.TYPE_CNUM);
    }else if(Lexeme.TYPE_COUNT == nextLexeme.getLexemeType()){
     //合并英文数词+中文量词
     appendOk = result.append(nextLexeme, Lexeme.TYPE_CQUAN);
    }
    if(appendOk){
     //弹出
     this.results.pollFirst(); 
    }
   }
   
   //可能存在第二轮合并
   if(Lexeme.TYPE_CNUM == result.getLexemeType() && !this.results.isEmpty()){
    Lexeme nextLexeme = this.results.peekFirst();
    boolean appendOk = false;
     if(Lexeme.TYPE_COUNT == nextLexeme.getLexemeType()){
      //合并中文数词+中文量词
      appendOk = result.append(nextLexeme, Lexeme.TYPE_CQUAN);
     }  
    if(appendOk){
     //弹出
     this.results.pollFirst();       
    }
   }

  }
 }

这里由 smart 模式触发的 合并英文数词+中文量词 的处理中,把 token 的属性修改成了 TYPE_CQUAN (中文数量词)。

这是 smart 模式下拥有而 max 模式下没有的分词方式和 token 类型。

举个例子:"7天" 这个词的分词结果,结果中分别展示了位置:内容:类型

ik_max_word:
0-1 : 7 :  ARABIC
1-2 : 天 :  COUNT

ik_smart
0-2 : 7天 :  TYPE_CQUAN

也就是说 ik_max_word 与 ik_smart 在'英文数词+中文量词'的分词场景下,分词结果必定不一样。

3.2. 切分模式和歧义消除剖析

ik分词器的算法原则还是基于中文字典进行字典树的匹配。

也就是说词元匹配的前提是丰富的中文字典库(ik 已经默认加载了几十万的字典库了)。

我们先来看 ik_max_word 的切分模式:执行文本的最细粒度分割,将分段详尽地生成各种可能的组合。

来看下"中华人民共和国国歌"的例子,这里为了更加直观的体现字典树的匹配模式,我们把字典库的内容也列出来。

文本:中华人民共和国国歌

字典库:中华人民共和国国歌,中华人民,中华,华人,人民共和国,人民,共和国,共和,国国,国歌

ik_max_word 分词结果:
0-9 : 中华人民共和国国歌 :  CN_WORD
0-4 : 中华人民 :  CN_WORD
0-2 : 中华 :  CN_WORD
1-3 : 华人 :  CN_WORD
2-7 : 人民共和国 :  CN_WORD
2-4 : 人民 :  CN_WORD
4-7 : 共和国 :  CN_WORD
4-6 : 共和 :  CN_WORD
6-8 : 国国 :  CN_WORD
7-9 : 国歌 :  CN_WORD

可以看出 ik_max_word 分词器把所有的字典结果都匹配出来了,同时也看到了好几个词元的位置是有重叠的,比如:"中华人民""中华""华人"这几个词元,位置在0-4这段有着不同的重叠。

这也就是造成了代码中所需要处理的"歧义",我们这里可以把"歧义"理解为多个词元组合去代表一段内容。

而 ik_smart 分词器主要作用就是通过对词元组合进行歧义裁决 来消除词元间的歧义,消除歧义后的直观体现就是不再会有位置重叠的词元(这也是 ik_smart 更适合 match_phrase 查询的原因)。

ik_smart 遵循歧义裁决的主要原则顺序如下:

  1. 比较有效文本长度,越长越好;

  2. 比较词元个数,越少越好;

  3. 路径跨度越大越好;

  4. 根据统计学结论,逆向切分概率高于正向切分,因此位置越靠后的优先;

  5. 词元位置权重比较,词长越平均越好。

同样的文本内容,同样的字典库,ik_smart 的分词结果如下:

ik_smart 分词结果:
0-9 : 中华人民共和国国歌 :  CN_WORD

由于字典库中"中华人民共和国国歌"可以覆盖整个文本,并满足上诉大多数条件,ik_smart 就只保留了第一个词元。

为了更直观的感受,我们把"中华人民共和国国歌"从词库中去除。

字典库:中华人民,中华,华人,人民共和国,人民,共和国,共和,国国,国歌

ik_smart 分词结果:
0-4 : 中华人民 :  CN_WORD
4-7 : 共和国 :  CN_WORD
7-9 : 国歌 :  CN_WORD

对于 ik_smart 歧义裁决原理有兴趣的同学可以看源码中 LexemePath 类的 compareTo 方法。

相关推荐
Lill_bin13 小时前
深入理解ElasticSearch集群:架构、高可用性与数据一致性
大数据·分布式·elasticsearch·搜索引擎·zookeeper·架构·全文检索
RwTo15 小时前
Elasticsearch 聚合搜索
大数据·elasticsearch·搜索引擎·全文检索
cyt涛2 天前
搜索功能技术方案
mysql·elasticsearch·全文检索·canal·索引·数据同步·搜索
Filotimo_3 天前
【自然语言处理】实验一:基于NLP工具的中文分词
人工智能·笔记·python·学习·jupyter·自然语言处理·中文分词
铭毅天下9 天前
Elasticsearch 使用误区之五——单次请求获取大量数据
大数据·elasticsearch·搜索引擎·全文检索
Filotimo_9 天前
【自然语言处理】实验二:基于NLP工具的词性标注实验
人工智能·笔记·python·学习·jupyter·自然语言处理·中文分词
Elastic 中国社区官方博客11 天前
GenAI 用于客户支持 — 第 4 部分:调整 RAG 搜索的相关性
大数据·人工智能·elasticsearch·搜索引擎·ai·机器人·全文检索
Elastic 中国社区官方博客12 天前
Elasticsearch:无状态世界中的数据安全
大数据·人工智能·elasticsearch·搜索引擎·serverless·全文检索
Elastic 中国社区官方博客12 天前
人工智能造福公众:未来一片光明
大数据·人工智能·elasticsearch·搜索引擎·ai·全文检索