Solr 8 ik-analyzer 中文分词 基本使用篇

分词器相关包:该github文档有详细说明,建议先看看。

https://github.com/magese/ik-analyzer-solr?tab=readme-ov-file

写了测试代码,对源代码感兴趣的可以看看

bash 复制代码
package org.wltea.analyzer.test;

import org.apache.lucene.analysis.Tokenizer;
import org.apache.lucene.analysis.tokenattributes.CharTermAttribute;
import org.apache.lucene.util.AttributeFactory;
import org.wltea.analyzer.lucene.IKTokenizerFactory;

import java.io.IOException;
import java.io.StringReader;
import java.util.HashMap;
import java.util.Map;

public class Test {
    public static void main(String[] args) {
        // 创建参数映射
        Map<String, String> argsMap = new HashMap<>();
        argsMap.put("useSmart", "false"); // 设置为细粒度分词模式

        try {
            // 创建 IKTokenizerFactory 实例
            IKTokenizerFactory factory = new IKTokenizerFactory(argsMap);

            // 创建 tokenizer
            AttributeFactory attributeFactory = AttributeFactory.DEFAULT_ATTRIBUTE_FACTORY;
            Tokenizer tokenizer = factory.create(attributeFactory);

            // 测试文本
            String text = "测试文本";

            // 设置要分析的文本
            tokenizer.setReader(new StringReader(text));
            tokenizer.reset();

            // 执行分词并输出结果
            System.out.println("分词结果:");
            while (tokenizer.incrementToken()) {
                CharTermAttribute term = tokenizer.getAttribute(CharTermAttribute.class);
                System.out.println(term.toString());
            }

            tokenizer.end();
            tokenizer.close();

            System.out.println("\n使用智能分词模式:");
            // 测试智能分词模式
            argsMap.put("useSmart", "true");
            IKTokenizerFactory smartFactory = new IKTokenizerFactory(argsMap);
            Tokenizer smartTokenizer = smartFactory.create(attributeFactory);

            smartTokenizer.setReader(new StringReader(text));
            smartTokenizer.reset();

            // 执行分词并输出结果
            while (smartTokenizer.incrementToken()) {
                CharTermAttribute term = smartTokenizer.getAttribute(CharTermAttribute.class);
                System.out.println(term.toString());
            }

            smartTokenizer.end();
            smartTokenizer.close();

        } catch (IOException e) {
            System.err.println("测试过程中发生IO异常: " + e.getMessage());
            e.printStackTrace();
        }
    }

}

1.本地solr版本 solr-8.11.3 。准备工作:下载 ik-analyzer-8.5.0.jarlucene-core-8.5.0.jarlucene-analyzers-common-8.5.0.jar 。(我单独使用ik-analyzer-8.5.0.jar,会有包缺失问题,大家可以试试仅仅使用 ik-analyzer-8.5.0.jar可以不。)

将文件放入下面路径

bash 复制代码
		1. \solr-8.11.3\server\solr-webapp\webapp\WEB-INF\lib
		2.solr-8.11.3\server\lib\ext

2.配置Solr的(solr-8.11.3\server\solr\new_core\conf)managed-schema,添加ik分词器。相关字段加上相关类型分词属性,示例如下;

bash 复制代码
<!-- ik分词器 -->
<fieldType name="text_ik" class="solr.TextField">
  <analyzer type="index">
      <tokenizer class="org.wltea.analyzer.lucene.IKTokenizerFactory" useSmart="false" conf="ik.conf"/>
      <filter class="solr.LowerCaseFilterFactory"/>
  </analyzer>
  <analyzer type="query">
      <tokenizer class="org.wltea.analyzer.lucene.IKTokenizerFactory" useSmart="true" conf="ik.conf"/>
      <filter class="solr.LowerCaseFilterFactory"/>
  </analyzer>
</fieldType>
<!-- 相关字段加上相关类型  -->
  <field name="title" type="text_ik" indexed="true" stored="true"/>

3.添加ik.conf到 (solr-8.11.3\server\solr\new_core\conf) ik.conf内容

bash 复制代码
files=dynamicdic.txt
lastupdate=0

4.添加自己的扩展词汇词典,相关路径(solr-8.11.3\server\solr-webapp\webapp\WEB-INF

新增classes文件,将ext.dic添加到该路径下。

根据源代码 提示添加自己想要的文件和提示词到文件中。

5.启动服务,测试自己家的分词

bash 复制代码
./solr start -p 8984
相关推荐
切糕师学AI4 天前
Apache Solr 详解:企业级搜索平台的核心特性与架构
架构·apache·solr
水无痕simon5 天前
1 Solr入门到放弃
solr·lucene
大尚来也7 天前
告别“字符串拼接”:在.NET中用LINQ重塑数据查询
.net·solr·linq
延误7 天前
Solr中文搜索:keyword为何失效?
solr
星河耀银海10 天前
Unity基础:摄像机Camera的参数设置与视角控制
unity·游戏引擎·lucene
星河耀银海10 天前
Unity基础:Transform组件的位移、旋转与缩放详解
unity·游戏引擎·lucene
ClouderaHadoop15 天前
漏洞扫描发现 Solr CVE-2017-12629 对 CDH 集群影响分析
hadoop·solr·lucene·cdh
尽兴-18 天前
Elasticsearch 中文分词与自定义 Analyzer 实战:IK、同义词、词库治理
elasticsearch·中文分词·jenkins·分词器·字符过滤器·切词器·词项过滤器
WongLeer20 天前
Elasticsearch 从入门到实战(含 IK 分词器 + 完整查询示例)
elasticsearch·中文分词·ik