nlp--最大匹配分词(计算召回率)

最大匹配算法是一种常见的中文分词算法,其核心思想是从左向右取词,以词典中最长的词为优先匹配。这里我将为你展示一个简单的最大匹配分词算法的实现,并结合输入任意句子、显示分词结果以及计算分词召回率。

代码 :

复制代码
# happy coding
# -*- coding: UTF-8 -*-
'''
@project:NLP
@auth:y1441206
@file:最大匹配法分词.py
@date:2024-06-30 16:08
'''
class MaxMatchSegmenter:
    def __init__(self, dictionary):
        self.dictionary = dictionary
        self.max_length = max(len(word) for word in dictionary)

    def segment(self, text):
        result = []
        index = 0
        n = len(text)

        while index < n:
            matched = False
            for length in range(self.max_length, 0, -1):
                if index + length <= n:
                    word = text[index:index+length]
                    if word in self.dictionary:
                        result.append(word)
                        index += length
                        matched = True
                        break
            if not matched:
                result.append(text[index])
                index += 1

        return result

def calculate_recall(reference, segmented):
    total_words = len(reference)
    correctly_segmented = sum(1 for word in segmented if word in reference)
    recall = correctly_segmented / total_words if total_words > 0 else 0
    return recall

# Example usage
if __name__ == "__main__":
    # Example dictionary
    dictionary = {"北京", "天安门", "广场", "国家", "博物馆", "人民", "大会堂", "长城"}

    # Example text to segment
    text = "北京天安门广场是中国的象征,国家博物馆和人民大会堂也在附近。"

    # Initialize segmenter with dictionary
    segmenter = MaxMatchSegmenter(dictionary)

    # Segment the text
    segmented_text = segmenter.segment(text)

    # Print segmented result
    print("分词结果:", " / ".join(segmented_text))

    # Example for calculating recall
    reference_segmentation = ["北京", "天安门广场", "是", "中国", "的", "象征", ",", "国家", "博物馆", "和", "人民大会堂", "也", "在", "附近", "。"]
    recall = calculate_recall(reference_segmentation, segmented_text)
    print("分词召回率:", recall)

运行结果 :

相关推荐
Codebee1 分钟前
Ooder框架规范执行计划:企业级AI实施流程与大模型协作指南
人工智能
菜鸟冲锋号3 分钟前
适配AI大模型非结构化数据需求:数据仓库的核心改造方向
大数据·数据仓库·人工智能·大模型
重生之我要成为代码大佬4 分钟前
深度学习2-在2024pycharm版本中导入pytorch
人工智能·pytorch·深度学习
深圳佛手7 分钟前
阿里ModelScope 与 DashScope 的区别
机器学习·自然语言处理·ai编程
汽车仪器仪表相关领域7 分钟前
亲历机动车排放检测升级:南华NHA-604/605测试仪的实战应用与经验沉淀
人工智能·功能测试·测试工具·安全·汽车·压力测试
凌峰的博客7 分钟前
基于深度学习的图像修复技术调研总结(上)
人工智能
paopao_wu8 分钟前
AI应用开发-Python:Embedding
人工智能·python·embedding
启途AI9 分钟前
自由编辑+AI 赋能:ChatPPT与Nano Banana Pro的创作革命
人工智能·powerpoint·ppt
产品何同学10 分钟前
情绪经济下的AI应用怎么设计?6个APP原型设计案例拆解
人工智能·ai·产品经理·交友·ai应用·ai伴侣·情绪经济
猿小猴子10 分钟前
主流 AI 大模型开源平台社区之一的 ModelScope (魔搭社区) 介绍
人工智能