HMM与LTP词性标注之LTP介绍

文章目录







上图缺点:参数太多,中文语料库匮乏

注意力机制,相当于给每一个词赋予一个权重,权重越大的越重要。

bert的缺点:神经元太多,较慢。

LTP

如果只是需要做词性的识别,那么用LTP就可以了,由哈工大自主研发。

主页:http://ltp.ai/index.html







目前python主要用LTP,目前已经发展到4.0的版本。

在最后一个章节,就用LTP完成词性标注、包括分词,最后再把它整合成图谱,通过python自动插入到xxx中去,完成这么一系列的操作,

相关推荐
eastyuxiao5 小时前
思维导图拆解项目范围 3 个真实落地案例
大数据·运维·人工智能·流程图
风落无尘5 小时前
《智能重生:从垃圾堆到AI工程师》——第五章 代码与灵魂
服务器·网络·人工智能
冬奇Lab6 小时前
RAG 系列(八):RAG 评估体系——用数据说话
人工智能·llm
landyjzlai7 小时前
蓝迪哥玩转Ai(8)---端侧AI:RK3588 端侧大语言模型(LLM)开发实战指南
人工智能·python
ZhengEnCi9 小时前
05-自注意力机制详解 🧠
人工智能·pytorch·深度学习
前端程序媛-Tian9 小时前
前端 AI 提效实战:从 0 到 1 打造团队专属 AI 代码评审工具
前端·人工智能·ai
weixin_417197059 小时前
DeepSeek V4绑定华为:一场飞行中换引擎的国产算力革命
人工智能·华为
翼龙云_cloud9 小时前
阿里云代理商:阿里云深度适配DeepSeek V4让中小企业 AI零门槛上云
人工智能·阿里云·云计算·ai智能体·deepseek v4