nlp系列(7)三元组识别(Bi-LSTM+CRF)pytorch

模型介绍

在实体识别中:使用了Bert模型,CRF模型

在关系识别中:使用了Bert模型的输出与实体掩码,进行一系列变化,得到关系

Bert模型介绍可以查看这篇文章:nlp系列(2)文本分类(Bert)pytorch_bert文本分类_牧子川的博客-CSDN博客

CRF模型介绍可以查看这篇文章:

nlp系列(6)文本实体识别(Bi-LSTM+CRF)pytorch_牧子川的博客-CSDN博客

模型结构

画了一个简易图

数据介绍

数据网址:https://github.com/buppt//raw/master/data/people-relation/train.txthttps://github.com/buppt//raw/master/data/people-relation/train.txt

实体1 实体2 关系 文本

模型准备

将处理的数据通过bert模型计算得到两个实体的权重,然后送入到CRF模型计算两个实体损失,然后借鉴Bert模型的掩码,将bert的输出与实体掩码及其计算,得到关系的损失,将两个损失相加,得到模型的总损失。

python 复制代码
    def compute_loss(self, input_ids, attention_mask, tag_ids, sub_mask, obj_mask, labels, real_lengths):
        hidden_output, pooled_output = self.get_features(input_ids, attention_mask)
        feats = self.hidden2tag(hidden_output)
        total_scores = self.get_total_scores(feats, real_lengths)
        gold_score = self.get_golden_scores(feats, tag_ids, real_lengths)
        ner_loss = torch.mean(total_scores - gold_score)
        relation_logits = self.get_relation_logit(pooled_output, hidden_output, sub_mask, obj_mask)
        relation_loss = self.criterion(relation_logits, labels)
        return ner_loss + relation_loss

模型预测

复制代码
文本:
除演艺事业外,李冰冰热心公益,发起并亲自参与多项环保慈善活动,积极投身其中,身体力行担起了回馈社会的责任于02年出演《少年包青天》,进入大家视线
预测结果:
少年包青天 - 主演 - 李冰冰
=========================================
文本:
马志舟,1907年出生,陕西三原人,汉族,中国共产党,任红四团第一连连长,1933年逝世
预测结果:
马志舟 - 国籍 - 中国
马志舟 - 出生日期 - 1907年
马志舟 - 民族 - 汉族
马志舟 - 出生地 - 陕西三原 

源码获取

Bert+CRF 三元组识别https://github.com/mzc421/Pytorch-NLP/tree/master/11-Bert%2BCRF%20%E4%B8%89%E5%85%83%E7%BB%84%E8%AF%86%E5%88%AB硬性的标准其实限制不了无限可能的我们,所以啊!少年们加油吧!

相关推荐
Hcoco_me9 小时前
大模型面试题36:Transformer中的残差连接处理方式与作用
人工智能·rnn·深度学习·自然语言处理·lstm·transformer·word2vec
山居秋暝LS10 小时前
CMake下载与安装
pytorch·计算机视觉
小途软件11 小时前
融合大语言模型的智能简历优化与职位匹配平台
人工智能·语言模型·自然语言处理
Hcoco_me11 小时前
大模型面试题29:稀疏注意力是什么?
人工智能·rnn·深度学习·自然语言处理·word2vec
B站计算机毕业设计之家12 小时前
大数据毕业设计:基于python图书数据分析可视化系统 书籍大屏 爬虫 清洗 可视化 当当网书籍数据分析 Django框架 图书推荐 大数据
大数据·爬虫·python·机器学习·自然语言处理·数据分析·课程设计
Hcoco_me14 小时前
大模型面试题30:Padding 的 mask 操作
人工智能·rnn·深度学习·lstm·word2vec
schinber14 小时前
什么是Bert?
人工智能·自然语言处理·bert
小oo呆14 小时前
【自然语言处理】提示词编写指南
人工智能·自然语言处理
Hcoco_me14 小时前
大模型面试题33:Transformer为什么用LayerNorm,而非BatchNorm?
人工智能·rnn·深度学习·自然语言处理·transformer·word2vec
软件不硬14 小时前
从人工智能到大语言模型
人工智能·语言模型·自然语言处理