【传知代码】实体关系抽取(论文复现)

当谈论信息提取领域的最前沿时,实体关系抽取无疑是其中一颗耀眼的明星。从大数据时代的信息海洋中提炼出有意义的关系,不仅是科技进步的体现,更是人类对知识管理和智能决策迫切需求的响应。本文将探索实体关系抽取的核心技术、应用场景及其在现代信息处理中的重要作用。随着技术的发展和应用的深入,实体关系抽取正展现出无限的潜力,不断推动着我们对数据的深入理解和利用。

本文所涉及所有资源均在传知代码平台可获取

目录

概述

核心逻辑

演示效果

写在最后


概述

实体关系抽取是自然语言处理领域的一个常见任务,它常常和实体识别任务伴生,他们都属于图谱三元组的提取任务。实体识别任务提取出实体,实体关系抽取任务则是负责判断两个实体之间的关系。例如:在句子"Albert Einstein was born in Ulm"中,实体识别任务会识别出"Albert Einstein"和"Ulm"两个实体,而实体关系抽取任务则会判断这两个实体之间的关系是"出地"(place of birth),如下所示:

本文对于实体关系抽取任务的实现基于论文 地址,并做出一定的优化,论文中的实体识别模型采用了BERT、BILSTM和注意力机制的结合结构。具体来说,BERT提供了强大的文本表示能力,能够生成丰富的上下文感知词向量。通过预训练的BERT模型,输入的文本可以被转化为高质量的向量表示,捕捉到词语的语义和句法信息。

在BERT生成的词向量基础上,加入了BILSTM层。BILSTM是LSTM(长短期记忆网络)的双向版本,它能够同时考虑前向和后向的上下文信息,进一步增强了对句子结构的理解能力。BILSTM的引入使得模型能够更好地捕捉到句子中每个词语的前后依赖关系,从而提升对复杂语言现象的建模能力。

为了进一步提高模型的性能,还加入了注意力机制。注意力机制通过赋予不同词语不同的权重,帮助模型集中关注对实体识别任务至关重要的词语和特征。这种机制能够动态地调整每个词语的权重,使得模型在处理长文本时,仍然能够高效地捕捉到关键的信息。

对于实体关系抽取任务,一般而言,输入包含需要判断的句子和两个实体,常见的嵌入方式是计算两个实体在句子中的位置向量,来标注实体。然而,仅仅根据两个词来进行关系识别,可能导致模型很难深入理解句意,难以理解隐藏在句子中的实体关系。依存解析器通过Stanford CoreNLP的依存解析算法,对输入句子进行依存关系分析。依存关系解析将句子看作一个图,词语作为节点,词语之间的依存关系则作为节点之间的连接关系。在解析器的基础上,生成依存矩阵。该矩阵表示句子中词语之间的依存关系。矩阵的每个元素对应于句子中两个词语之间的依存连接强度或类型。将生成的依存矩阵结合到输入的句子中,使用图神经网络(Graph Neural Networks, GNNs)对句子进行处理。GNNs能够有效地利用依存关系信息,优化实体向量的嵌入方式。通过将句子建模为一个图,GNNs可以在节点(词语)之间传播信息,从而捕捉到更丰富的语义和上下文特征。

核心逻辑

这种方法显著优化了实体向量的嵌入方式,使得模型不仅能够关注两个实体本身,还能够充分理解它们在句子中的上下文和依存关系。这种深层次的语义理解,能够大幅提高实体关系抽取任务的准确性和鲁棒性,下面的代码展示了修改后的嵌入模型:模型先经过BERT编码,然后结合依存矩阵,输入到图神经网络中,得到可用来训练的向量:

python 复制代码
def forward(self, sentence,label1,label2):
        # Step 1: BERT Encoding  
        bert_outputs = self.encode_sentence(sentence)
        print(len(bert_outputs[0]))
        bert_outputs_label1,bert_outputs_label2 = self.encode_sentence_and_label(sentence,label1,label2)
        # Step 2: Dependency Parsing
        dependency_matrix = self.word_parse_dependency(sentence,len(bert_outputs[0]))
        # Step 3: GAT Encoding
        bert_outputs = bert_outputs[0]  # .numpy()
        x = self.gat(bert_outputs, adj_matrix_tensor)

        output_ids = torch.cat((bert_outputs_label1[0], x,bert_outputs_label2[0]), dim=1)

        return output_ids 

在论文的基础上,将注意力层优化成为池化注意力机制层,另外根据两个实体在句子的位置,将句子划分为五个部分,分别进行池化操作,让模型学习实体在句子中的相关特征。例如,池化操作可以采用最大池化或平均池化的方法,聚合注意力权重,从而增强模型对重要特征的识别能力。预处理代码如下:根据两个实体在句子的位置,将句子划分为五个部分,分别进行池化操作,让模型学习实体在句子中的相关特征:

python 复制代码
        def forward(self, entity1, entity2, left, middle, right):

        entity1 = self.calc_pool(entity1)
        entity2 = self.calc_pool(entity2)
        left = self.calc_pool(left)
        middle = self.calc_pool(middle)
        right = self.calc_pool(right)

        if left is None:
            T = torch.cat((entity1, middle, entity2, right), dim=1)
        elif middle is None:
            T = torch.cat((left, entity1, entity2, right), dim=1)
        elif right is None:
            T = torch.cat((left, entity1, middle, entity2), dim=1)
        else:
            T = torch.cat((left, entity1, middle, entity2, right), dim=1)

        T = torch.mean(T, dim=0)
        T = T.unsqueeze(0)
        y = self.fc(T)

使用了Adam优化算法,这是目前深度学习中非常流行的一种优化算法。定义了一个学习率调度器。具体来说,它使用了基于指标变化调整学习率的调度器,通过结合优化器和学习率调度器,能够在训练过程中动态调整学习率,提高模型的训练效率和效果。优化器负责更新模型参数,而调度器根据模型性能自动调整学习率,以便在训练后期进行更精细的优化:

python 复制代码
optimizer = torch.optim.Adam(model.parameters(), lr=learning_rate, weight_decay=1e-5)
scheduler = ReduceLROnPlateau(optimizer, mode='min', factor=0.1, patience=3, verbose=True)

演示效果

本项目分别在3种关系类别和22种关系类别进行测试,实验结果表明,类别越多模型的性能会有所下降,这可能是受到预训练模型本身的限制,需要前往StandFordCoreNlp的官网下载依存解析器,并将其放在本地目录下或前往huggingface下载BERT预训练模型,放在本地目录下:

bash 复制代码
Epoch 5/15, Training Loss: 219.9698, Training Accuracy: 0.9237
total time: 816.9306426048279
Epoch 5/15, Validation Loss: 0.0611, Validation Accuracy: 0.8360

训练之后,代码会自动保存最好的模型,调用模型,可以利用模型来预测一句话的种两个实体之间的关系,下面是一个演示结果,输入句子:

bash 复制代码
text = "据报道,东方航空股临时停牌传将与上航合并"
entity1= "东方航空"
entity2="上航"

输出类别:合并

写在最后

在信息科技日新月异的今天,实体关系抽取不仅仅是一个技术领域的探索,更是数据驱动决策和智能应用的关键一环。通过识别和理解文本中实体之间的关系,我们能够从海量数据中提取出宝贵的信息,支持从金融预测到医疗诊断的广泛应用。随着算法的进步和数据的丰富,实体关系抽取正日益成为人工智能在现实生活中的重要助手,促使我们更高效地处理信息,做出更明智的决策。未来,随着技术的不断演进和应用场景的扩展,实体关系抽取将继续在各个领域展示其无限潜力,成为推动智能化发展的关键力量。

详细复现过程的项目源码、数据和预训练好的模型可从该文章下方附件获取

相关推荐
xuanyu222 小时前
Linux常用指令
linux·运维·人工智能
静心问道2 小时前
WGAN算法
深度学习·算法·机器学习
凡人的AI工具箱2 小时前
AI教你学Python 第11天 : 局部变量与全局变量
开发语言·人工智能·后端·python
晓星航2 小时前
Docker本地部署Chatbot Ollama搭建AI聊天机器人并实现远程交互
人工智能·docker·机器人
Kenneth風车3 小时前
【机器学习(五)】分类和回归任务-AdaBoost算法-Sentosa_DSML社区版
人工智能·算法·低代码·机器学习·数据分析
AI小白龙*3 小时前
大模型团队招人(校招):阿里巴巴智能信息,2025届春招来了!
人工智能·langchain·大模型·llm·transformer
鸽芷咕3 小时前
【Python报错已解决】python setup.py bdist_wheel did not run successfully.
开发语言·python·机器学习·bug
星迹日3 小时前
C语言:联合和枚举
c语言·开发语言·经验分享·笔记
空指针异常Null_Point_Ex3 小时前
大模型LLM之SpringAI:Web+AI(一)
人工智能·chatgpt·nlp
Alluxio3 小时前
选择Alluxio来解决AI模型训练场景数据访问的五大理由
大数据·人工智能·分布式·ai·语言模型