大型语言模型在实体关系提取中的应用探索

如今LLM(大语言模型)的问答与生成能力已被大家所熟知,很多用户已经亲身体会到了LLM为工作、生活带来的变革。其实,作为NLP(自然语言处理)的集大成者,LLM能为我们提供的能力不限于此。其基本胜任传统NLP技术所能承担的所有任务。如:分词、语义识别、命名实体识别、实体关系识别等。其中,命名实体识别、实体关系识别在NLP任务中属于难度较大的任务。传统的NLP方案,一般针对不同的业务领域都要进行专门的模型训练,从而提高识别率,但真实效果也往往不尽如人意。这也使得需要以这类技术为基础的业务,发展速度受到了一定的限制。

一个比较常见的实体关系识别场景是构建行业知识图谱。在构建知识图谱时,需要从海量的行业知识文档中提取有效的实体及其实体关系,而后进行数据预处理、实体对齐等操作。在今年以OpenAI为代表的LLM席卷全球前,笔者尝试了很多开源技术来进行实体关系的识别,发现中文环境下,百度的Paddle所展示出的效果最好的。但其能够识别的文本篇幅及质量仍让人感到些许遗憾。直到LLM出现在笔者视野里,笔者开始尝试使用LLM来完成实体关系的识别**,**结果令人感到兴奋。

测试时,我们使用了如下的一段文字:

帮我抽取"####"后内容中的黑客组织及其账号,并输出为json格式

ATW 组织发布的"ATW-对华战争"帖

2021 年 10 月,ATW 组织开始频繁活动,不断在电报群组(t.me/s/ATW2022,E... Email:apt49@riseup.net)、推特(@_AgainstTheWest,mobile.twitter.com/\_AgainstTh...

文本中的第一句是我们给LLM输入的提示(Prompt)信息,要求其提取后续内容中的黑客组织及其账号,然后将结果以Json格式输出。而"####"后的内容为一小段文字,是LLM要处理的目标文本。下面让我们来看一看当把这段文字交给GPT,它的输出表现吧。

以下是使用GPT 3.5(Old)时,其模型的结果输出:

{

"组织名称": "ATW",

"账号": [{

"平台": "电报",

"链接": "t.me/s/ATW2022"

},{

"平台": "Email",

"地址": "AgainstTheWest@riseup.net"

},{

"平台": "备份Email",

"地址": "apt49@riseup.net"

},{

"平台": "推特",

"账号": "@_AgainstTheWest",

"链接": "mobile.twitter.com/\_AgainstTh..."

},{

"平台": "Breadched",

"账号": "AgainstTheWest"

}]

}

当看到这个结果时,令人眼前一亮。其不但分析出了黑客组织及其相关账号,还为每个账号进行了平台划分。一定程度上超出了当时给其写提示时的期望输出。结果的条理性超过了一般人类的总结水平。而在这个基础上再使用程序进行自动化处理,构建知识图谱就变的方便很多了。

笔者发现,GPT 3.5升级以后,同样的输入只能获得如下的输出了

{

"黑客组织": "ATW",

"账号信息": {

"电报群组": "t.me/s/ATW2022",

"电子邮箱": "AgainstTheWest@riseup.net",

"备用电子邮箱": "apt49@riseup.net",

"推特账号": "@_AgainstTheWest",

"推特链接": "mobile.twitter.com/\_AgainstTh...",

"Breadched账号": "AgainstTheWest"

}

}

这里的输出省去了对平台的扩展整理,但更加符合输入的提示。虽无惊喜,但更加稳定。为了获得类似升级前的效果,我们修改提示的描述如下:

帮我抽取"####"后内容中的黑客组织及其账号与账号平台,并输出为json格式

可以获得如下输出:

{

"黑客组织": "ATW",

"账号": [

{"平台": "电报群组", "用户名/链接": "t.me/s/ATW2022"},

{"平台": "Email", "用户名/链接": "AgainstTheWest@riseup.net"},

{"平台": "备份 Email", "用户名/链接": "apt49@riseup.net"},

{"平台": "推特", "用户名/链接": "@_AgainstTheWest, mobile.twitter.com/\_AgainstTh...,

{"平台": "Breadched", "用户名/链接": "AgainstTheWest"}

]

}

从输出的信息可以看到,我们希望获得的要素信息基本都被识别出来了,只是在输出格式上有一定差别。我们可以通过编写处理程序解析这个Json数据,获取有效的实体关系信息。但这种方式的灵活度稍差,需要根据LLM的输出结果不断进行调整适配。一种更好的办法是,在提示中给出Json格式的输出样例,以确保LLM按照指定的格式输出结果,方便后续的程序统一处理,更加简单、方便。(注:以上两种GPT 3.5版本的实验是通过TheB.AI网站完成的。如果使用OpenAI提供的ChatGPT,由于其在获得提示后更倾向于输出Python脚本,所以在提示的最后需额外加入"不需要给出代码",以确保其能够正常输出Json结构的数据。)

从目前的实验结果看,使用LLM进行实体关系的识别,较之前的技术,有了很大程度的提升。这种提升能大幅促进知识图谱等应用系统的构建效率及准确性。但在使用LLM的这种技术时,需要注意,不同的LLM在相同的提示和输入下,返回的信息会有不同。使用者需要选取合适的LLM并尝试不同的Prompt,确保LLM的结果符合预期。

相关推荐
微学AI8 小时前
GPU算力平台|在GPU算力平台部署MedicalGPT医疗大模型的应用教程
大模型·llm·gpu算力
浪遏12 小时前
Langchain.js | Memory | LLM 也有记忆😋😋😋
前端·llm·aigc
SpikeKing1 天前
LLM - 大模型 ScallingLaws 的指导模型设计与实验环境(PLM) 教程(4)
人工智能·llm·transformer·plm·scalinglaws
一 铭2 天前
《Hands_On_LLM》8.2 RAG: 利用语言模型进行语义搜索(Semantic Search with Language Models)
人工智能·语言模型·大模型·llm
网安打工仔2 天前
斯坦福李飞飞最新巨著《AI Agent综述》
人工智能·自然语言处理·大模型·llm·agent·ai大模型·大模型入门
健忘的派大星2 天前
【AI大模型】根据官方案例使用milvus向量数据库打造问答RAG系统
人工智能·ai·语言模型·llm·milvus·agi·rag
Milkha3 天前
大模型训练工具,小白也能轻松搞定!
llm·模型训练
HyperAI超神经3 天前
超越 GPT-4o!从 HTML 到 Markdown,一键整理复杂网页;AI 对话不再冰冷,大模型对话微调数据集让响应更流畅
人工智能·深度学习·llm·html·数据集·多模态·gpt-4o
阿正的梦工坊4 天前
使用Sum计算Loss和解决梯度累积(Gradient Accumulation)的Bug
llm
yuanlulu4 天前
昇腾环境ppstreuct部署问题记录
人工智能·深度学习·llm·ocr·ppstructure