大型语言模型在实体关系提取中的应用探索

如今LLM(大语言模型)的问答与生成能力已被大家所熟知,很多用户已经亲身体会到了LLM为工作、生活带来的变革。其实,作为NLP(自然语言处理)的集大成者,LLM能为我们提供的能力不限于此。其基本胜任传统NLP技术所能承担的所有任务。如:分词、语义识别、命名实体识别、实体关系识别等。其中,命名实体识别、实体关系识别在NLP任务中属于难度较大的任务。传统的NLP方案,一般针对不同的业务领域都要进行专门的模型训练,从而提高识别率,但真实效果也往往不尽如人意。这也使得需要以这类技术为基础的业务,发展速度受到了一定的限制。

一个比较常见的实体关系识别场景是构建行业知识图谱。在构建知识图谱时,需要从海量的行业知识文档中提取有效的实体及其实体关系,而后进行数据预处理、实体对齐等操作。在今年以OpenAI为代表的LLM席卷全球前,笔者尝试了很多开源技术来进行实体关系的识别,发现中文环境下,百度的Paddle所展示出的效果最好的。但其能够识别的文本篇幅及质量仍让人感到些许遗憾。直到LLM出现在笔者视野里,笔者开始尝试使用LLM来完成实体关系的识别**,**结果令人感到兴奋。

测试时,我们使用了如下的一段文字:

帮我抽取"####"后内容中的黑客组织及其账号,并输出为json格式

ATW 组织发布的"ATW-对华战争"帖

2021 年 10 月,ATW 组织开始频繁活动,不断在电报群组(t.me/s/ATW2022,E... Email:apt49@riseup.net)、推特(@_AgainstTheWest,mobile.twitter.com/\_AgainstTh...

文本中的第一句是我们给LLM输入的提示(Prompt)信息,要求其提取后续内容中的黑客组织及其账号,然后将结果以Json格式输出。而"####"后的内容为一小段文字,是LLM要处理的目标文本。下面让我们来看一看当把这段文字交给GPT,它的输出表现吧。

以下是使用GPT 3.5(Old)时,其模型的结果输出:

{

"组织名称": "ATW",

"账号": [{

"平台": "电报",

"链接": "t.me/s/ATW2022"

},{

"平台": "Email",

"地址": "AgainstTheWest@riseup.net"

},{

"平台": "备份Email",

"地址": "apt49@riseup.net"

},{

"平台": "推特",

"账号": "@_AgainstTheWest",

"链接": "mobile.twitter.com/\_AgainstTh..."

},{

"平台": "Breadched",

"账号": "AgainstTheWest"

}]

}

当看到这个结果时,令人眼前一亮。其不但分析出了黑客组织及其相关账号,还为每个账号进行了平台划分。一定程度上超出了当时给其写提示时的期望输出。结果的条理性超过了一般人类的总结水平。而在这个基础上再使用程序进行自动化处理,构建知识图谱就变的方便很多了。

笔者发现,GPT 3.5升级以后,同样的输入只能获得如下的输出了

{

"黑客组织": "ATW",

"账号信息": {

"电报群组": "t.me/s/ATW2022",

"电子邮箱": "AgainstTheWest@riseup.net",

"备用电子邮箱": "apt49@riseup.net",

"推特账号": "@_AgainstTheWest",

"推特链接": "mobile.twitter.com/\_AgainstTh...",

"Breadched账号": "AgainstTheWest"

}

}

这里的输出省去了对平台的扩展整理,但更加符合输入的提示。虽无惊喜,但更加稳定。为了获得类似升级前的效果,我们修改提示的描述如下:

帮我抽取"####"后内容中的黑客组织及其账号与账号平台,并输出为json格式

可以获得如下输出:

{

"黑客组织": "ATW",

"账号": [

{"平台": "电报群组", "用户名/链接": "t.me/s/ATW2022"},

{"平台": "Email", "用户名/链接": "AgainstTheWest@riseup.net"},

{"平台": "备份 Email", "用户名/链接": "apt49@riseup.net"},

{"平台": "推特", "用户名/链接": "@_AgainstTheWest, mobile.twitter.com/\_AgainstTh...,

{"平台": "Breadched", "用户名/链接": "AgainstTheWest"}

]

}

从输出的信息可以看到,我们希望获得的要素信息基本都被识别出来了,只是在输出格式上有一定差别。我们可以通过编写处理程序解析这个Json数据,获取有效的实体关系信息。但这种方式的灵活度稍差,需要根据LLM的输出结果不断进行调整适配。一种更好的办法是,在提示中给出Json格式的输出样例,以确保LLM按照指定的格式输出结果,方便后续的程序统一处理,更加简单、方便。(注:以上两种GPT 3.5版本的实验是通过TheB.AI网站完成的。如果使用OpenAI提供的ChatGPT,由于其在获得提示后更倾向于输出Python脚本,所以在提示的最后需额外加入"不需要给出代码",以确保其能够正常输出Json结构的数据。)

从目前的实验结果看,使用LLM进行实体关系的识别,较之前的技术,有了很大程度的提升。这种提升能大幅促进知识图谱等应用系统的构建效率及准确性。但在使用LLM的这种技术时,需要注意,不同的LLM在相同的提示和输入下,返回的信息会有不同。使用者需要选取合适的LLM并尝试不同的Prompt,确保LLM的结果符合预期。

相关推荐
聚客AI4 小时前
🌈多感官AI革命:解密多模态对齐与融合的底层逻辑
人工智能·llm·掘金·日新计划
大模型教程6 小时前
12天带你速通大模型基础应用(四)声音克隆技术实践
程序员·llm·agent
大模型教程7 小时前
12天带你速通大模型基础应用(三)LLM全流程部署教程
程序员·llm·agent
AI大模型7 小时前
无所不能的Embedding(05) - skip-thought的兄弟们[Trim/CNN-LSTM/quick-thought]
程序员·llm·agent
AI大模型7 小时前
无所不能的Embedding(04) - skip-thought & tf-Seq2Seq源码解析
程序员·llm·agent
智泊AI8 小时前
AI大模型 | 从基本原理到代码理解语言模型的训练和推理过程
llm
智能建造小硕12 小时前
使用LLM(Ollama部署)为Bertopic确定的主题命名
llm·ollama
德育处主任15 小时前
讲真,文心一言X1.1出来后,我骗不到它了!
人工智能·llm·aigc
用户479492835691515 小时前
每天都在用大模型,但是你知道temperature、top_p、top_k这些常见参数是做什么的吗?
人工智能·面试·llm
RainbowSea1 天前
8. LangChain4j + 提示词工程详细说明
langchain·llm·ai编程