大语言模型无代码构建知识图谱概述

2023年3月15日,ChatGPT4.0的横空出世,将人们对大语言模型的关注推到了风口浪尖。由于其在智能问答、翻译以及文本生成等工作任务上的卓越表现,业界一度出现了不再需要发展知识图谱相关技术的观点,知识图谱相关概念严重受挫。无可置疑的是,大语言模型的确在智能问答等功能上与知识图谱存在交集,并且表现令人惊讶。但由于大语言模型不可避免的"幻觉"问题,使其存在无法给出准确、全面回答的情况,故而无法适应用户全面的场景需求。而知识图谱存储着大量结构化的信息,可以表达复杂的知识关系,能够满足用户准确、有效的检索需求。由此看来,二者各有所长,不是简单的替代关系,更有甚者二者可以彼此促进。众所周知,知识图谱的构建过程是相当昂贵的,开发者需要从海量的文档中抽取、对齐各类知识,工作量巨大,准确度要求也高。由于大语言模型拥有很强的泛化能力,因此其能有效抽取、识别特定领域文档中的实体、属性以及关系知识,可大大降低知识图谱的构建成本。

下面我们将通过一个示例,介绍如何使用大语言模型在无代码的情况下,辅助构建知识图谱。

案例设计

在该案例中,笔者将使用阿里大语言模型和HuggingFist低代码开发平台对如下内容进行知识提取。

刘彻之母王娡在怀孕时,汉景帝刘启尚为太子。王娡梦见太阳进入她的怀中,醒来告诉刘启后,刘启认为这是高贵的征兆。刘彻还未出生,他的祖父汉文帝刘恒就驾崩了。刘启继位,是为景帝,不久刘彻出生。刘彻是汉景帝第十子,亦是王娡唯一的儿子。 [3]

汉景帝前元四年(前153年)四月二十三日,汉景帝立栗姬所生的长子刘荣为皇太子,刘彻亦同时被封为胶东王。 [4]刘彻的姑母馆陶公主刘嫖向栗姬为其女陈氏提亲,被栗姬拒绝,而王娡却许诺让刘彻娶陈氏,因此刘嫖不断向景帝诋毁栗姬而赞誉王娡,栗姬亦曾出言不逊而触怒景帝,天平遂逐渐向王娡母子倾斜。前元六年(前151年)薄皇后被废黜后,王娡暗中指使大行令奏请立栗姬为皇后,使景帝对栗姬的不满达到极点,于是处死大行令、疏远栗姬,在前元七年(前150年)正月废刘荣为临江王。四月十七日,景帝立王娡为皇后;二十五日,立时年七岁的刘彻为皇太子。 [5-6]

刘彻成为储君后,景帝拜卫绾为太子太傅、王臧为太子少傅,让他们辅导刘彻。 [119-120]汉景帝后元三年(前141年)正月十七日,刘彻行冠礼。十天后,景帝驾崩,刘彻继位。 [7]

该信息取自百度百科关于汉武帝刘彻的一个片段。我们设计提取该段信息中的以下三类知识:

  • 人物及头衔,获取文本中的人物信息作为知识的主体
  • 人物关系,包括:源人物、关系、目的人物三部分信息
  • 人物相关的事件,包括:人物、时间、事件描述三部分信息软件环境
人物及头衔抽取

以上是利用大语言模型无代码抽取人物及头衔知识的流程,其抽取的结果如下图:

人物关系抽取

以上是利用大语言模型无代码抽取人物关系的流程,其抽取的结果如下图:

人物相关事件抽取

以上是利用大语言模型无代码抽取人物相关事件的流程,其抽取的结果如下图:

结语

由示例可以看出,大语言模型的泛化能力能够非常精准的抽取文本中的实体、关系等知识信息。其能够大大提升知识提取的效率与准确性。HuggingFists低代码平台的出现进一步促进了知识图谱构建的效率。它大幅降低了知识图谱构建人员的技术要求,使得从事该工作的人员有了更大的选择范围。不断下降的构建成本,意味着可以有更多的客户享受到知识图谱带来的业务价值。

相关推荐
爱喝白开水a6 分钟前
LangChain 基础系列之 Prompt 工程详解:从设计原理到实战模板_langchain prompt
开发语言·数据库·人工智能·python·langchain·prompt·知识图谱
takashi_void13 分钟前
如何在本地部署大语言模型(Windows,Mac,Linux)三系统教程
linux·人工智能·windows·macos·语言模型·nlp
OpenCSG18 分钟前
【活动预告】2025斗拱开发者大会,共探支付与AI未来
人工智能·ai·开源·大模型·支付安全
生命是有光的21 分钟前
【深度学习】神经网络基础
人工智能·深度学习·神经网络
数字供应链安全产品选型25 分钟前
国家级!悬镜安全入选两项“网络安全国家标准应用实践案例”
人工智能·安全·web安全
科技新知37 分钟前
大厂AI各走“开源”路
人工智能·开源
字节数据平台39 分钟前
火山引擎Data Agent再拓新场景,重磅推出用户研究Agent
大数据·人工智能·火山引擎
TGITCIC40 分钟前
LLaVA-OV:开源多模态的“可复现”革命,不只是又一个模型
人工智能·开源·多模态·ai大模型·开源大模型·视觉模型·大模型ai
GeeLark1 小时前
GeeLark 9月功能更新回顾
人工智能
mwq301231 小时前
GPT-2 中的 Pre-Layer Normalization (Pre-LN) 架构详解
人工智能