论文浅尝 | LightPROF:一种轻量级推理框架,用于大型语言模型在知识图谱上的应用(AAAI2025)

笔记整理:李子晨,天津大学硕士,研究方向为知识图谱

论文链接:https://doi.org/10.1609/aaai.v39i22.34510

发表会议:AAAI 2025

1. 动机

尽管大型语言模型在知识图谱上的推理展现出巨大潜力,但仍然面临若干挑战:首先,知识图谱的内容通常以大量文本内容的形式直接表示,这无法有效传达其图结构中对推理至关重要的丰富逻辑关系。其次,在知识图谱上进行检索和推理需要大量的LLM调用和相当高的LLM推理能力。之前的研究使用了一种迭代的方法,从问题实体开始,逐渐获取推理所需的信息。这增加了LLM调用的次数,牺牲了推理效率,减少了可行性。因此,亟需一种适用于大型语言模型(LLM)的学习推理框架,为小规模LLM提供稳定的检索和高效的推理能力。

2. 贡献

本文的主要贡献有:

(1)首个提出将知识图谱(KGs)的文本内容和图结构转化为用于提示大语言模型(LLMs)的嵌入的框架。

(2)提出了LightPROF,这是一个轻量级和高效的提示学习推理框架,为小规模的LLM提供稳定的检索和高效的推理能力,相比于LLM本身需要的训练参数少得多。

(3)在两个KGQA数据集上进行的大量实验表明,提出的LightPROF优于使用大规模LLM(例如LLaMa-2-70B,ChatGPT)的方法。进一步分析表明,LightPROF在输入令牌数量和推理时间方面具有显著的效率优势。

3. 方法

总体框架如图1所示,提出的检索-嵌入-推理框架包含三个阶段:推理图检索、知识嵌入和知识提示混合推理。通过精准检索和细粒度结构化数据处理能力,在小规模大型语言模型下实现高效的复杂知识图谱问题推理。

图1 总体框架图

(1)为了解决复杂多跳知识图谱问答任务的推理图检索,问题"如何有效、准确且稳定地从知识图谱中根据问题检索信息?"这一关键问题,将检索模块分为三个步骤:语义提取、关系检索和推理图采样,如图2所示:

图2 三步检索模块

(2)为了应对知识图结构信息的自然语言表达包含冗余和混淆,无法直接揭示其内在本质,从而妨碍大型语言模型有效利用这些信息的问题。提出了一种优化和紧凑的知识适配器,该适配器可以在推理图中编码文本信息,同时提取其结构信息,如图3所示。通过以更细的颗粒度结合文本信息和结构细节,知识适配器帮助模型深入理解推理图中的知识,从而实现更精确的推理。

图3 知识适配器的插图及其关键组件的示意图

(3)为了避免对知识库的再训练可能导致模型中现有知识的灾难性遗忘,在LightPROF训练过程中冻结LLM的参数,并使用软提示和硬提示的组合来指导模型更准确高效地回答问题,如图1所示。LLM的输入以聊天格式组织,其中指令和问题结合使用精心设计的文本模板,我们称之为硬提示。在LLM的编码阶段,我们将表示推理图的知识软提示插入硬提示的特定位置,以有效地注入外部知识。这种方法允许LLM根据给定的输入内容自主且准确地回答问题,而无需参数更新。

4. 实验

在实验中,将深入讨论以下问题:

问题1:LightPROF在知识图谱问答(KGQA)任务中能显著提升LLM的性能吗?

问题2:LightPROF能与不同的LLM骨干模型集成以增强性能吗?

问题3:LightPROF能否在小规模LLM上实现高效输入和稳定输出?

数据集:在两个基于Freebase知识图谱的公共数据集上训练和评估LightPROF的多跳推理能力:WebQuestions-sSP(WebQSP)和Complex-WebQuestions(CWQ)。基于先前的研究,利用匹配准确率(Hits@1)来评估模型的top-1答案是否正确。

基准:考虑三种类型的基准方法:完全微调方法、原生LLM方法和LLM知识图谱方法。完全微调方法包括KV-Mem,EmbedKGQA,TransferNet,NSM,KGT5,GraftNet,PullNet,UniKGQA。原生LLM方法包括LLaMa系列模型。LLM知识图谱方法包括StructGPT,ToG,KnowledgeNavigator,AgentBench。值得注意的是,为了确保公平比较,选择的LLM知识图谱方法并不涉及对LLM的微调,即所有方法都是零样本方法,没有对LLM进行任何训练。

实施:为了展示LightPROF的即插即用便利性和参数效率,在LLaMa系列的两个小型语言模型上进行了实验:LLaMa 7B-chat和LLaMa-8B-Instruct1。模型在一个训练周期内优化,批量大小为4。初始学习率设定为2e-3,并使用余弦退火调度进行调整,以提高模型在训练过程中的学习效率。所有实验均在NVIDIA A800 GPU上使用PyTorch工具包进行。知识编码器模块基于BERT模型。该模块包括一个两层的MLP投影器,用于将维度映射到LLM的输入维度。

(1)Q1:性能比较

对LightPROF进行了评估,比较了三类基线方法:完全微调、普通LLM和LLM KG方法。如表1所示,LightPROF不仅在简单问题上表现出色,而且在需要深度推理和复杂查询处理的场景中也表现优异。值得注意的是,框架在所有实验条件下的表现均优于其他大规模模型。例如,在处理复杂问题推理时,框架特别强调与ToG使用LLaMa2-70B-Chat和Struct GPT使用ChatGPT相比的优越性。此外,即使使用较小的LLaMa2-7b版本,框架也能有效与其他大型模型竞争,突显了框架设计的效率和优化。

表1 两个数据集上,LightPROF的性能与基准线进行比较

(2)Q2:Plug-and-Play

对于此框架,任何能够接受令牌嵌入输入的开源LLM都是合适的。在本节中,评估了在LightPROF中集成不同LLM的有效性。如表2所示,结果表明,LightPROF框架显著提升了集成LLM的性能,无论原始模型的基线性能如何。LightPROF通过对结构化数据的有效集成和优化,增强了模型解决复杂KG问题的能力。这种即插即用的集成策略不需要对LLM进行昂贵的微调,使其特别适合快速提升现有模型在KGQA任务上的性能。

表2 将各种大型语言模型集成到LightPROF框架中的性能

(3)Q3:高校输入与稳定输出

进行了一系列效率测试,以比较LightPROF和StructGPT在处理WebQSP数据集时的性能。具体而言,测量了模型的运行时间、输入标记的总数及每个请求的平均标记数(NPR),结果如表3所示。表中显示,LightPROF在处理相同数据集时的时间效率更高,时间成本降低了30%(1:11:49对比1:42:12)。关于输入标记的总数,LightPROF和StructGPT之间存在显著差异(365,380对比24,750,610),这表明LightPROF在输入处理上更为经济,减少了大约98%的标记使用。此外,LightPROF的NPR值为224,显著低于StructGPT的6400。这一比较进一步突显了LightPROF在每个请求所需标记数量上的优势,展示了其更精确、资源更高效地处理每个请求的能力,验证了LightPROF在整合小规模LLMs时的有效性。

表3 LightPROF 和 Struct GPTonLlama-3-8b的效率性能

5. 总结

LightPROF框架可以准确地检索和高效地编码知识图 (KGs),以增强大型语言模型 (LLM) 的推理能力。为了有效缩小检索范围,LightPROF使用稳定的关系作为单位,逐步抽样知识图。为了在参数更少的情况下实现LLM的高效推理,开发了一种精细的知识适配器,可以有效解析图结构并进行细粒度的信息整合,从而将推理图凝聚为较少的令牌,并通过投影器与LLM的输入空间实现全面对齐。实验结果表明,框架优于其他基线方法,尤其是那些涉及大规模语言模型的方法。与其他仅基于文本的方法相比,知识软提示整合了更全面的结构和文本信息,使其更易于被LLM理解。


OpenKG

OpenKG(中文开放知识图谱)旨在推动以中文为核心的知识图谱数据的开放、互联及众包,并促进知识图谱算法、工具及平台的开源开放。

点击阅读原文 ,进入 OpenKG 网站。

相关推荐
高木木的博客1 天前
数字架构智能化测试平台(1)--总纲
人工智能·python·nginx·架构
wanghowie1 天前
11. AI 客服系统架构设计:不是调 API,而是系统工程
人工智能·系统架构
孟意昶1 天前
Doris专题31-SQL手册-基础元素
大数据·数据库·数据仓库·分布式·sql·知识图谱·doris
袋鼠云数栈UED团队1 天前
基于 OpenSpec 实现规范驱动开发
前端·人工智能
Raink老师1 天前
【AI面试临阵磨枪】什么是 Tokenization?子词分词(Subword)的优缺点?
人工智能·ai 面试
迷你可可小生1 天前
面经(三)
人工智能·rnn·lstm
云烟成雨TD1 天前
Spring AI Alibaba 1.x 系列【28】Nacos Skill 管理中心功能说明
java·人工智能·spring
AI医影跨模态组学1 天前
Cancer Letters(IF=10.1)中科院自动化研究所田捷等团队:整合纵向MRI与活检全切片图像用于乳腺癌新辅助治疗反应的早期预测及个体化管理
人工智能·深度学习·论文·医学·医学影像
oioihoii1 天前
Graphify 简明指南
人工智能
数字供应链安全产品选型1 天前
AI全生命周期安全:从开发到下线,悬镜安全灵境AIDR如何覆盖智能体每一个环节?
人工智能