Think-on-Graph:基于知识图的大型语言模型的深层可靠推理11.12

Hink-on-Graph:基于知识图的大型语言模型的深层可靠推理

摘要

尽管大型语言模型(LLM)在各种任务中取得了巨大的成功,但它们经常与幻觉问题作斗争,特别是在需要深入和负责任的推理的场景中。这些问题可以通过在LLM推理中引入外部知识图(KG)来部分解决。在本文中,我们提出了一个新的LLM-KG集成范式"LLM KKG",它把LLM作为一个代理,以交互式地探索相关的实体和KGs上的关系,并进行推理的基础上检索到的知识。我们通过引入一种称为图上思维(ToG)的新方法进一步实现了这种范式,其中LLM代理迭代地在KG上执行波束搜索,发现最有希望的推理路径,并返回最可能的推理结果。我们通过一系列精心设计的实验来检验和说明ToG的以下优点:

  • 1)与LLM相比,ToG具有更好的深度推理能力;
  • 2)ToG通过利用LLM推理和专家反馈,具有知识可追溯性和知识可纠正性;
  • 3)ToG为不同的LLM、KG和提示策略提供了一个灵活的即插即用框架,而不需要任何额外的训练成本;
  • 4)在某些场景下,具有小LLM模型的ToG的性能可以超过诸如GPT-4的大LLM,这降低了LLM部署和应用的成本。

作为一种具有较低计算成本和较好通用性的免训练方法,ToG在9个数据集中的6个数据集中实现了整体SOTA,而大多数以前的SOTA依赖于额外的训练。

1 引言

大型语言模型(LLM)在各种自然语言处理任务中表现出了卓越的性能。这些模型利用了应用于大量文本语料库的预训练技术,以生成连贯和上下文适当的响应。尽管LLM具有令人印象深刻的性能,但在面对复杂的知识推理任务时,LLM具有很大的局限性,需要深入和负责任的推理。

  • 首先,LLM通常无法提供准确的答案,要求专业知识超出预培训阶段(图1a中的过时知识),或者需要长逻辑链和多跳知识推理的问题。
  • 其次,LLM缺乏责任感,可解释性和透明度,担心出现幻觉或错误文本的风险。
  • 第三,LLM的培训过程通常昂贵且耗时,使其知识保持最新具有挑战性。

    认识到这些挑战,一个自然和有前途的解决方案是结合外部知识,如知识图(KG),以帮助改善LLM推理。KG提供了结构化的、明确的和可编辑的知识表示,提出了一种补充策略来减轻LLM的局限性。研究人员探索了使用KG作为外部知识来源,以减轻LLM的幻觉。
    这些方法遵循常规:从KG检索信息,相应地增加提示,并将增加的提示输入LLM(如图1b所示)。在本文中,我们将这种范式称为"LLM⊕LKG"。虽然LLM的目的是整合的力量和KG,在这个范式中,LLM扮演翻译器的角色,将输入的问题转换为机器可理解的命令KG搜索和推理,但它不直接参与图推理过程。不幸的是,松耦合LLM⊕KG范式有其自身的局限性,其成功在很大程度上取决于KG的完整性和高质量。例如,在图1b中,尽管LLM成功地识别了回答问题所需的必要关系类型,但关系"majority party" 的缺失导致检索正确答案的失败。

基于这些考虑,我们提出了一个新的紧耦合的"LLM ⊕ KG"范式,其中KG和LLM协同工作,在图推理的每个步骤中相互补充。图1c提供了一个示例,说明了LLM ⊕ KG的优势。在这个例子中,导致图1b中失败的缺失关系"多数党"可以由具有动态推理能力的LLM代理发现的参考三元组(澳大利亚,总理,Anthony Albanese)补充,以及安东尼艾博年的政党成员来自法学硕士的固有知识。通过这种方式,LLM成功地利用从KG检索的可靠知识生成正确答案。作为这种范式的实现,我们提出了一个算法框架"图上思考"(意思是:LLM"思考"沿着推理路径"知识"图"一步一步,以下简称为ToG),深入、负责、高效的LLM推理。在KG/LLM推理中使用波束搜索算法。ToG允许LLM在KG中动态探索许多推理路径并相应地做出决策。给定输入问题,ToG首先识别初始实体,然后迭代地调用LLM以通过探索(经由"在图上"步骤在KG中寻找相关三元组)和推理(经由"思考"步骤决定最相关的三元组)从KG检索相关三元组,直到信息足够通过波束搜索中的前N个推理路径来回答问题(由LLM在"思考"步骤中判断)或达到预定义的最大搜索深度。

ToG的优势可以概括为:

  • (1) 深度推理:ToG从KG中提取多样的多跳推理路径作为LLM推理的基础,增强了LLM对知识密集型任务的深度推理能力。
  • (2) 负责任的推理:显式的、可编辑的推理路径提高了LLM推理过程的可解释性,并能够跟踪和纠正模型输出的起源。
  • (3) 灵活性和效率:
    • a)ToG是一个即插即用的框架,可以无缝地应用于各种LLM和KG。
    • b)在ToG框架下,知识更新可以通过KG来实现,而不是LLM,后者的知识更新昂贵且缓慢
    • c)ToG增强了小型LLM的推理能力(例如,LLAMA 2 - 70 B)与大型LLM(例如,GPT-4)。

2 方法

ToG通过要求LLM在知识图上执行波束搜索来实现"LLM⊗KG"范式。具体地,它提示LLM迭代地探索KG上的多个可能的推理路径,直到LLM确定可以基于当前推理路径来回答问题。ToG不断更新和维护前N条推理路径P = {p~1~,p~2~,...,p~N~},其中N表示波束搜索的宽度。ToG的整个推理过程包括初始化、探索和推理3个阶段。

2.1图上思考

2.1.1图的初始化

给定一个问题,ToG利用底层LLM在知识图上定位推理路径的初始实体。该阶段可以被视为前N个推理路径P的初始化。ToG首先提示LLM自动提取所讨论的主题实体,并获得前N个主题实体E^0^ = {e^0^~1~,e^0^~2~,...,e^0^~N~}的问题。注意,主题实体的数量可能小于N。

2.1.2 探索

在第D次迭代开始时,每条路径p~n~由D-1个三元组组成,即p~n~ ={(e^d^~s,n~, r^d^~j,n~, e^d^~o,n~)}^D−1^~d=1~。其中e^d^~s,n~,和e^d^~o,n~表示主体和客体实体,r^d^~j,n~是它们之间的特定关系,(e^d^~s,n~, r^d^~j,n~, e^d^~o,n~)和((e^d+1^~s,n~, r^d+1^~j,n~, e^d+1^~o,n~))彼此连接。P中的尾实体和关系的集合表示为E^D-1^ = {e^D-1^~1~,e^D-1^~2~,.,e^D-1^~N~ }和R^D−1^ = {r^D−1^~1~,r^D−1^~2~,... ,r^D−1^~N~ }。

第D次迭代中的探索阶段旨在利用LLM基于问题x从当前前N个实体集合E^D-1^的相邻实体中识别最相关的前N个实体E^D^,并使用E^D^扩展前N个推理路径P。为了解决使用LLM处理众多相邻实体的复杂性,我们实现了两步探索策略:首先发掘出有意义的关系,然后用所选择的关系指导实体发掘。

关系探索

关系探索是一个波束搜索过程,深度为1,宽度为N,从E^D-1^到R^D^。整个过程可以分解为两个步骤:搜索和修剪。LLM作为代理自动完成此过程。

  • 搜索 在第D次迭代开始时,关系探索阶段首先为每个推理路径p~n~搜索链接到尾实体e^D-1^~n~的关系R^D^~cand,n~。这些关系被聚合成R^D^~cand~。在图2的情况下,E^1^ = {堪培拉},R^1^~cand~表示向内或向外链接到堪培拉的所有关系的集合。值得注意的是,搜索过程可以通过执行附录E.1和E.2中所示的两个简单的预定义正式查询来轻松完成,这使得ToG能够很好地适应不同的KG,而无需任何培训成本。
  • 剪枝 一旦我们已经从关系搜索中获得候选关系集R^D^~cand~和扩展的候选推理路径P~cand~,我们就可以利用LLM基于问题x的文字信息和候选关系R^D^~cand~从P~cand~中选出以尾部关系R^D^结尾的新的前N个推理路径P。此处使用的提示可参见附录E.3.1。如图2所示,LLM在第一次迭代中从链接到实体堪培拉的所有关系中选择前3个关系{capital of,country,territory}。由于堪培拉是唯一的主题实体,所以前3个候选推理路径被更新为{(堪培拉,首都),(堪培拉,国家),(堪培拉,领土)}。

实体探索 与关系探索类似,实体探索也是由LLM从R^D^到E^D^执行的波束搜索过程,并且包括两个步骤,搜索和修剪。

  • 搜索 一旦我们已经从关系探索获得了新的前N个推理路径P和新的尾关系RD的集合,对于每个关系路径pn ∈ P,我们可以通过查询(e^D-1^~n~,r^D^~n~,?)或(?,r^D^~n~,e^D−1^~n~),其中e^D−1^~n~,r~n~表示p~n~的尾实体和关系。我们可以聚合
    扩展为E^D^~cand~,并利用尾部实体E^D^~cand~扩展前N条推理路径P到P~cand~。对于所示的情况,E^1^~cand~可以表示为{Australia,Australia,澳大利亚首都直辖区}。
  • 剪枝 由于每个候选集合E^D^~cand~中的实体是用自然语言表达的,因此我们可以利用LLM来从P~cand~中选择以尾部实体艾德结束的新的前N个推理路径P。此处使用的提示可参见附录E.3.2。如图2所示,澳大利亚和澳大利亚首都直辖区被评分为1,因为关系capital of、country和territory仅分别链接到一个尾实体,并且当前推理路径p被更新为{(堪培拉,capital of,Australia),(Canberra,country,Australia),(Canberra,territory,澳大利亚首都直辖区)}。

2.1.3推理

在通过探索过程获得当前推理路径P后,我们提示LLM评估当前推理路径是否足以生成答案。如果评估结果是肯定的,我们将提示LLM使用推理路径生成答案,并将查询作为输入,如图2所示。用于评估和生成的提示可在附录E.3.3和E.3.4中找到。相反,如果评估得到否定的结果,我们重复探索和推理步骤,直到评估是肯定的或达到最大搜索深度Dmax。如果算法还没有结束,这意味着即使在达到Dmax时,TOG仍然无法探索推理路径来解决问题。在这种情况下,TOG完全基于LLM中的固有知识来生成答案。TOG的整个推理过程包括D个探索阶段和D个评估步骤,以及一个生成步骤,最多需要2ND+D+1次LLM调用。

2.2 基于关系的Think on graph

先前的KBQA方法,特别是基于语义解析的KBQA方法,主要依赖于问题中的关系信息来生成正式查询。受此启发,我们提出了基于关系的ToG(ToG-R),其探索前N个关系链

,从主题实体开始,而不是基于三元组的推理路径。ToG-R在每次迭代中依次执行关系搜索、关系修剪和实体搜索,这与ToG相同。然后ToG-R基于实体搜索获得的以E^D^~cand~结尾的所有候选推理路径执行推理步骤。如果LLM确定检索到的候选推理路径不包含LLM回答问题的足够信息,则我们从候选实体E^D^~cand~中随机采样N个实体,并继续进行下一次迭代。假设每个实体集合 中的实体可能属于同一实体类并且具有相似的相邻关系,则修剪实体集合的结果可能对随后的关系探索具有很小的影响。因此,我们使用随机波束搜索代替ToG中的LLM约束波束搜索来进行实体修剪,称为随机修剪。算法1和2显示了ToG和ToG-R的实现细节。ToG-R最多需要ND +D + 1个到LLM的调用。与ToG相比,ToG-R提供了两个关键优势:

1)它消除了使用LLM修剪实体的过程,从而降低了整体成本和推理时间。

2)ToG-R主要强调关系的文字信息,当中间实体的文字信息缺失或不熟悉时,减轻误导推理的风险。

相关推荐
WPG大大通2 分钟前
有奖直播 | onsemi IPM 助力汽车电气革命及电子化时代冷热管理
大数据·人工智能·汽车·方案·电气·大大通·研讨会
百锦再4 分钟前
AI对汽车行业的冲击和比亚迪新能源汽车市场占比
人工智能·汽车
ws2019077 分钟前
抓机遇,促发展——2025第十二届广州国际汽车零部件加工技术及汽车模具展览会
大数据·人工智能·汽车
Zhangci]11 分钟前
Opencv图像预处理(三)
人工智能·opencv·计算机视觉
新加坡内哥谈技术28 分钟前
口哨声、歌声、boing声和biotwang声:用AI识别鲸鱼叫声
人工智能·自然语言处理
wx74085132639 分钟前
小琳AI课堂:机器学习
人工智能·机器学习
FL16238631291 小时前
[数据集][目标检测]车油口挡板开关闭合检测数据集VOC+YOLO格式138张2类别
人工智能·yolo·目标检测
YesPMP平台官方1 小时前
AI+教育|拥抱AI智能科技,让课堂更生动高效
人工智能·科技·ai·数据分析·软件开发·教育
FL16238631291 小时前
AI健身体能测试之基于paddlehub实现引体向上计数个数统计
人工智能
黑客-雨1 小时前
构建你的AI职业生涯:从基础知识到专业实践的路线图
人工智能·产品经理·ai大模型·ai产品经理·大模型学习·大模型入门·大模型教程