本文是LLM系列文章,针对《Graph of Thoughts: Solving Elaborate Problems with Large Language Models》的翻译。
思维图:用大语言模型解决复杂问题
- 摘要
- [1 引言](#1 引言)
- [2 背景与符号](#2 背景与符号)
- [3 GoT框架](#3 GoT框架)
- [4 系统架构和扩展性](#4 系统架构和扩展性)
- [5 用例示例](#5 用例示例)
- [6 延迟量权衡](#6 延迟量权衡)
- [7 评估](#7 评估)
- [8 相关工作](#8 相关工作)
- [9 结论](#9 结论)
摘要
我们介绍了思维图(GoT):这是一个框架,它将大型语言模型(LLM)中的提示能力提升到思维链或思维树(ToT)等范式之外。GoT的关键思想和主要优势是能够将LLM生成的信息建模为任意图,其中信息单元("LLM思想")是顶点,边对应于这些顶点之间的依赖关系。这种方法能够将任意LLM思想组合成协同结果,提取整个思想网络的本质,或使用反馈循环增强思想。我们说明了GoT在不同任务上比现有技术具有优势,例如,与ToT相比,排序质量提高了62%,同时成本降低了31%以上。我们确保GoT可以通过新的思想转换进行扩展,从而可以用于引导新的提示方案。这项工作使LLM推理更接近人类思维或大脑机制,如复现,两者都形成了复杂的网络。
1 引言
2 背景与符号
3 GoT框架
4 系统架构和扩展性
5 用例示例
6 延迟量权衡
7 评估
8 相关工作
9 结论
提示工程是大型语言模型(LLM)研究的核心新领域之一。它能够有效地使用LLM,而无需任何模型更新。然而,设计有效的提示是一项具有挑战性的任务。
在这项工作中,我们提出了思维图(GoT),这是一种新的范式,使LLM能够在没有任何模型更新的情况下有效地解决不同的任务。关键思想是将LLM推理建模为任意图,其中思想是顶点,思想之间的依赖关系是边。
这使得思想能够进行新颖的转换,例如聚合。人类的任务解决通常是非线性的,它包括将中间解决方案组合成最终解决方案,或者在发现新的见解时改变推理流程。GoT通过其图形结构反映了这一点。
GoT优于其他提示方案,例如,确保排序质量比ToT提高62%,同时降低成本>31%。我们还为提示方案提出了一个新的度量,即思维量,以指示给定LLM输出可以携带的信息范围,其中GoT也很出色。这为更具原则性的提示工程迈出了一步。