大语言模型入门(五)——思维链

一、什么是思维链

思维链(Chain-of-Thought,简称CoT )是一种在大型语言模型(LLMs)中使用的技术,旨在提升模型在复杂推理任务上的表现。这种方法通过模拟人类解决问题时的思考过程,将问题分解为一系列子问题,然后逐步解决这些子问题,最终得出结论。我们都知道大模型生成的结果是根据概率进行计算的,并不能真的像人类一样自主思考(至少目前是这样),所以对于推理任务,大模型并不擅长。因此,给多点时间或者指引给大模型,才能提高生成结果的可靠性。

二、思维链的原理及类型

1、原理

  • 问题分解:将一个复杂的问题分解成一系列更小、更简单的子问题。
  • 逐步推理:对每个子问题进行逐一推理,生成中间步骤。
  • 得出结论:基于中间步骤,得出最终答案。

2、思维链的类型

  • Zero-shot CoT:在没有任何人工标注的推理步骤的情况下,模型直接生成推理步骤和最终答案。
  • Few-shot CoT:提供少量的示例,包含输入、CoT推理步骤和输出,模型根据这些示例生成新的推理步骤和答案。

三、如何实现思维链

如果我们使用的是大模型智能助手,那么在对话的过程中,我们可以引导模型一步步思考,并让它把思考的过程也输出来。比如这里,我们让大模型进行简单的一个累加计算,但是让它直接给答案(虽然还是罗列了数字,但是计算结果是错的)。

这里还是上面的问题,但是我们给出指令让它一步步推理,同时把推理过程告诉我们。这样一来,大模型有了充分的思考时间,答案是对的(虽然推理过程显得它不太聪明的样子)。

对于非常复杂、信息量较大或者推理难度大的任务,我们可以适当给出一到两个示例,告诉大模型推理的思路和方向,从而引导它模仿我们推理的过程来输出结果。同样地,我们这里让它直接返回答案,可以看到,还是答错了。

但是我们可以给一些例子给它,告诉它该怎么推理(包括上面篮球的例子,它的推理过程太冗余了,同样可以给出例子,让它模仿我们推理的模式进行答复)。可以看到,它模仿得不能说像,只能说一模一样,这次回答正确了。

四、总结

在算术推理、常识推理和符号推理等任务中,CoT可以显著提高模型的准确性和可靠性。CoT生成的中间步骤可以帮助用户理解模型是如何得出答案的,也提高了模型的可解释性。相比于传统的微调方法,CoT不需要对模型进行大量的参数更新,从而减少了计算资源的消耗。因此,对于一些比较复杂的、步骤较长的任务,不妨采用CoT提高大模型的性能。随着技术的发展,CoT相关的技巧也越来越多,笔者会持续跟踪并分享相关领域的研究进展。

相关推荐
a里啊里啊7 分钟前
AI提示词收集(持续更新)
ai·大模型·prompt·开发·提示词
程序员Linc12 分钟前
写给新人的深度学习扫盲贴:向量与矩阵
人工智能·深度学习·矩阵·向量
ゞ 正在缓冲99%…12 分钟前
leetcode76.最小覆盖子串
java·算法·leetcode·字符串·双指针·滑动窗口
xuanjiong13 分钟前
纯个人整理,蓝桥杯使用的算法模板day2(0-1背包问题),手打个人理解注释,超全面,且均已验证成功(附带详细手写“模拟流程图”,全网首个
算法·蓝桥杯·动态规划
xcLeigh20 分钟前
OpenCV从零开始:30天掌握图像处理基础
图像处理·人工智能·python·opencv
果冻人工智能23 分钟前
如何有效应对 RAG 中的复杂查询?
人工智能
2305_7978820932 分钟前
AI识图小程序的功能框架设计
人工智能·微信小程序·小程序
惊鸿.Jh32 分钟前
【滑动窗口】3254. 长度为 K 的子数组的能量值 I
数据结构·算法·leetcode
明灯L33 分钟前
《函数基础与内存机制深度剖析:从 return 语句到各类经典编程题详解》
经验分享·python·算法·链表·经典例题
果冻人工智能33 分钟前
向量搜索中常见的8个错误(以及如何避免它们)
人工智能