Self-Consistency Improves Chain of Thought Reasoning in Language Models阅读笔记

论文链接:https://arxiv.org/pdf/2203.11171.pdf

又到了读论文的时间,内心有点疲惫。这几天还是在看CoT的文章,今天这篇是讲如何利用self-consistency(自我一致性)来改进大语言模型的思维链推理过程。什么是self-consistency呢,读完论文感觉可以这么解释,就是有个渣男/大语言模型,你问了他五次昨天晚上九点跟谁在一起/文章里问大语言模型一个问题多次,他三次说跟同事去电影,一次说没干什么,还有一次说你好烦/大语言模型也给出了一些不同的包含推理过程的答案,不过里面也是有重叠的。然后你就根据渣男这几次反馈综合一个最具一致性的答案/same for LLM。我们来看一下文章的框架图,结合刚刚讲的例子是不是很好理解:

这个自我一致性具体到实验该怎么做呢?我们来看文章细节:

首先这里提到的答案a,其实是需要解析的,可以看文章的脚注:解析任务是依赖于问的问题,对于算数推理题吗,作者在The answer is 的后头解析得到第一个数字为最终的答案;对于常识推理,作者在The answer is的后头解析得到完整的字符串为最终的答案。对于大多数模型的输出都具有 "{Reasoning paths}. The answer is X."的格式。解析答案后,会根据所有的答案a来投票选举出最终的答案(即最具有一致性的答案)。当然了哇,为了让一切显得不那么简单,作者还是测试了不同的答案集成方式(加权和或者加权平均,带点标准化或者不带),虽然最后还是投票效果最好。

所有实验都是做了few-shot的设置,没有训练或者微调语言模型,就是在prompt输入的时候进行了举例。对于所有的算数推理任务,作者全部都用了一模一样的八个人工写出来的例子;对于常识推理任务,作者从训练集中随机抽取了4-7个例子。具体任务细节大家可以移步附录,这里给一个示例截图:

好的,读完了这篇文章,知道了果然面对渣男就要多问几次才行。模糊不清的爱,请立马走开。

相关推荐
卡提西亚10 小时前
C++笔记-34-map/multimap容器
开发语言·c++·笔记
海边夕阳200611 小时前
【每天一个AI小知识】:什么是循环神经网络?
人工智能·经验分享·rnn·深度学习·神经网络·机器学习
2501_9181269111 小时前
如何用ai做开发
人工智能
f***a34611 小时前
开源模型应用落地-工具使用篇-Spring AI-高阶用法(九)
人工智能·spring·开源
用户51914958484511 小时前
BBDown:高效便捷的哔哩哔哩视频下载工具
人工智能·aigc
CV实验室11 小时前
CV论文速递:覆盖视频生成与理解、3D视觉与运动迁移、多模态与跨模态智能、专用场景视觉技术等方向 (11.17-11.21)
人工智能·计算机视觉·3d·论文·音视频·视频生成
●VON11 小时前
AI不能做什么?澄清常见误解
人工智能
数据堂官方账号11 小时前
行业洞见 | AI鉴伪:数据驱动的数字安全变革
人工智能·安全
能鈺CMS11 小时前
内容付费系统全面解析:构建知识变现体系的最强工具(2025 SEO 深度专题)
大数据·人工智能·html
Salt_072812 小时前
DAY 19 数组的常见操作和形状
人工智能·python·机器学习