Self-Polish: Enhance Reasoning in Large Language Models via Problem Refinement

Self-Polish: Enhance Reasoning in Large Language Models via Problem Refinement

文章链接

核心思想是通过instruction让LLM来优化问题本身,从而达到更好的效果,且这种针对问题的优化可以跟其他的prompt技术,如CoT或者Least-to-Most相结合。

作者提出了一些重述问题的准则:

(1)简短:问题不要太长,确保容易理解

(2)清晰:问题表述清晰,能量化的部分就量化

(3)聚焦:想问的问题应该突出

(4)清除无关信息

作者说因为不好构建数据库,所以训练一个模型来搞这件事很麻烦,他们转而寻求不用训练的办法。

在zero-shot的setting下,方法很简单,通过给LLM instruction让LLM按照之前说的准则修改问题表述。而在few-shot的setting下,作者会展示一些样例给LLM,让LLM参照样例去移除无关信息、重排条件、整合相关条件等,如下

注意到右侧还有个An,按照作者的说法这是问题的答案,然而这个答案似乎不太对 ,显然左边的数学题答案应该是1220+510=290,不知道作者是粗心大意了还是LLM真的做错了😂总而言之,这个过程表达的意思是改进和做题交替进行,如果连续两次得到的答案相同,说明答案收敛,以此作为输出,作者称其为progressive problem-refining。

上述重写问题的效果则如下图所示,

可以看到在davinci-003的情况下表现均有所提升,且基本上progressive>few-shot>zero-shot,说明refinement是有效果的。以及下面是在不同LLM上的效果。

之后,作者还展示了该方法和其他prompt方法结合,比如CoT和Least-to-Most,均有提升。

最后,作者针对progressive中的两个变量:迭代次数和最终答案选取做了消融实验。结果表明迭代次数越多,性能提升越大。同时在迭代次数少的时候采信最后一次迭代的答案正确率高,而次数多了以后投票的正确率高。

相关推荐
鸭鸭鸭进京赶烤8 分钟前
第七届能源系统与电气电力国际学术会议(ICESEP 2025)
大数据·运维·人工智能·自动化·智慧城市·能源·laravel
数据要素X10 分钟前
【数据架构06】可信数据空间架构篇
大数据·运维·数据库·人工智能·架构
道可云12 分钟前
道可云人工智能每日资讯|浙江省人民政府印发《关于支持人工智能创新发展的若干措施》
人工智能·百度
waterHBO17 分钟前
安装 tensorflow-2.10.0 支持 gpu
人工智能·python·tensorflow
闭月之泪舞22 分钟前
OpenCv高阶(十四)——LBPH人脸识别
人工智能·opencv·计算机视觉
糖葫芦君36 分钟前
Better & Faster Large Language Models via Multi-token Prediction 原理
人工智能
人工智能培训36 分钟前
计算机视觉设计开发工程师学习路线
人工智能·学习·计算机视觉·大模型·transformer·ai大模型
ywyy67981 小时前
「短剧系统开发」定制化技术架构|高并发微服务 + AI 推荐,快速搭建流量级短剧平台
大数据·网络·人工智能·小程序·短剧·短剧系统·短剧系统开发
HyperAI超神经1 小时前
融合蛋白质语言模型和图像修复模型,麻省理工与哈佛联手提出PUPS ,实现单细胞级蛋白质定位
人工智能·深度学习·机器学习·蛋白质序列·ai for science·细胞图像
Blossom.1181 小时前
量子传感器:开启微观世界的精准探测
大数据·人工智能·深度学习·安全·机器学习·计算机视觉·量子计算