【LLM-推理】Self-Refine:使用feedback迭代修正LLM的Output

来源: https://selfrefine.info/

1.论文速读(摘要+引言)

本文主要提出了Self-Refine策略,旨在通过一个LLM不断refine修正LLM的输出,使其在无需额外训练的情况下,在下游任务产生更好的效果。

该方法的直观Insight:我们在写一封 email 时,往往写出一个 draft,然后再修改其中措辞不当的地方,修改为更好的版本。
其思路如下图:

  • 首先,给定一个 input x,在 prompt pgen下让 LLM 先生成一个初始 outputy0
  • 进行迭代,每一轮 t 中:
    • Feedback:input x、上一轮 output y(t)prompt p(fb)给 LLM,得到这一轮的 feedback f(bt)【feedback的prompt】
    • Refine:input x历史的所有 feedbackoutputprompt P(refine) 给 LLM,得到这一轮的 output T(t+1)。【refine重新优化的prompt】

​如此迭代,直到 feedback 中被检查出有stop标识符,或者达到了最大迭代次数。

2.方法 method

给定输入,self-refine生成最初的输出,根据该输出提出反馈,然后根据反馈优化输出。直到得到满意的答案。self-refine依靠LLM和三个prompts(生成输出的Prompt,生成反馈的Prompt,根据反馈优化输出的优化Prompt)

3.评估

主要在这几个任务进行评估:

对话生成

代码优化

代码可读性提升 数学推理

反转情绪

缩写词生成

限制性生成



Metrics指标效果:
Math reasoning %解决率code optimization:% 代码优化率Acronym Generation:%受限生成

相关推荐
我的xiaodoujiao12 分钟前
3、API 接口自动化测试详细图文教程学习系列3--相关Python基础知识2
python·学习·测试工具·pytest
南 阳15 分钟前
Python从入门到精通day56
开发语言·python
阿kun要赚马内38 分钟前
Python中函数的进阶用法
开发语言·python
Spliceㅤ41 分钟前
项目:基于qwen的点餐系统
开发语言·人工智能·python·机器学习·自然语言处理
asdzx6741 分钟前
使用 Python 快速为 PDF 添加背景色或背景图片
python·pdf
badhope42 分钟前
Docker入门到实战全攻略
linux·python·docker·github·matplotlib
华研前沿标杆游学1 小时前
2026深圳企业参访-走进深圳华星光电TCL学习智能制造
python
dapeng28701 小时前
Python异步编程入门:Asyncio库的使用
jvm·数据库·python
2401_851272991 小时前
Python面向对象编程(OOP)终极指南
jvm·数据库·python
2401_831824961 小时前
将Python Web应用部署到服务器(Docker + Nginx)
jvm·数据库·python