Pref-GRPO:通过成对比较实现稳定文本图像生成强化学习的新方法

概述

本文为文本到图像(T2I)模型提出了一种新的强化学习方法。

传统的 GRPO(组相对策略优化)方法使用基于分数的奖励模型来评估生成图像的质量,并通过对组内分数进行归一化来更新衡量标准。

然而,这种方法容易出现一个被称为 "奖励黑客 "的问题,即分数增加,图像质量却下降。

作者指出,这是 "虚幻优势 "造成的。

当生成图像之间的分数差异非常小,而归一化会过度强调差异时,就会出现这种情况。

为了解决这个问题,研究提出了一种名为 Pref-GRPO 的新方法。

这是一种基于图像对之间的相对偏好(成对偏好)而不是绝对分数来更新测量结果的机制。

此外,作者还为模型评估设计了一种名为 "UniGenBench "的新基准,可从细粒度维度评估 T2I 模型的性能。

这项工作的意义在于,它克服了传统方法的局限性,能够以更稳定的方式学习图像生成,并符合人类的偏好。

建议的方法

Pref-GRPO 的核心思想是将学习目标从传统的奖励分数最大化转移到 "相对偏好匹配"。

具体来说,针对给定的提示生成多张图像,并进行配对比较。

使用成对奖励模型(PPRM)来确定哪张图片更受欢迎,并将胜率作为奖励信号。

每张图片的胜率在组内进行归一化处理,并用于更新衡量标准。

这种设计有三个优点。

首先,胜出率的使用增加了奖励的方差,可以更清楚地区分质量好和质量差的图像。

其次,由于它是基于相对排名而不是绝对分数差异,因此对奖励噪音具有很强的抗干扰能力,并减少了奖励黑客的出现。

第三,它能提供更自然、更忠实的奖励信号,因为它反映了人类的判断本质上是基于相对比较这一事实。

此外,在评估方面,作者提出的 UniGenBench 甚至可以对文本理解和逻辑推理等细节维度进行评估,从而可以对模型的优缺点进行详细分析。

实验

在实验中,Pref-GRPO 首先与现有的奖励最大化方法(HPS、CLIP、UnifiedReward 等)进行了比较。

实验使用 Flux.1-dev 作为基础模型,并使用 UniGenBench 进行评估。

结果显示,Pref-GRPO 的总分提高了约 6 分,尤其是在逻辑推理和文本绘制方面。

此外,传统方法会出现 "奖励黑客 "现象,即在训练过程中奖励分数增加,图像质量却下降,而 Pref-GRPO 则有效地抑制了这一现象。

此外,对生成的图像进行定性比较后发现,现有方法会出现过度饱和等不自然的倾向,而 Pref-GRPO 则能生成更自然、更稳定的表达。

此外,在外部基准(GenEval 和 T2I-CompBench)中也观察到了稳定的性能改进。

使用 UniGenBench 进行的广泛模型比较显示,GPT-4o 和 Imagen-4.0-Ultra 等封闭源模型表现良好,而 Qwen-Image 和 HiDream 等开放源模型也取得了快速进步。

总之,可以得出结论,这种方法是显著提高 T2I 强化学习稳定性和实用性的有效方法。

相关推荐
RoyLin2 小时前
沉睡三十年的标准:HTTP 402、生成式 UI 与智能体原生软件的时代
人工智能
needn4 小时前
TRAE为什么要发布SOLO版本?
人工智能·ai编程
毅航4 小时前
自然语言处理发展史:从规则、统计到深度学习
人工智能·后端
前端付豪4 小时前
LangChain链 写一篇完美推文?用SequencialChain链接不同的组件
人工智能·python·langchain
ursazoo4 小时前
写了一份 7000字指南,让 AI 帮我消化每天的信息流
人工智能·开源·github
_志哥_8 小时前
Superpowers 技术指南:让 AI 编程助手拥有超能力
人工智能·ai编程·测试
YongGit9 小时前
OpenClaw 本地 AI 助手完全指南:飞书接入 + 远程部署实战
人工智能
程序员鱼皮10 小时前
斯坦福大学竟然开了个 AI 编程课?!我已经学上了
人工智能·ai编程
星浩AI10 小时前
Skill 的核心要素与渐进式加载架构——如何设计一个生产可用的 Skill?
人工智能·agent
树獭非懒11 小时前
告别繁琐多端开发:DivKit 带你玩转 Server-Driven UI!
android·前端·人工智能