Pref-GRPO:通过成对比较实现稳定文本图像生成强化学习的新方法

概述

本文为文本到图像(T2I)模型提出了一种新的强化学习方法。

传统的 GRPO(组相对策略优化)方法使用基于分数的奖励模型来评估生成图像的质量,并通过对组内分数进行归一化来更新衡量标准。

然而,这种方法容易出现一个被称为 "奖励黑客 "的问题,即分数增加,图像质量却下降。

作者指出,这是 "虚幻优势 "造成的。

当生成图像之间的分数差异非常小,而归一化会过度强调差异时,就会出现这种情况。

为了解决这个问题,研究提出了一种名为 Pref-GRPO 的新方法。

这是一种基于图像对之间的相对偏好(成对偏好)而不是绝对分数来更新测量结果的机制。

此外,作者还为模型评估设计了一种名为 "UniGenBench "的新基准,可从细粒度维度评估 T2I 模型的性能。

这项工作的意义在于,它克服了传统方法的局限性,能够以更稳定的方式学习图像生成,并符合人类的偏好。

建议的方法

Pref-GRPO 的核心思想是将学习目标从传统的奖励分数最大化转移到 "相对偏好匹配"。

具体来说,针对给定的提示生成多张图像,并进行配对比较。

使用成对奖励模型(PPRM)来确定哪张图片更受欢迎,并将胜率作为奖励信号。

每张图片的胜率在组内进行归一化处理,并用于更新衡量标准。

这种设计有三个优点。

首先,胜出率的使用增加了奖励的方差,可以更清楚地区分质量好和质量差的图像。

其次,由于它是基于相对排名而不是绝对分数差异,因此对奖励噪音具有很强的抗干扰能力,并减少了奖励黑客的出现。

第三,它能提供更自然、更忠实的奖励信号,因为它反映了人类的判断本质上是基于相对比较这一事实。

此外,在评估方面,作者提出的 UniGenBench 甚至可以对文本理解和逻辑推理等细节维度进行评估,从而可以对模型的优缺点进行详细分析。

实验

在实验中,Pref-GRPO 首先与现有的奖励最大化方法(HPS、CLIP、UnifiedReward 等)进行了比较。

实验使用 Flux.1-dev 作为基础模型,并使用 UniGenBench 进行评估。

结果显示,Pref-GRPO 的总分提高了约 6 分,尤其是在逻辑推理和文本绘制方面。

此外,传统方法会出现 "奖励黑客 "现象,即在训练过程中奖励分数增加,图像质量却下降,而 Pref-GRPO 则有效地抑制了这一现象。

此外,对生成的图像进行定性比较后发现,现有方法会出现过度饱和等不自然的倾向,而 Pref-GRPO 则能生成更自然、更稳定的表达。

此外,在外部基准(GenEval 和 T2I-CompBench)中也观察到了稳定的性能改进。

使用 UniGenBench 进行的广泛模型比较显示,GPT-4o 和 Imagen-4.0-Ultra 等封闭源模型表现良好,而 Qwen-Image 和 HiDream 等开放源模型也取得了快速进步。

总之,可以得出结论,这种方法是显著提高 T2I 强化学习稳定性和实用性的有效方法。

相关推荐
纤纡.2 小时前
PyTorch 入门精讲:从框架选择到 MNIST 手写数字识别实战
人工智能·pytorch·python
大大大反派2 小时前
CANN 生态中的自动化部署引擎:深入 `mindx-sdk` 项目构建端到端 AI 应用
运维·人工智能·自动化
程序猿追2 小时前
深度解读 AIR (AI Runtime):揭秘 CANN 极致算力编排与调度的核心引擎
人工智能
2601_949593652 小时前
深入解析CANN-acl应用层接口:构建高效的AI应用开发框架
数据库·人工智能
●VON2 小时前
CANN安全与隐私:从模型加固到数据合规的全栈防护实战
人工智能·安全
刘大大Leo2 小时前
GPT-5.3-Codex 炸了:第一个「自己造自己」的 AI 编程模型,到底意味着什么?
人工智能·gpt
小镇敲码人2 小时前
剖析CANN框架中Samples仓库:从示例到实战的AI开发指南
c++·人工智能·python·华为·acl·cann
摘星编程2 小时前
CANN ops-nn Pooling算子解读:CNN模型下采样与特征提取的核心
人工智能·神经网络·cnn
程序员清洒3 小时前
CANN模型安全:从对抗防御到隐私保护的全栈安全实战
人工智能·深度学习·安全
island13143 小时前
CANN ops-nn 算子库深度解析:神经网络计算引擎的底层架构、硬件映射与融合优化机制
人工智能·神经网络·架构