ICLR2024: 大视觉语言模型中对象幻觉的分析和缓解

https://arxiv.org/pdf/2310.00754

https://github.com/YiyangZhou/LURE

背景

对象幻觉:生成包含图像中实际不存在的对象的描述

早期的工作试图通过跨不同模式执行细粒度对齐 (Biten et al.,2022)或通过数据增强 减少对象共现模式(Rohrbach et al.,2018; Kim et al.,2023)来解决小规模多模态预训练模型中的对象幻觉问题。最近的一些工作(Li et al.,2023c;Liu et al.,2023a;d)研究了通过增强用于微调的数据集的质量来减少LVLM中的对象幻觉。

经验和理论发现都揭示了对象幻觉可以归因于三个关键因素:共现、不确定性和对象位置

首先,如果训练数据包含对象之间的虚假共现模式,语言模型可能会基于这些学习到的虚假关联生成输出,从而导致幻觉描述。

其次,在生成过程中,幻觉更频繁地发生在以高不确定性为特征的对象上。

最后,位置因素也发挥了作用,因为由于误解的积累,更多的对象幻觉倾向于出现在生成描述的后半部分

贡献

提出了轻量级的后处理方法LVLM幻觉审阅器(LURE),通过重建较少幻觉的描述来事后纠正LVLM中的对象幻觉

LURE开发了一个对象幻觉审校器。这个审校器将潜在的幻觉描述作为输入,并将它们转换为准确的。

为了创建审校器,我们首先使用GPT-3.5生成一个幻觉数据集,方法是对原始正确的标题进行两次修改:

(1)在描述中插入额外的对象文本,这些文本很可能与初始描述中包含的对象共同出现。这种修改允许LURE学习有效地解开这种共现模式;

(2)用占位符支架替换不确定的对象或描述末尾的对象,鼓励审校器重新评估这些对象。

最后,我们利用获得的幻觉数据集训练我们的幻觉审校器。一旦经过训练,审校器可以与任何LVLM无缝集成,以纠正潜在的幻觉描述。

实验

为了验证我们的方法的性能增益不是来自于使用额外的数据来训练修订器,我们使用额外的数据集微调了原始LVLM

幻觉因素是否有助于性能增益?为了证明考虑共现不确定性物体位置在减少幻觉方面的影响,我们进行了消融实验,并在表4中报告了结果,其中"原始"代表了MiniGPT-4的描述。

在消融实验中,我们在没有三个因素的情况下训练和部署了修正器,一次一个。结果表明,所有三个因素都有助于训练一个强大的幻觉修正器来减少物体幻觉

相关推荐
WebCandy2 分钟前
【开源】一个丝滑的 Claude Code 环境变量快速切换工具
人工智能·aigc·ai编程
共绩算力6 分钟前
更小模型实现更强视觉 OCR
人工智能·ocr·共绩算力
胡乱编胡乱赢10 分钟前
关于联邦学习中的Decaf攻击基础知识
人工智能·深度学习·机器学习
五度易链-区域产业数字化管理平台13 分钟前
如何构建高质量产业数据信息库?五度易链的“八大核心库”与数据治理实践
大数据·人工智能
智泊AI14 分钟前
何恺明新作:扩散模型+Transformer才是王炸!
llm
优宁维生物16 分钟前
DNA 提取的基础方法
人工智能·算法
心态与习惯18 分钟前
使用 pytorch 进行深度学习的一般步骤
pytorch·深度学习·流程·步骤
Elastic 中国社区官方博客22 分钟前
用 Elasticsearch 构建一个 ChatGPT connector 来查询 GitHub issues
大数据·人工智能·elasticsearch·搜索引擎·chatgpt·github·全文检索
奔跑的石头_39 分钟前
如何用AI创建一个适合你的编程社区用户名
人工智能
yuhaiqun198940 分钟前
10分钟快速get:零基础AI人工智能学习路线
人工智能·学习