ICLR2024: 大视觉语言模型中对象幻觉的分析和缓解

https://arxiv.org/pdf/2310.00754

https://github.com/YiyangZhou/LURE

背景

对象幻觉:生成包含图像中实际不存在的对象的描述

早期的工作试图通过跨不同模式执行细粒度对齐 (Biten et al.,2022)或通过数据增强 减少对象共现模式(Rohrbach et al.,2018; Kim et al.,2023)来解决小规模多模态预训练模型中的对象幻觉问题。最近的一些工作(Li et al.,2023c;Liu et al.,2023a;d)研究了通过增强用于微调的数据集的质量来减少LVLM中的对象幻觉。

经验和理论发现都揭示了对象幻觉可以归因于三个关键因素:共现、不确定性和对象位置

首先,如果训练数据包含对象之间的虚假共现模式,语言模型可能会基于这些学习到的虚假关联生成输出,从而导致幻觉描述。

其次,在生成过程中,幻觉更频繁地发生在以高不确定性为特征的对象上。

最后,位置因素也发挥了作用,因为由于误解的积累,更多的对象幻觉倾向于出现在生成描述的后半部分

贡献

提出了轻量级的后处理方法LVLM幻觉审阅器(LURE),通过重建较少幻觉的描述来事后纠正LVLM中的对象幻觉

LURE开发了一个对象幻觉审校器。这个审校器将潜在的幻觉描述作为输入,并将它们转换为准确的。

为了创建审校器,我们首先使用GPT-3.5生成一个幻觉数据集,方法是对原始正确的标题进行两次修改:

(1)在描述中插入额外的对象文本,这些文本很可能与初始描述中包含的对象共同出现。这种修改允许LURE学习有效地解开这种共现模式;

(2)用占位符支架替换不确定的对象或描述末尾的对象,鼓励审校器重新评估这些对象。

最后,我们利用获得的幻觉数据集训练我们的幻觉审校器。一旦经过训练,审校器可以与任何LVLM无缝集成,以纠正潜在的幻觉描述。

实验

为了验证我们的方法的性能增益不是来自于使用额外的数据来训练修订器,我们使用额外的数据集微调了原始LVLM

幻觉因素是否有助于性能增益?为了证明考虑共现不确定性物体位置在减少幻觉方面的影响,我们进行了消融实验,并在表4中报告了结果,其中"原始"代表了MiniGPT-4的描述。

在消融实验中,我们在没有三个因素的情况下训练和部署了修正器,一次一个。结果表明,所有三个因素都有助于训练一个强大的幻觉修正器来减少物体幻觉

相关推荐
抓个马尾女孩4 分钟前
MoCo对比损失
人工智能·深度学习
阿里云大数据AI技术26 分钟前
TAG:BladeLLM 的纯异步推理架构
人工智能·tag·llm推理
m0_603888711 小时前
什么是上采样什么是下采样
人工智能·深度学习·计算机视觉
TSINGSEE1 小时前
人员抽烟AI检测算法在智慧安防领域的创新应用,助力监控智能化
人工智能·算法·视频编解码·安防视频监控·视频监控管理平台
一枚游戏干饭人1 小时前
【运营攻略】怎样进行游戏产品的定位
人工智能·游戏·语音识别
Python极客之家1 小时前
基于机器学习的乳腺癌肿瘤智能分析预测系统
人工智能·python·机器学习·毕业设计·xgboost·可视化分析
嵌入式杂谈1 小时前
深入理解AI大模型:参数、Token、上下文窗口、上下文长度和温度
人工智能
范范08251 小时前
自然语言处理入门:从基础概念到实战项目
人工智能·自然语言处理
_feivirus_1 小时前
神经网络_使用TensorFlow预测气温
人工智能·神经网络·算法·tensorflow·预测气温
deflag2 小时前
第T1周:Tensorflow实现mnist手写数字识别
人工智能·python·机器学习·分类·tensorflow