ChartCap:利用大型数据集和新的评估指标抑制图表标题幻觉

概述

该研究旨在确保整合视觉和语言的模型能够生成 "准确且信息丰富的图表说明(标题)"。

现有的图表标题数据集面临两大挑战。

首先,从论文和报告中提取的标题包含无法从图表图像中读取的无关信息。

其次,标题不能充分体现重要的见解,如坐标轴、图例和其他结构、最大值和趋势。

这些问题在模型中造成了 "幻觉"(halucinations),导致了错误的表述。

因此,作者构建了一个新的数据集--ChartCap,该数据集包含 56 万多张真实世界的图表,这些图表具有高质量的标题,对结构元素和重要见解没有过多或过少的表述,也没有无关信息。

我们还提出了一种新的衡量标准--视觉一致性得分,它可以根据生成的标题复制图表,并通过与原始图像进行比较来对其进行评估。

这样就能客观地衡量模型忠实、准确地描述实际图表的能力。

建议的方法

作者设计了一个四阶段自动生成管道来构建 ChartCap 数据集。

首先,只从数百万张图片中提取数据驱动的图表,不包括图表以外的图表(如概念图和示意图)。

然后,使用 GPT-4o 和其他工具识别图表类型和标题。

然后,根据为每种图表类型定义的模式,提取图例、坐标轴、极值和趋势等结构元素和见解。

在这一过程中,GPT-4o 和 Claude 3.5 Sonnet 分工合作,前者负责粗略的趋势识别,后者负责需要数字精确度的处理。

提取结果被编译成半结构化格式,最后转换成自然语言说明。

为了进一步保证质量,还引入了基于周期一致性的验证,即 "根据标题生成 Python 代码,并将重建的图表与原始图像进行比较",而不是由人工直接检查所有内容。

这不仅简化了人工视觉检查,还能以低成本构建兼具准确性和全面性的大型数据集。

实验

实验将在 ChartCap 上训练的模型与现有的开源模型和商业模型进行了比较。

除了传统的 BLEU 和 ROUGE 外,还使用了建议的视觉一致性得分(VCS)和 OCRScore 作为评估指标。

结果显示,与传统模型相比,使用 ChartCap 微调的模型生成的字幕更准确、更翔实、更不虚假。

其中,Phi3.5-Vision-4B 和 InternVL2.5-8B 等开源模型在使用 ChartCap 进行微调后,甚至超过了商业 Claude 3.5 Sonnet。

它们还在 VisText 和 Chart-to-Text 等其他人工验证数据集上实现了零误差的高准确率,证明了它们的泛化能力。

此外,对人类评分的比较表明,在许多情况下,使用 ChartCap 训练的模型的输出结果比现有的人类撰写的标题更受欢迎。

这表明,ChartCap 比传统数据集更有效,可以为理解和解释真实世界的图表做出重大贡献。

相关推荐
程序员打怪兽1 分钟前
详解YOLOv8网络结构
人工智能·深度学习
Yuer20252 分钟前
全国首例“AI 幻觉”侵权案判了:这不是 AI 准不准的问题,而是谁该为 AI 负责
人工智能·edca os·可控ai
一切尽在,你来17 分钟前
1.1 AI大模型应用开发和Langchain的关系
人工智能·langchain
Coder_Boy_25 分钟前
基于Spring AI的分布式在线考试系统-事件处理架构实现方案
人工智能·spring boot·分布式·spring
Light6038 分钟前
智链未来:彭山物流园区从物理基建到数据智能体的全维度构建方案
人工智能·系统架构·数字孪生·智慧物流·实施路径·彭山项目
AI资源库41 分钟前
GLM-4.7-Flash模型深入解析
人工智能·语言模型
一切尽在,你来1 小时前
1.2 LangChain 1.2.7 版本核心特性与升级点
人工智能·langchain
LYFlied1 小时前
AI大时代下前端跨端解决方案的现状与演进路径
前端·人工智能
深蓝电商API1 小时前
图片验证码识别:pytesseract+opencv入门
人工智能·opencv·计算机视觉·pytesseract
.Katherine௰1 小时前
AI数字人模拟面试机器人
人工智能