Google推出用于理解用户界面和信息图的AI模型ScreenAI

Google Research最近开发了多模态AI模型ScreenAI,专注于理解信息图和用户界面。该模型基于PaLI架构,已在多个任务中达到了行业领先水平。

ScreenAI通过分析网络爬虫生成的截图和自动与应用程序的交互学习。研究团队采用多种现成AI模型生成合成训练数据,如利用OCR技术标注截图并通过大语言模型(LLM)构造用户可能提出的问题。经过初步训练和后续精调,这一模型拥有五十亿参数,能够解答有关用户界面和信息图的问题、进行内容总结或导航操作。在WebSRC和MoTIF的基准测试中,ScreenAI刷新了性能记录,在Chart QA、DocVQA和InfographicVQA的基准测试上也超过了其他同等规模的模型。Google为了推动此类模型的研究和评估,发布了三个新的屏幕问题回答(QA)评估数据集。Google表示:

我们的模型虽然业界领先,但我们认为,在某些任务上仍需进一步研究,以弥补与GPT-4及Gemini等大型模型的性能差距。为了激发更多的研究活动,我们发布了一个包含统一表示的数据集以及两个其他基准数据集,以便更全面地评估屏幕相关任务的模型性能。

ScreenAI采用了Pathways Language and Image模型(PaLI)架构,该架构融合了视觉Transformer与编解码器大语言模型(如T5)。Google团队对此基础架构进行了关键改进,考虑到用户界面和信息图通常具有多样的分辨率和纵横比,他们调整了视觉Transformer的图像分块步骤,采用了来自Pix2Struct模型的分块策略,以适应不同形状的输入图像。

在预训练数据生成过程中,团队首先建立了一个自动化的标注流程,这个系统能够识别并分类屏幕截图中的UI元素和信息图元素,如图像、图标、文本和按钮,并生成一个包含这些元素位置的_screen schema_注释。

随后,这些screen schema数据被用来生成合成训练数据。研究团队向大语言模型提供了schema信息,并指示其这些schema代表屏幕截图,然后请求模型基于这些截图生成用户可能提问的问题。此外,研究人员还让模型对截图进行了总结。最终,这一数据集包含了约4亿个样本。

为评估这一模型,研究人员在多个公开的数据集上进行了微调,以用于导航、总结和问题回答。模型的性能不仅在两个基准测试中设立了新的行业标准,在三个测试中超越了其他最多只有5亿参数的模型,并在其他两个测试中也表现出竞争力。

X平台上的用户对ScreenAI的表现和潜力进行了热烈讨论。有用户提出疑问,Google是否会利用这一模型优化搜索结果的排名。还有评论指出:

竞争日益激烈。GPT-4 Vision已遇到Qwen-VL-Max的强劲挑战,现在Google的ScreenAI似乎也要加入这场竞争。Google的介入无疑增加了市场的期待。

虽然Google还没有公开模型的代码或参数权重,但他们已经在GitHub上开源了他们的评估数据集ScreenQA和Screen Annotation,以供研究社区使用。

原文链接:www.infoq.com/news/2024/0...

相关推荐
聚客AI21 分钟前
🌈提示工程已过时?上下文工程从理论到实践的完整路线图
人工智能·llm·agent
C嘎嘎嵌入式开发27 分钟前
(二) 机器学习之卷积神经网络
人工智能·机器学习·cnn
文心快码BaiduComate35 分钟前
开工不累,双强护航:文心快码接入 DeepSeek-V3.2-Exp和 GLM-4.6,助你节后高效Coding
前端·人工智能·后端
AI小云40 分钟前
【Python与AI基础】Python编程基础:函数与参数
人工智能·python
white-persist1 小时前
MCP协议深度解析:AI时代的通用连接器
网络·人工智能·windows·爬虫·python·自动化
新智元1 小时前
谷歌杀入诺奖神殿,两年三冠五得主!世界TOP3重现贝尔实验室神话
人工智能·openai
StarPrayers.1 小时前
卷积层(Convolutional Layer)学习笔记
人工智能·笔记·深度学习·学习·机器学习
skywalk81631 小时前
AutoCoder Nano 是一款轻量级的编码助手, 利用大型语言模型(LLMs)帮助开发者编写, 理解和修改代码。
人工智能
金井PRATHAMA1 小时前
描述逻辑对人工智能自然语言处理中深层语义分析的影响与启示
人工智能·自然语言处理·知识图谱