IDEA研究院发布Rex-Omni:3B参数MLLM重塑目标检测,零样本性能超越DINO

把目标检测变成"下一个点预测",用2200万数据+强化学习解决行业难题

目标检测技术正在迎来一场范式革命!传统方法如YOLO、DETR依赖复杂的坐标回归,而IDEA(粤港澳大湾区数字经济研究院)研究院的最新研究Rex-Omni通过巧妙的任务重构,将目标检测转化为更符合大语言模型思维的"下一个点预测"任务,在零样本设置下实现了对传统强手的超越。

论文标题:

Detect Anything via Next Point Prediction

论文 链接

https://arxiv.org/abs/2510.12798

代码仓库

https://github.com/idea-research/rex-omni


一、突破传统:从坐标回归到点预测

Rex-Omni的核心创新在于彻底改变了目标检测的问题定义。研究团队将图像坐标空间量化为1000个离散值,每个值对应一个专用token。这样,一个边界框只需4个token(x0, y0, x1, y1)即可表示,完美适配语言模型的生成范式。

这种设计带来双重优势:

  • **降低学习难度:**连续的坐标回归简化为有限集合的分类问题

  • **提升推理效率:**相比将坐标拆解为单个数字的方法,token使用效率大幅提升


二、三大支柱:架构创新的坚实基础

Rex-Omni的成功建立在三大核心设计之上:

**任务范式创新:**基于Qwen2.5-VL-3B架构,复用词汇表最后1000个token作为坐标专用token,无需大幅改动模型结构。

**数据引擎支撑:**团队构建自动化数据流水线,整合公共数据集与自产数据,最终形成2200万样本的训练集,覆盖定位、指代、指向等多种任务。

**训练流程优化:**采用两阶段训练策略------先通过监督微调打下基础,再引入GRPO强化学习方法,通过几何感知奖励函数精细调整模型行为。


三、性能表现:零样本检测的新标杆

在权威基准测试中,Rex-Omni展现惊人实力:

**COCO数据集:**零样本设置下,IoU阈值为0.5时,性能不仅超越之前最强MLLM SEED1.5-VL,甚至超过了为COCO专门训练的传统检测器DINO-R50。

**LVIS长尾检测:**在更具挑战性的长尾任务中,mIoU指标达到46.9,证明其优秀泛化能力。

**密集小目标检测:**在Dense200数据集上取得78.4的F1@0.5分数,有效解决了MLLM在密集小目标上的传统弱点。


四、多任务能力:超越传统检测的边界

得益于语言模型的底层架构,Rex-Omni展现出全面的视觉感知能力:

  • 指代性物体检测

  • 视觉提示理解

  • GUI界面定位

  • OCR文字识别

  • 关键点检测

这种统一的方法为开发通用视觉感知系统开辟了新路径。


五、技术启示与未来展望

Rex-Omni的突破表明,通过巧妙的任务重构,MLLM不仅能够"理解"图像内容,更能"精准定位"视觉元素。这种将目标检测统一到生成框架下的思路,为多模态大模型在视觉任务中的应用提供了全新范式。

该研究已全面开源,包括论文、代码和演示,为社区进一步探索提供了坚实基础

相关推荐
文火冰糖的硅基工坊5 小时前
[人工智能-大模型-19]:GitHub Copilot:程序员的 AI 编程副驾驶
人工智能·github·copilot
shuououo7 小时前
YOLOv4 核心内容笔记
人工智能·计算机视觉·目标跟踪
DO_Community10 小时前
普通服务器都能跑:深入了解 Qwen3-Next-80B-A3B-Instruct
人工智能·开源·llm·大语言模型·qwen
WWZZ202510 小时前
快速上手大模型:机器学习3(多元线性回归及梯度、向量化、正规方程)
人工智能·算法·机器学习·机器人·slam·具身感知
deephub11 小时前
深入BERT内核:用数学解密掩码语言模型的工作原理
人工智能·深度学习·语言模型·bert·transformer
PKNLP11 小时前
BERT系列模型
人工智能·深度学习·bert
兰亭妙微11 小时前
ui设计公司审美积累 | 金融人工智能与用户体验 用户界面仪表盘设计
人工智能·金融·ux
AKAMAI12 小时前
安全风暴的绝地反击 :从告警地狱到智能防护
运维·人工智能·云计算
岁月宁静12 小时前
深度定制:在 Vue 3.5 应用中集成流式 AI 写作助手的实践
前端·vue.js·人工智能