把目标检测变成"下一个点预测",用2200万数据+强化学习解决行业难题
目标检测技术正在迎来一场范式革命!传统方法如YOLO、DETR依赖复杂的坐标回归,而IDEA(粤港澳大湾区数字经济研究院)研究院的最新研究Rex-Omni通过巧妙的任务重构,将目标检测转化为更符合大语言模型思维的"下一个点预测"任务,在零样本设置下实现了对传统强手的超越。
论文标题:
Detect Anything via Next Point Prediction
论文 链接 :
代码仓库 :
突破传统:从坐标回归到点预测
Rex-Omni的核心创新在于彻底改变了目标检测的问题定义。研究团队将图像坐标空间量化为1000个离散值,每个值对应一个专用token。这样,一个边界框只需4个token(x0, y0, x1, y1)即可表示,完美适配语言模型的生成范式。

这种设计带来双重优势:
- 降低学习难度: 连续的坐标回归简化为有限集合的分类问题
- 提升推理效率: 相比将坐标拆解为单个数字的方法,token使用效率大幅提升

三大支柱:架构创新的坚实基础
Rex-Omni的成功建立在三大核心设计之上:
任务范式创新: 基于Qwen2.5-VL-3B架构,复用词汇表最后1000个token作为坐标专用token,无需大幅改动模型结构。

数据引擎支撑:团队构建自动化数据流水线,整合公共数据集与自产数据,最终形成2200万样本的训练集,覆盖定位、指代、指向等多种任务。

训练流程优化: 采用两阶段训练策略------先通过监督微调打下基础,再引入GRPO强化学习方法,通过几何感知奖励函数精细调整模型行为。

性能表现:零样本检测的新标杆
在权威基准测试中,Rex-Omni展现惊人实力:
COCO数据集: 零样本设置下,IoU阈值为0.5时,性能不仅超越之前最强MLLM SEED1.5-VL,甚至超过了为COCO专门训练的传统检测器DINO-R50。

LVIS长尾检测: 在更具挑战性的长尾任务中,mIoU指标达到46.9,证明其优秀泛化能力。


密集小目标检测: 在Dense200数据集上取得78.4的F1@0.5分数,有效解决了MLLM在密集小目标上的传统弱点。


多任务能力:超越传统检测的边界
得益于语言模型的底层架构,Rex-Omni展现出全面的视觉感知能力:
- 指代性物体检测
- 视觉提示理解
- GUI界面定位
- OCR文字识别
- 关键点检测
这种统一的方法为开发通用视觉感知系统开辟了新路径。



技术启示与未来展望
Rex-Omni的突破表明,通过巧妙的任务重构,MLLM不仅能够"理解"图像内容,更能"精准定位"视觉元素。这种将目标检测统一到生成框架下的思路,为多模态大模型在视觉任务中的应用提供了全新范式。
该研究已全面开源,包括论文、代码和演示,为社区进一步探索提供了坚实基础。