在数字图像创作与编辑领域,我们长期面临着一个痛点:不同的编辑任务需要不同的工具。想要移除背景用A模型,更换风格用B模型,修复瑕疵用C模型......这种"碎片化"的工作流不仅效率低下,还难以保证输出质量的一致性。
京东探索研究院推出的JoyAI-Image,是业内首个以空间智能为核心的统一多模态基础模型,一体化支持图像理解、文生图、指令编辑三大能力。模型基于8B MLLM+16B MMDiT架构,通过理解 - 生成 - 编辑闭环协同,在空间推理、长文本渲染、多视角生成、可控空间编辑上达到 SOTA,多项指标追平 Gemini 2.5 Pro,现已全面开源。

效果展示



核心亮点速览:
-
空间智能觉醒:支持物体移动、旋转、相机视角控制三类精细空间操作,保持几何一致性和遮挡关系
-
统一架构:理解、生成、编辑形成闭环,空间意图从指令解析贯穿到图像生成
-
顶尖性能:在公开Benchmark中,空间理解和编辑能力超过现有开源模型,比肩顶尖闭源模型
-
全面开源:模型权重、推理代码、SpatialEdit数据集均已发布,支持ComfyUI和Diffusers
相关链接
论文介绍

方法概述

统一架构设计
-
MLLM(8B):负责图像与文本的语义理解,输出场景解析结果(如物体关系、空间布局);
-
MMDiT(16B):基于理解结果生成或编辑图像,支持长文本排版、多视图生成、可控编辑;
-
闭环协作:生成结果反馈至MLLM进行空间推理验证,形成"理解→生成→验证→优化"的双向增强。

关键技术创新
-
空间理解数据(OpenSpatial):标注物体几何关系、视角信息,强化模型的空间感知能力;
-
长文本渲染优化:通过多阶段训练(如先生成文本掩码再填充细节),解决密集文本布局的失真问题;
-
指令分解编辑:将复杂编辑指令拆解为对象移动、旋转、相机控制等子任务,提升编辑精准度。
训练策略
-
预训练:在大规模图文数据上学习基础多模态表示;
-
空间理解微调:在OpenSpatial数据上强化场景解析能力;
-
编辑能力微调:在SpatialEdit数据上学习指令-编辑的映射关系。

训练数据分布

实验
定性效果


-
空间编辑:精准执行"将沙发从客厅左侧移动到右侧"等复杂指令,保持场景结构完整;
-
长文本排版:生成多栏漫画、密集技术文档等场景,文本清晰可读;
-
多视图生成:支持同一物体的360°旋转渲染,视角过渡自然。
定量对比






-
空间推理任务:在RefCoco/RefCoco+数据集上,JoyAI-Image的定位准确率超越Qwen-Image-Edit与Nano Banana Pro;
-
长文本生成:在DenseText数据集上,FID分数降低32%,布局一致性显著提升;
-
多视图生成:在MultiView数据集上,视角变换误差率下降41%。
结论
JoyAI-Image 首次实现图像理解、文生图、指令编辑三位一体统一建模,并以空间智能为核心突破,形成理解 - 生成 - 编辑闭环增强。
-
技术上:给出统一多模态模型可复现训练方案,OpenSpatial 数据与多阶段优化可直接复用;
-
能力上:空间理解、长文本、多视角、可控编辑全面 SOTA;
-
应用上:支撑视觉 - 语言 - 动作系统、3D 重建、具身智能、世界模型等下一代 AI 场景。
该模型已开源,支持 ComfyUI、Diffusers,可快速落地电商创意、设计、智能图像处理、机器人感知等场景。