Nano Banana为什么能秒杀GPT-4o成为新晋AI图像王者?创始人下场解答

这几天饼干哥哥的公众号、小红书、X都被Nano Banana刷屏了。

上一个这么出圈的,还是ChatGPT 4o,那时满屏都是宫崎骏的吉卜力风格动漫图,而且它生图的能力已经很强了。

但Nano Banana更胜一筹,它亮点集中在人物一致性多图融合自然语言精准局部编辑

突然发现,AI圈就是一个大循环。

GPT-4o发布才过去半年,Nano Banana这种「下一代」的生图模型就出来了。

这难道是AI界的摩尔定律?不敢想再过半年后,会是什么样的「魔鬼级」生图模型来屠Nano Banana

想到这,我就好奇它到底强在哪?凭啥一夜之间,就以燎原之势席卷全球了。

为了搞明白,我特意去看了一遍🍌创作团队的访谈,还把官方博客、X 上各种实测、Reddit的争议贴全扒了一遍。

看完后,只能说:GPT-4o只能认输,确实没法打。

Google AI Studio的产品负责人Logan Kilpatrick,与Gemini图像模型的核心成员Kaushik、Robert、Nicole和Mostafa进行了一场深度对谈。

地址:www.youtube.com/watch?v=H6Z...

从"抽卡"到"持续性对话"

"传统"的生图模型,如Midjourney,需要结构化、巨长的prompt

而GPT-4o依赖背后ChatGPT超强理解能力,解决了这个问题,只需要简单描述尽管实现复杂画图需求,但需要多次抽卡的问题依然没解决。

而Nano Banana从一开始,就想彻底颠覆这个模式。

Gemini图像产品负责人Nicole Brichtova在访谈中开宗明义:"我们正在为Gemini发布一次巨大的质量飞跃......我们追求的是一种能与模型来回对话的体验。"

意思是:你可以用连续指令,围绕同一张图不断细调,而不是每次都从头再来。

这个效果来源自Nano Banana的架构创新。

GPT-4o的图像生成,本质上是一个"胶水模型":由GPT-4o先需求翻译成一段prompt,再交给DALL-E 3这个专业的扩散模型(Diffusion Model)去作画。这是一个串联的、两步走的工作流。 而Nano Banana是真正的原生多模态架构,把原生图像生成与编辑塞进了 Gemini 2.5 Flash 的同一套多模态上下文里。

这意味着统一的Token空间,文本和图像都视为一种可以在同一个Transformer架构内流转的通用数据(Token);

更进一步,模型可以处理一个由[文本, 图像, 文本, 图像...]组成的、交错的上下文序列,并基于这个完整的上下文生成新图像。

用大白话讲:

就是在同一轮对话里,模型既能理解文本、看懂图,又能连续生成和编辑,而且所有动作都在统一的上下文 里发生------这就是他们口中的 ****Interleaved Generation (交错生成)

有了它,模型在多轮里会"记得你刚才干了什么",在这个基础上再做"先换衣服、再改姿势、最后挪到新场景"这种链式操作,稳定多了。

例如,把下图左边人物,改成打坐姿态。

模型在生成过程中拥有上下文信息,它知道前面已经生成了什么内容。 生成第二张图时,它"看"到了第一张;生成第三张时,它"记得"前两张。

这使得 "像素级的精确编辑" 成为可能,你可以像操作数据库一样,对画面进行增、删、改,而不用担心全盘重来。

其实,GPT-4o 在复杂指令跟随文本渲染对话内多轮创作 上更强,创意改写更"敢",但一到连续改图,它更容易在人物形象上"走样"。

看到这里,你就理解它物资们e跟Nano Banana完全没法比了。

图像生成模型的评价其实不在于「美不美」

一个模型如何才能变得更好?在追求"美感"这种主观判断之外,Gemini团队找到了一个意想不到的突破口。

Kaushik长期以来"痴迷"于一个看似边缘的问题:让AI准确地在图像中渲染文字。

"当模型学会处理文字这种结构时,它实际上也在学习如何处理图像中的其他结构。文字渲染因此成为了一个完美的'代理指标'(Proxy metric) ------一个能够反映模型整体性能的关键指标。"

这个洞察极其深刻。

文字是一种高度结构化的视觉信息,要求模型在像素层面有极其精准的控制力。一个模型如果能写好字,说明它对图像的结构、空间、高频细节的理解达到了新的高度。

更重要的是,这个指标是客观****的。文字要么对,要么错。

这给了团队一个清晰的优化方向,避免了在"美不美"的主观感受中迷航。

事实证明,随着模型在文字渲染上的进步,其整体图像质量、对细节的把控力也在稳步提升。

"快"比"完美"更重要

大家在用Nano Banana的时候,有没感受到它比GPT-4o要更快?

这不止是服务器资源的问题,更多是模型的「反直觉」设定:在追求极致效果的同时,还要快速生图。

Robert强调:"模型的速度真的很快......即使它一开始没做好,你只需要稍微改一下提示词,再运行一次,很快就能得到一个更满意的结果。这种'快速迭代式创作'的过程,其实才是它真正的魔力所在。 "

说它反直觉,是因为,传统模型会为了追求"一次成功"而花大量时间编写完美的提示词,然后漫长等待一个结果。

但Nano Banana的设计哲学在于 "快速试错":快速尝试,快速失败,快速调整。

因为创作本就是探索,而不是机械执行。

这个理念就是"交错式生成"------有点像是语言模型中的"思维链"(Chain of Thought)------ 把一个包含50个细节的复杂需求,分解成10个步骤,通过与模型的"对话"逐步完成,让模型有"时间"和"空间"去完成远超其单次处理能力的复杂任务。

超强多图融合

有网友上传13张图,Nano Banana都能完美把它们融合到一张图里。

vbnet 复制代码
A model is posing and leaning against a pink bmw. She is wearing the following items, the scene is against a light grey background. The green alien is a keychain and it's attached to the pink handbag. The model also has a pink parrot on her shoulder. There is a pug sitting next to her wearing a pink collar and gold headphones.A model is posing and leaning against a pink bmw. She is wearing the following items, the scene is against a light grey background. The green alien is a keychain and it's attached to the pink handbag. The model also has a pink parrot on her shoulder. There is a pug sitting next to her wearing a pink collar and gold headphones.

这个能力,表面上看是"能吃多张参考图",本质上是在同一上下文里建立了多张图的统一语义表示:每张参考图的身份、材质、光影、朝向,都会变成可被引用的约束,模型在顺序生成时不断回看、对齐、再落到像素。

因为不是"先拼后修"的两段式,而是生成期就做跨图约束,所以不容易出现"贴纸感"和边缘穿帮。

内置「世界模型」

过去很多图像模型都停在"会画美图",但一旦你让它"做一个 80 年代美国购物中心风格的写真,还给每张起个符合时代美学的标题",大多会掉线。

Nano Banana 把谷歌的「世界模型」拉进来了:你要求的年代、风格、品牌语汇、生活常识,模型不只是知道"名词",而是能把这些常识带进画面决策,包括服饰结构、材质选择、拍摄语法、空间布光等。

例如下图的案例,可以上传一张图后,就让Nano Banana做建筑的标注。

arduino 复制代码
you are a location-based AR experience generator. highlight [point of interest] in this image and annotate relevant information about it.

团队在访谈里讲了一个我很认同的观点:语言只会描述"有意思"的东西,很多日常常识并不被语言充分表达;而图像既是输入信号,也是"把常识具象化"的训练材料。

把这两端打通,模型的"世界感"才会长出来。

落回到使用层面,就是你让它按一个品牌调性"做一版户外广告 mockup",它不仅能学会那种风格,还会把风格和你给的实拍场景合理地对齐

与ChatGPT-4o的对比

现在,回过头来,重新看,就能理解为什么Nano Banana能超越GPT-4o,再次掀起热潮了。

特性 ChatGPT-4o (DALL-E 3) 生图逻辑 Nano Banana (Gemini 2.5) 生图逻辑
工作流程 "翻译"+"生成" 的两步流程。GPT-4o将用户的简单提示词丰富成详细描述,然后一次性生成图像。后续修改往往是重新生成。 "理解"+"迭代" 的多轮流程。它将图像生成视为一场对话,用户可以通过连续的指令对现有图像进行逐步修改和完善。
关键技术 强大的大型语言模型 (GPT-4o) 用于提示词重写和丰富化,结合扩散模型进行图像生成。 独特的交错生成 (Interleaved Generation) 技术,能够无缝地处理文本和图像指令,实现对图像的连续编辑。
核心优势 - 强大的语义理解和创意: 得益于GPT-4o,能深刻理解复杂的、充满想象力的指令。 - 对用户友好: 无需复杂的提示词技巧。 - 无与伦比的角色一致性: 在多次编辑、不同场景下保持人物或物体的核心特征不变。 - 像素级的精确控制: 更适合进行精细的、有明确目的的图像编辑。
应用场景 更适合从无到有的创意构思、艺术创作、插画生成等需要"一锤子买卖"的场景。 更适合基于现有图像的编辑、商业应用(如电商模特换装、产品图修改)、虚拟形象创作、故事板制作等需要连续性和一致性的场景。

以上,既然看到这里了,如果觉得不错,随手点个赞、评论、收藏三连吧,你的支持是我持续创作的动力。我们下期见。

本文由稀土掘金作者【饼干哥哥】,微信公众号:【饼干哥哥AGI】,原创/授权 发布于稀土掘金,未经许可,禁止转载。

相关推荐
yzx9910135 小时前
从零开始:用代码解析区块链的核心工作原理
运维·开发语言·人工智能·区块链·ai编程
爱看科技5 小时前
量子计算+AI成竞争关键领域,谷歌/微软/微美全息追赶布局步入冲刺拐点!
人工智能·microsoft·量子计算
lypzcgf6 小时前
Coze源码分析-API授权-获取令牌列表-后端源码
数据库·人工智能·后端·系统架构·go·开源软件·安全架构
l12345sy6 小时前
Day19_【机器学习—线性回归 (3)—回归模型评估方法】
人工智能·机器学习·线性回归
whaosoft-1436 小时前
51c视觉~3D~合集5
人工智能
thesky1234566 小时前
《Visual Abstraction: A Plug-and-Play Approach for Text-Visual Retrieval》
人工智能·算法·目标跟踪
中科岩创6 小时前
广东某地非金属矿山自动化监测服务项目
人工智能·物联网·自动化
bin91536 小时前
AI数据饕餮与创意饥荒:初级开发者的生存手册——老程序员的搞笑指南
人工智能·ai工具
蒋星熠7 小时前
Vue 3 + TypeScript 现代前端开发最佳实践(2025版指南)
前端·vue.js·人工智能·pytorch·深度学习·ai·typescript