如何用 Midjourney 弥补 DALL-E 的不足

纵观各个 AI 绘图工具,DALL-E 无疑是最独特的一个。和 ChatGPT 一样,DALL-E 拥有出色的语义理解能力,用户可以根据提示词非常精确地控制画面的内容,但它生成的图片却缺乏一些艺术感。Midjourney 则相反,它像一个理解力比较弱,但艺术表达力比较强的艺术家。它生成的图像质感和艺术效果都很棒。

那么,有没有可能,让 Midjourney 能够利用 DALL-E 出色的语义理解能力或构图能力呢?或者说,用 Midjouney 提升 DALL-E 的画质。本文将会用实际案例进行探讨。

单独用DALL-E

我们都知道,DALL-E 在生成真人照片方面效果很差。不仅皮肤缺乏质感,甚至还会出现眼睛残缺的现象。比如下面这副照片:

Prompt: Photo of a young woman in her early 20s, with short, vibrant purple hair, is skateboarding in a bustling cityscape at sunset. She wears a graphic t-shirt, ripped jeans, and bright red sneakers. The motion of her skateboarding is captured in a dynamic pose as she skillfully navigates a skate park with graffiti art in the background. The setting sun casts long shadows, adding drama to the scene.

提示词: 照片中,一名 20 岁出头的年轻女子留着一头紫色的活力短发,在夕阳西下的繁华都市中玩滑板。她身穿图案 T 恤、破洞牛仔裤和鲜红色运动鞋。当她熟练地穿梭于背景为涂鸦艺术的滑板公园时,她滑板的动作被动态地捕捉下来。夕阳投下长长的阴影,为场景增添了戏剧性。

DALL-E 非常忠实地呈现了提示词所描述的画面。但仔细看来,人物的皮肤还是有些塑料感。仔细看眼睛,还是有些残缺的。

单独用Midjourney

那么这张图用 Midjourney 画出来效果会怎样呢?

首先,Midjourney 的提示词并不像 DALL-E 3 一样,可以像写 ChatGPT 提示词一样,用自然语言来写。那些无关画面内容的介词, 冠词等只是噪音,最好不要放在里面。

例如上面的提示词,在 Midjourney 里面可以这样写:

Medium: Photo. Subject: Young woman in her early 20s with short, vibrant purple hair, skateboarding in a bustling cityscape at sunset, wearing a graphic t-shirt, ripped jeans, bright red sneakers. Dynamic pose as she navigates a skate park with graffiti art. Emotion: Energetic. Lighting: Sunset casting long shadows. Scene: Skate park in a cityscape, graffiti art in background. Style: Realistic, dynamic motion capture --ar 1:1

媒介: 照片。主题: 20 岁出头的年轻女子,一头活力四射的紫色短发,身穿图案 T 恤、破洞牛仔裤和鲜红色运动鞋,在夕阳西下的繁华都市中玩滑板。她在涂鸦艺术的滑板公园中穿梭,姿势动感十足。情绪: 充满活力。光线:夕阳投下长长的阴影。场景:城市景观中的滑板公园,涂鸦艺术 城市景观中的滑板公园,背景为涂鸦艺术。风格: 逼真、动态的动作捕捉 --ar 1:1

因为画面中要阐述的内容比较多,用这种结构化的写法,我认为会让 Midjourney 更容易理解一些。为了更方便地在 ChatGPT 中生成 Midjourney 的提示词,我创建了一个 GPTs,名字叫 SuperDalle。它可以生成 4 张图像和 Midjourney 提示词,详细介绍可以看这篇文章:这个 GPTs 让 DALL-E 绘图无所不能!

下图就是用 SuperDalle 生成的图片和 Midjourney 提示词。

我觉得第一张图片比较符合提示词的描述。那么 Midjourney 怎样表现出这个画面呢?把第一张图对应的 Midjourney 提示词输入,得出下面四张图片:

人物的皮肤质感,照片整体的光感都不错。但跟提示词描述的一点也不符。图中的女孩,根本就没有玩滑板的姿势。这个跟宽高比没有关系。我把宽高比设为 9:16 是这个效果:

DALL-E结合Midjourney

这时候,DALL-E 就派上用场了。我把 DALL-E 生成的图片作为参考图,并赋予权重 2,然后提交给 Midjourney。完整的提示词和生成的图片如下:

Medium: Photo. Subject: Young woman in her early 20s with short, vibrant purple hair, skateboarding in a bustling cityscape at sunset, wearing a graphic t-shirt, ripped jeans, bright red sneakers. Dynamic pose as she navigates a skate park with graffiti art. Emotion: Energetic. Lighting: Sunset casting long shadows. Scene: Skate park in a cityscape, graffiti art in background. Style: Realistic, dynamic motion capture --ar 1:1 --s 1000 --v 5.2 --iw 2

我觉得右下角的图片姿势比较帅。于是进行了微调,得出了下面四张图片。

放大左下角的图片:

如果这张图和原先的提示词还有偏差的话,还可以使用 Midjourney 的局部重绘 (inpainting) 功能。

总结

DALL-E 有如此好的语义理解功能,是因为它基于 Transformer 模型。而 Midjourney 和 Stable Diffusion 一样,是基于 Diffusion 模型。我们看到,在一些情况下,可以综合利用两种模型的优点,创造出即可控又有艺术感的图像。

当然,不是每种情况下都可以让 Midjourney 借用 DALL-E 的优势。只要我们对这两个模型都熟悉的话,就能了解哪些情形能综合发挥两者的优势,享受这种融合的乐趣!

💡 相关文章

Midjourney vs. DALL-E 3

最后,如果对 AI 绘图感兴趣的话,欢迎加入我们的交流群。

欢迎加我微信vito_chat入群免费交流学习。

欢迎访问我的免费学习AI网站:

myaiforce.com.cn/

原文地址:

myaiforce.com.cn/overcoming-...

相关推荐
赚钱给孩子买茅台喝1 小时前
智能BI项目第四期
java·spring boot·spring cloud·aigc
乙真仙人3 小时前
AIGC时代!AI的“iPhone时刻”与投资机遇
人工智能·aigc·iphone
EdisonZhou5 小时前
大模型应用开发初探 : 通用函数调用Planner
aigc·.net·.net core
人工智能培训咨询叶梓6 小时前
生成式人工智能在无人机群中的应用、挑战和机遇
人工智能·语言模型·自然语言处理·aigc·无人机·多模态·生成式人工智能
AI极客菌21 小时前
Stable Diffusion绘画 | 生成高清多细节图片的各个要素
人工智能·ai·ai作画·stable diffusion·aigc·midjourney·人工智能作画
SHI-HANG1 天前
13 Midjourney从零到商用·实战篇:漫画设计一条龙
ai作画·aigc·midjourney
NLP工程化1 天前
Dify 中的讯飞星火平台工具源码分析
aigc·dify
Seal软件1 天前
GPUStack 0.2:开箱即用的分布式推理、CPU推理和调度策略
大模型·llm·aigc·gpu·genai·gpu集群
GPUStack1 天前
GPUStack 0.2:开箱即用的分布式推理、CPU推理和调度策略
ai·大模型·aigc·gpu·genai·gpu集群
Hoper.J1 天前
使用 HFD 加快 Hugging Face 模型和数据集的下载
llm·aigc·hugging face·hfd