如何用 Midjourney 弥补 DALL-E 的不足

纵观各个 AI 绘图工具,DALL-E 无疑是最独特的一个。和 ChatGPT 一样,DALL-E 拥有出色的语义理解能力,用户可以根据提示词非常精确地控制画面的内容,但它生成的图片却缺乏一些艺术感。Midjourney 则相反,它像一个理解力比较弱,但艺术表达力比较强的艺术家。它生成的图像质感和艺术效果都很棒。

那么,有没有可能,让 Midjourney 能够利用 DALL-E 出色的语义理解能力或构图能力呢?或者说,用 Midjouney 提升 DALL-E 的画质。本文将会用实际案例进行探讨。

单独用DALL-E

我们都知道,DALL-E 在生成真人照片方面效果很差。不仅皮肤缺乏质感,甚至还会出现眼睛残缺的现象。比如下面这副照片:

Prompt: Photo of a young woman in her early 20s, with short, vibrant purple hair, is skateboarding in a bustling cityscape at sunset. She wears a graphic t-shirt, ripped jeans, and bright red sneakers. The motion of her skateboarding is captured in a dynamic pose as she skillfully navigates a skate park with graffiti art in the background. The setting sun casts long shadows, adding drama to the scene.

提示词: 照片中,一名 20 岁出头的年轻女子留着一头紫色的活力短发,在夕阳西下的繁华都市中玩滑板。她身穿图案 T 恤、破洞牛仔裤和鲜红色运动鞋。当她熟练地穿梭于背景为涂鸦艺术的滑板公园时,她滑板的动作被动态地捕捉下来。夕阳投下长长的阴影,为场景增添了戏剧性。

DALL-E 非常忠实地呈现了提示词所描述的画面。但仔细看来,人物的皮肤还是有些塑料感。仔细看眼睛,还是有些残缺的。

单独用Midjourney

那么这张图用 Midjourney 画出来效果会怎样呢?

首先,Midjourney 的提示词并不像 DALL-E 3 一样,可以像写 ChatGPT 提示词一样,用自然语言来写。那些无关画面内容的介词, 冠词等只是噪音,最好不要放在里面。

例如上面的提示词,在 Midjourney 里面可以这样写:

Medium: Photo. Subject: Young woman in her early 20s with short, vibrant purple hair, skateboarding in a bustling cityscape at sunset, wearing a graphic t-shirt, ripped jeans, bright red sneakers. Dynamic pose as she navigates a skate park with graffiti art. Emotion: Energetic. Lighting: Sunset casting long shadows. Scene: Skate park in a cityscape, graffiti art in background. Style: Realistic, dynamic motion capture --ar 1:1

媒介: 照片。主题: 20 岁出头的年轻女子,一头活力四射的紫色短发,身穿图案 T 恤、破洞牛仔裤和鲜红色运动鞋,在夕阳西下的繁华都市中玩滑板。她在涂鸦艺术的滑板公园中穿梭,姿势动感十足。情绪: 充满活力。光线:夕阳投下长长的阴影。场景:城市景观中的滑板公园,涂鸦艺术 城市景观中的滑板公园,背景为涂鸦艺术。风格: 逼真、动态的动作捕捉 --ar 1:1

因为画面中要阐述的内容比较多,用这种结构化的写法,我认为会让 Midjourney 更容易理解一些。为了更方便地在 ChatGPT 中生成 Midjourney 的提示词,我创建了一个 GPTs,名字叫 SuperDalle。它可以生成 4 张图像和 Midjourney 提示词,详细介绍可以看这篇文章:这个 GPTs 让 DALL-E 绘图无所不能!

下图就是用 SuperDalle 生成的图片和 Midjourney 提示词。

我觉得第一张图片比较符合提示词的描述。那么 Midjourney 怎样表现出这个画面呢?把第一张图对应的 Midjourney 提示词输入,得出下面四张图片:

人物的皮肤质感,照片整体的光感都不错。但跟提示词描述的一点也不符。图中的女孩,根本就没有玩滑板的姿势。这个跟宽高比没有关系。我把宽高比设为 9:16 是这个效果:

DALL-E结合Midjourney

这时候,DALL-E 就派上用场了。我把 DALL-E 生成的图片作为参考图,并赋予权重 2,然后提交给 Midjourney。完整的提示词和生成的图片如下:

Medium: Photo. Subject: Young woman in her early 20s with short, vibrant purple hair, skateboarding in a bustling cityscape at sunset, wearing a graphic t-shirt, ripped jeans, bright red sneakers. Dynamic pose as she navigates a skate park with graffiti art. Emotion: Energetic. Lighting: Sunset casting long shadows. Scene: Skate park in a cityscape, graffiti art in background. Style: Realistic, dynamic motion capture --ar 1:1 --s 1000 --v 5.2 --iw 2

我觉得右下角的图片姿势比较帅。于是进行了微调,得出了下面四张图片。

放大左下角的图片:

如果这张图和原先的提示词还有偏差的话,还可以使用 Midjourney 的局部重绘 (inpainting) 功能。

总结

DALL-E 有如此好的语义理解功能,是因为它基于 Transformer 模型。而 Midjourney 和 Stable Diffusion 一样,是基于 Diffusion 模型。我们看到,在一些情况下,可以综合利用两种模型的优点,创造出即可控又有艺术感的图像。

当然,不是每种情况下都可以让 Midjourney 借用 DALL-E 的优势。只要我们对这两个模型都熟悉的话,就能了解哪些情形能综合发挥两者的优势,享受这种融合的乐趣!

💡 相关文章

Midjourney vs. DALL-E 3

最后,如果对 AI 绘图感兴趣的话,欢迎加入我们的交流群。

欢迎加我微信vito_chat入群免费交流学习。

欢迎访问我的免费学习AI网站:

myaiforce.com.cn/

原文地址:

myaiforce.com.cn/overcoming-...

相关推荐
吕小明么14 小时前
OpenAI o3 “震撼” 发布后回归技术本身的审视与进一步思考
人工智能·深度学习·算法·aigc·agi
聆思科技AI芯片1 天前
实操给桌面机器人加上超拟人音色
人工智能·机器人·大模型·aigc·多模态·智能音箱·语音交互
minos.cpp1 天前
Mac上Stable Diffusion的环境搭建(还算比较简单)
macos·ai作画·stable diffusion·aigc
AI小欧同学1 天前
【AIGC-ChatGPT进阶副业提示词】育儿锦囊:化解日常育儿难题的实用指南
chatgpt·aigc
剑盾云安全专家1 天前
AI加持,如何让PPT像开挂一键生成?
人工智能·aigc·powerpoint·软件
合合技术团队2 天前
高效准确的PDF解析工具,赋能企业非结构化数据治理
人工智能·科技·pdf·aigc·文档
程序员小灰2 天前
OpenAI正式发布o3:通往AGI的路上,已经没有了任何阻碍
人工智能·aigc·openai
程序边界2 天前
AIGC时代:如何打造卓越的技术文档?
aigc
爱研究的小牛2 天前
DeepFaceLab技术浅析(六):后处理过程
人工智能·深度学习·机器学习·aigc
aiblog2 天前
AIGC:图像风格迁移技术实现猜想
人工智能·aigc