midjourney简单使用体验

自从我下了controlNet近20G的模型以后,我发现我本地的sd实在跑不动了。

为了能更好的试验一下作图,我只能转战mj。

mj相对于我们来说还算挺友好的,有个梯子就行,虽然需要付费,但是。。多的我也不多说了,懂的都懂。

加入了官方的作图机器人后,主要用到了以下几个命令。

imagine

这是最常见的一个,输入promote,然后出图,提示词和模型选择随意,网上找魔法词复制就行

describe

这个单词是用来输出读取图片提示词的,mj发展到现阶段挺好用的,能给出四组不同的提示词,能出很多不一样的风格的图

垫图

垫图就是你把图片的链接放到提示词最前面,然后后面跟提示词,这种方式更容易出和你垫图风格一致的图片。类似于sd的图生图

info

查看账号里谁在出图,别问我为什么老是看这个命令

总结一下

没硬件的情况,还是mj好使,我这破电脑是玩不动了,想玩sd还是得配个高端的显卡,简单一点,就是没钱就别玩sd,老老实实用服务吧。

相关推荐
leafff1232 天前
Stable Diffusion在进行AI 创作时对算力的要求
人工智能·stable diffusion
leafff1232 天前
Stable Diffusion进行AIGC创作时的算力优化方案
人工智能·stable diffusion·aigc
ding_zhikai3 天前
stable-diffusion试验2-像素人物帧动画2(含 AnimeEffects 简易教程 等)
stable diffusion
ding_zhikai3 天前
SD:在一个 Ubuntu 系统安装 stable diffusion ComfyUI
linux·ubuntu·stable diffusion
ding_zhikai4 天前
stable-diffusion试验2-像素人物帧动画1
stable diffusion
wg26274 天前
Stable Diffusion 安装教程(详细)_stable diffusion安装
stable diffusion
weiwei228444 天前
ControlNet——AI图像生成的“精准操控工具”
stable diffusion·controlnet
RanceGru6 天前
LLM学习笔记5——本地部署ComfyUI和Wan2.1-T2V-1.3B文生视频模型
笔记·学习·stable diffusion·transformer
ding_zhikai7 天前
stable-diffusion试验1-静态人物
stable diffusion
love530love9 天前
【笔记】 Podman Desktop 中部署 Stable Diffusion WebUI (GPU 支持)
人工智能·windows·笔记·python·容器·stable diffusion·podman