midjourney简单使用体验

自从我下了controlNet近20G的模型以后,我发现我本地的sd实在跑不动了。

为了能更好的试验一下作图,我只能转战mj。

mj相对于我们来说还算挺友好的,有个梯子就行,虽然需要付费,但是。。多的我也不多说了,懂的都懂。

加入了官方的作图机器人后,主要用到了以下几个命令。

imagine

这是最常见的一个,输入promote,然后出图,提示词和模型选择随意,网上找魔法词复制就行

describe

这个单词是用来输出读取图片提示词的,mj发展到现阶段挺好用的,能给出四组不同的提示词,能出很多不一样的风格的图

垫图

垫图就是你把图片的链接放到提示词最前面,然后后面跟提示词,这种方式更容易出和你垫图风格一致的图片。类似于sd的图生图

info

查看账号里谁在出图,别问我为什么老是看这个命令

总结一下

没硬件的情况,还是mj好使,我这破电脑是玩不动了,想玩sd还是得配个高端的显卡,简单一点,就是没钱就别玩sd,老老实实用服务吧。

相关推荐
长不大的蜡笔小新2 天前
基于Stable Diffusion的多模态图像生成与识别系统
stable diffusion
米汤爱学习2 天前
stable-diffusion-webui【笔记】
笔记·stable diffusion
fantasy_arch2 天前
Transformer vs Stable Diffusion vs LLM模型对比
深度学习·stable diffusion·transformer
盼小辉丶2 天前
PyTorch实战——基于文本引导的图像生成技术与Stable Diffusion实践
pytorch·深度学习·stable diffusion·生成模型
Blossom.1182 天前
工业级扩散模型优化实战:从Stable Diffusion到LCM的毫秒级生成
开发语言·人工智能·python·深度学习·机器学习·stable diffusion·transformer
盼小辉丶3 天前
PyTorch实战(21)——扩散模型(Diffusion Model)
pytorch·深度学习·stable diffusion·生成模型
Tiger Shi4 天前
使用Qt调用stable-diffusion.cpp做一个客户端
人工智能·stable diffusion
byte轻骑兵4 天前
共绩算力 RTX 5090 极速部署 Stable Diffusion WebUI:新手也能秒开 AI 绘图工作站
人工智能·stable diffusion
伟大的大威5 天前
在 NVIDIA DGX Spark部署 Stable Diffusion 3.5 并使用ComfyUI
stable diffusion·spark·comfyui
迈火8 天前
APISR IN COMFYUI:提升ComfyUI图像超分辨率的强力插件
图像处理·人工智能·计算机视觉·stable diffusion·aigc·音视频·midjourney