在数字创意领域,图像编辑的效率与精准性一直是设计者和开发者追求的目标。Black Forest Labs 推出的 FLUX.1 Kontext Dev ,以其突破性的多模态图像编辑能力,颠覆了传统工作流,基本能够淘汰 80% 的传统图像处理流程。这款拥有 120 亿参数 的开源扩散变压器模型,不仅支持文本与图像的联合输入,还能智能理解图像上下文,实现前所未有的精确编辑和角色一致性。本文将带你深入了解 FLUX.1 Kontext Dev 的核心功能、独特优势以及多样化应用场景。
FLUX.1 Kontext Dev 是什么?
FLUX.1 Kontext Dev 是 Black Forest Labs 专为开发者、研究人员和高级用户打造的开源图像编辑模型。与传统的文本到图像(T2I)模型不同,Kontext 能够同时处理文本和图像输入,通过深度上下文理解,实现精准的图像编辑。它不仅保留了 FLUX.1 Kontext 套件的全部核心能力,还提供了在本地机器运行的灵活性,免去了对云端 API 的依赖,为实验和定制化开发提供了无限可能。
核心特性
FLUX.1 Kontext Dev 的核心在于其多模态处理能力和对图像细节的精准把控。以下是其主要特点:
- 角色一致性:在多场景、多环境编辑中,保持图像中人物或物体的独特特征,例如面部细节、服饰风格等,确保多次编辑后仍高度一致。
- 局部编辑:针对图像中的特定区域或对象进行精确修改,而不影响整体构图或其他部分。
- 风格参考与转换:根据文本提示,生成新颖场景,同时保留参考图像的独特风格,或实现风格迁移。
- 图像文字编辑:直接修改图像中的文本内容,轻松实现海报、广告等内容的快速更新。
- 构图控制:精准调整画面构图、相机角度和角色姿态,满足多样化的创意需求。
- 快速推理:高效的生成与编辑速度,极大缩短创作周期。
- 本地运行:完全在本地机器上运行,赋予开发者更高的灵活性和数据隐私保障。
FLUX.1 Kontext Dev 在保持高保真度和速度的同时,提供了更强的实验自由度,适合需要深度定制的场景。
为什么选择 FLUX.1 Kontext Dev?
FLUX.1 Kontext Dev 的独特优势在于其对上下文的智能理解和多模态输入的支持。传统图像编辑工具往往需要繁琐的手动操作或多款软件配合,而 Kontext 通过深度学习技术,将复杂的编辑任务简化为几次简单的文本或图像输入。无论是快速原型设计、艺术创作,还是专业级图像处理,Kontext 都能大幅提升效率。
与传统工作流的对比
传统图像编辑工作流通常涉及多个步骤:从 Photoshop 的手动修图到 AI 辅助工具的风格迁移,每一步都需要大量时间和专业技能。而 FLUX.1 Kontext Dev 通过集成化的多模态处理,省去了 80% 的重复性工作。例如:
- 单一工具完成复杂任务:无需在不同软件间切换,Kontext 能一次性完成从对象修改到风格转换的全部操作。
- 智能上下文理解:模型能够"理解"图像内容,自动识别需要修改的区域,减少手动标注时间。
- 高效迭代:多次编辑后仍保持角色和场景一致性,避免传统编辑中的"漂移"问题。
应用场景展示
FLUX.1 Kontext Dev 的多功能性使其适用于多种创意场景,以下是一些案例示范:
- 图像编辑
修改发型、发色、服饰,或替换背景,甚至让角色微笑或手持特定产品,所有操作都能保持极高的角色一致性。例如,更换人物的发型

给人物添加上眼镜

去除图像上多余的内容

当然换衣服肯定也是可以的,这里就不做多余展示。不要说换衣服了,不穿衣服都可以。但是不会考虑这部分内容教程。
- 图片风格转换
将照片转换为油画、卡通或赛博朋克风格,同时保留原始图像的构图和细节。

- 老照片修复
修复模糊、破损的老照片,恢复清晰度和色彩,同时保持原始人物特征。

- 多图融合
将多张图像无缝融合,创造全新的场景或故事画面,适用于广告设计或电影预览。

提示词:A woman takes a selfie with her phone while standing on a skyscraper.

提示词:The two characters are running together on the prairie. Maintain the character proportions of these two characters

- 风格参考与二次创作
基于参考图像的风格,生成全新的创意内容。

- 图像文字编辑
快速修改海报或广告中的文字内容,无需重新设计整个图像。

- 人物、场景、服饰一致性
在多步编辑中,确保人物面部、场景背景和服饰细节高度一致,适合虚拟角色设计或品牌形象维护。 - 提取线稿与上色
从照片中提取线稿,或为手绘线稿自动上色,加速插画创作流程。 - 重打光
调整图像的光影效果,例如从日光场景转换为夜景,或改变光源角度,增强画面氛围。

云算力10秒快速部署在线体验
没有注册的用户可以通过我的邀请链接,部署镜像,快速体验flux kontext一句话P图
仙宫云 | GPU 算力租赁 | Xiangongyun.com
我创建的flux kontext镜像地址是
www.xiangongyun.com/image/detai...
部署镜像也很简单,之前的教程可以参考
安装包、模型获取
公众号 InnoTechX
下面回复 "kontext" 即可
本地部署教程
1.先下载官方整合的ComfyUI一键包 ComfyUI_windows_portable_nvidia.7z,解压,这些内容可以在我分享的网盘找到。

2.下载ComfyUI Manager,解压,然后你的文件夹就会有这四个文件了(如果你不需要Manager,直接看第4步)

3.把ComfyUI Manager解压后的文件夹放入到 ComfyUI的 custom_nodes里面

4.然后我们就可以进入ComfyUI一键包,启动项目了,双击 run_nvidia_gpu.bat

5.启动成功后,就会自动打开 http://127.0.0.1:8188/ 进入ComfyUI界面。然后点击工作流,浏览模版

找到Flux -> Flux Kontext dev(Basic),点击进入模版工作流

会提示有模型没有下载,你可以直接点击模型旁边的下载按钮,把模型下载下来,这些我也会放到网盘。

然后把模型按照图片上,分类放入。





6.关掉之前的cmd窗口,重新点击 run_nvidia_gpu.bat 启动。然后就可以直接 选择图片上传,再Prompt提示词输入你的要求,点击运行即可。

右上角和底部状态栏都会有进度提示

Kontext提速教程
现在没有提速的情况下,我的显卡是4070TISuper 16G 需要47秒生成一张图。使用加速插件和模型可以提高到17秒就能生成一张图。虽然加速对于模型的精度肯定是有一些影响,但是无伤大雅。
未加速前

加速后

1.Manager中搜索nunchaku


搜索 nunchaku,点击install。


下方日志会有安装依赖包的进度,你只需等待即可。

最终观察到nunchaku依赖安装失败,nunchaku安装比较复杂,可以选择编译好的wheel来安装

2.先在Manager中查看你安装的 nunchaku 版本。

搜索nunchaku,看到版本是0.3.3

3.去下载编译好的 nunchaku 轮子安装 下载网址如下
如何查看你需要的版本呢?也很简单,进入到你解压的目录ComfyUI_windows_portable_nvidia\ComfyUI_windows_portable\python_embeded
把红框中的内容全选,改成cmd后按Enter回车键

输入python -V可以得到python版本
输出python -m pip show torch 可以得到torch版本 2.7

然后综合信息,Manager的nunchaku插件版本是0.3.3,torch是2.7所以我们要下载 0.3.1 torch 2.7 cp312
nunchaku-0.3.1%2Btorch2.7-cp312-cp312-win_amd64.whl这个

下载后把这个文件放到嵌入式的python包里面,如下图

然后一样是切出cmd,在上面选中的地址栏输入cmd按enter回车键。输入
python.exe -m pip install nunchaku-0.3.1%2Btorch2.7-cp312-cp312-win_amd64.whl
你的指令可能不一样,但是都是 python.exe -m pip install + 你下载的轮子名字。


看到下面红色框的输出就是成功安装了

4.下载nunchaku支持的对应模型,以及Lora模型
nunchaku-flux.1-dev 模型下载
20系30系40系这里基本选int4,如果是50系列显卡,需要选择fp4,下载你对应的模型即可。我是40系显卡,下载这个 svdq-int4_r32-flux.1-dev.safetensors 即可

Lora模型下载

下载完把这个名字最好修改成 FLUX.1-Turbo-Alpha.safetensors,因为以后你可能用到其他模型,你都不知道你之前下载的这个模型是干嘛的,所以修改好名称便于自己辨别。
5.把下载好的模型放到ComfyUI中的models目录
nunchaku-flux.1-dev模型放置

lora模型放置

6.再次回到之前的启动目录启动即可

7.需要把加载器修改成nunchaku的,以及添加Lora减少步数。(这里需要修改工作流,如果不熟悉的朋友可以直接找到下面的如何导入工作流文件,直接使用,我会把工作流文件放在网盘)
把这个UNet加载器先删除掉

然后在节点库中搜索 nunchaku

把nunchaku DiT Loader拉到刚才的位置

选择好使用的模型 nunchaku-flux.1-dev

然后把loRa Loader拉到旁边,选择好使用的模型


把鼠标放到红色方框位置,点击左键,拉动到lora节点去。关联起来

再把Lora节点关联到K采样器

到此,加速插件就配置完成,工作流也修改完成,你就可以上传图片,输入prompt,愉快的玩耍了。

如何导入工作流文件
点击左上角的工作流,然后点击打开。

选择你下载好的json工作流文件即可

