掘金 人工智能 07月11日 19:16
FLUX.Kontext 一句话P图界的神,淘汰了80%的工作流,本地部署。
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

FLUX.1 Kontext Dev 是一款由 Black Forest Labs 推出的开源图像编辑模型,它利用120亿参数的扩散变压器模型,实现了文本与图像的联合输入,并能智能理解图像上下文,从而实现精准的图像编辑。该模型简化了传统图像处理流程,提供角色一致性、局部编辑、风格参考与转换、图像文字编辑、构图控制等核心功能,并支持本地运行,为开发者和高级用户提供了更大的灵活性和创作自由度。

🖼️ **多模态输入与深度理解:** FLUX.1 Kontext Dev 能够同时接受文本和图像输入,通过深度上下文理解,实现对图像的精准编辑,颠覆了传统图像编辑的工作流程。

🧑‍🎨 **角色一致性与局部编辑:** 该模型可以保持图像中人物或物体的独特特征,并在多场景、多环境编辑中保持一致性,同时支持对图像特定区域或对象进行精确修改,而不影响整体构图或其他部分。

🎨 **风格转换与快速迭代:** FLUX.1 Kontext Dev 能够根据文本提示生成新颖场景并保留参考图像风格,实现风格迁移。其快速推理能力也极大地缩短了创作周期,并支持本地运行,为用户提供了更大的实验自由度。

在数字创意领域,图像编辑的效率与精准性一直是设计者和开发者追求的目标。Black Forest Labs 推出的 FLUX.1 Kontext Dev,以其突破性的多模态图像编辑能力,颠覆了传统工作流,基本能够淘汰 80% 的传统图像处理流程。这款拥有 120 亿参数 的开源扩散变压器模型,不仅支持文本与图像的联合输入,还能智能理解图像上下文,实现前所未有的精确编辑和角色一致性。本文将带你深入了解 FLUX.1 Kontext Dev 的核心功能、独特优势以及多样化应用场景。

FLUX.1 Kontext Dev 是什么?

FLUX.1 Kontext Dev 是 Black Forest Labs 专为开发者、研究人员和高级用户打造的开源图像编辑模型。与传统的文本到图像(T2I)模型不同,Kontext 能够同时处理文本和图像输入,通过深度上下文理解,实现精准的图像编辑。它不仅保留了 FLUX.1 Kontext 套件的全部核心能力,还提供了在本地机器运行的灵活性,免去了对云端 API 的依赖,为实验和定制化开发提供了无限可能。

核心特性

FLUX.1 Kontext Dev 的核心在于其多模态处理能力和对图像细节的精准把控。以下是其主要特点:

FLUX.1 Kontext Dev 在保持高保真度和速度的同时,提供了更强的实验自由度,适合需要深度定制的场景。

为什么选择 FLUX.1 Kontext Dev?

FLUX.1 Kontext Dev 的独特优势在于其对上下文的智能理解和多模态输入的支持。传统图像编辑工具往往需要繁琐的手动操作或多款软件配合,而 Kontext 通过深度学习技术,将复杂的编辑任务简化为几次简单的文本或图像输入。无论是快速原型设计、艺术创作,还是专业级图像处理,Kontext 都能大幅提升效率。

与传统工作流的对比

传统图像编辑工作流通常涉及多个步骤:从 Photoshop 的手动修图到 AI 辅助工具的风格迁移,每一步都需要大量时间和专业技能。而 FLUX.1 Kontext Dev 通过集成化的多模态处理,省去了 80% 的重复性工作。例如:

应用场景展示

FLUX.1 Kontext Dev 的多功能性使其适用于多种创意场景,以下是一些案例示范:

给人物添加上眼镜

去除图像上多余的内容

当然换衣服肯定也是可以的,这里就不做多余展示。不要说换衣服了,不穿衣服都可以。但是不会考虑这部分内容教程。

提示词:A woman takes a selfie with her phone while standing on a skyscraper.

提示词:The two characters are running together on the prairie. Maintain the character proportions of these two characters

云算力10秒快速部署在线体验

没有注册的用户可以通过我的邀请链接,部署镜像,快速体验flux kontext一句话P图

仙宫云 | GPU 算力租赁 | Xiangongyun.com

我创建的flux kontext镜像地址是

www.xiangongyun.com/image/detai…

部署镜像也很简单,之前的教程可以参考

AI换脸教程:手机、电脑都能用的云端部署方法

安装包、模型获取

公众号 InnoTechX

下面回复 "kontext" 即可

本地部署教程

1.先下载官方整合的ComfyUI一键包 ComfyUI_windows_portable_nvidia.7z,解压,这些内容可以在我分享的网盘找到。

2.下载ComfyUI Manager,解压,然后你的文件夹就会有这四个文件了(如果你不需要Manager,直接看第4步)

3.把ComfyUI Manager解压后的文件夹放入到 ComfyUI的 custom_nodes里面

4.然后我们就可以进入ComfyUI一键包,启动项目了,双击 run_nvidia_gpu.bat

5.启动成功后,就会自动打开 http://127.0.0.1:8188/ 进入ComfyUI界面。然后点击工作流,浏览模版

找到Flux -> Flux Kontext dev(Basic),点击进入模版工作流

会提示有模型没有下载,你可以直接点击模型旁边的下载按钮,把模型下载下来,这些我也会放到网盘。

然后把模型按照图片上,分类放入。

6.关掉之前的cmd窗口,重新点击 run_nvidia_gpu.bat 启动。然后就可以直接 选择图片上传,再Prompt提示词输入你的要求,点击运行即可。

右上角和底部状态栏都会有进度提示

Kontext提速教程

现在没有提速的情况下,我的显卡是4070TISuper 16G 需要47秒生成一张图。使用加速插件和模型可以提高到17秒就能生成一张图。虽然加速对于模型的精度肯定是有一些影响,但是无伤大雅。

未加速前

加速后

1.Manager中搜索nunchaku

搜索 nunchaku,点击install。

下方日志会有安装依赖包的进度,你只需等待即可。

最终观察到nunchaku依赖安装失败,nunchaku安装比较复杂,可以选择编译好的wheel来安装

2.先在Manager中查看你安装的 nunchaku 版本。

搜索nunchaku,看到版本是0.3.3

3.去下载编译好的 nunchaku 轮子安装 下载网址如下

huggingface.co/mit-han-lab…

如何查看你需要的版本呢?也很简单,进入到你解压的目录ComfyUI_windows_portable_nvidia\ComfyUI_windows_portable\python_embeded

把红框中的内容全选,改成cmd后按Enter回车键

输入python -V可以得到python版本

输出python -m pip show torch 可以得到torch版本 2.7

然后综合信息,Manager的nunchaku插件版本是0.3.3,torch是2.7所以我们要下载 0.3.1 torch 2.7 cp312

nunchaku-0.3.1%2Btorch2.7-cp312-cp312-win_amd64.whl这个

下载后把这个文件放到嵌入式的python包里面,如下图

然后一样是切出cmd,在上面选中的地址栏输入cmd按enter回车键。输入

python.exe -m pip install nunchaku-0.3.1%2Btorch2.7-cp312-cp312-win_amd64.whl

你的指令可能不一样,但是都是 python.exe -m pip install + 你下载的轮子名字。

看到下面红色框的输出就是成功安装了

4.下载nunchaku支持的对应模型,以及Lora模型

nunchaku-flux.1-dev 模型下载

huggingface.co/mit-han-lab…

20系30系40系这里基本选int4,如果是50系列显卡,需要选择fp4,下载你对应的模型即可。我是40系显卡,下载这个 svdq-int4_r32-flux.1-dev.safetensors 即可

Lora模型下载

huggingface.co/alimama-cre…

下载完把这个名字最好修改成 FLUX.1-Turbo-Alpha.safetensors,因为以后你可能用到其他模型,你都不知道你之前下载的这个模型是干嘛的,所以修改好名称便于自己辨别。

5.把下载好的模型放到ComfyUI中的models目录

nunchaku-flux.1-dev模型放置

lora模型放置

6.再次回到之前的启动目录启动即可

7.需要把加载器修改成nunchaku的,以及添加Lora减少步数。(这里需要修改工作流,如果不熟悉的朋友可以直接找到下面的如何导入工作流文件,直接使用,我会把工作流文件放在网盘)

把这个UNet加载器先删除掉

然后在节点库中搜索 nunchaku

把nunchaku DiT Loader拉到刚才的位置

选择好使用的模型 nunchaku-flux.1-dev

然后把loRa Loader拉到旁边,选择好使用的模型

把鼠标放到红色方框位置,点击左键,拉动到lora节点去。关联起来

再把Lora节点关联到K采样器

到此,加速插件就配置完成,工作流也修改完成,你就可以上传图片,输入prompt,愉快的玩耍了。

如何导入工作流文件

点击左上角的工作流,然后点击打开。

选择你下载好的json工作流文件即可

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

FLUX.1 Kontext Dev 图像编辑 AI
相关文章