掘金 人工智能 前天 15:43
comfyui学习笔记系列1(面板基础简介)
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

ComfyUI是一个基于SD模型构建的图像生成工具,它通过调用API实现与SD模型的交互。其生成原理是基于扩散模型,先将图片转化为噪点,再通过逐步降噪还原图像。文章详细介绍了ComfyUI的任务流,包括模型加载、CLIP文本编码器、K采样器、Latent以及VAE解码器等关键组件的功能和参数设置,旨在帮助用户理解和掌握ComfyUI的使用方法,从而生成高质量的图像作品。

🖼️ ComfyUI的核心在于其基于SD(Stable Diffusion)模型的图像生成流程。SD模型是预先训练好的模型,而ComfyUI则充当调用API的交互层,用户通过ComfyUI构建任务流来控制图像的生成。

📝 CLIP文本编码器负责将用户输入的文本关键词转化为AI可理解的语言。生成图像时,需要提供正面条件(描述期望图像)和负面条件(描述不想要的图像),以此来指导图像的生成过程。

⚙️ K采样器是图像生成的核心,它控制着去噪过程。其中包括随机种子的设置、步数(去噪次数,一般30-40步)、CFG值(关键词与图像的相关性,建议8)、采样器(推荐euler_ancestral或dpmpp_2m_sde)等参数的调整,这些参数直接影响图像的质量和风格。

📐 Latent面板用于设置生成图像的尺寸和分辨率。不同版本的SD模型对基础尺寸有不同的建议范围,例如,1.5版本大模型建议512-768,SDXL或SD3版本大模型建议1024上下,以此获得最佳的生成效果。

🖼️ VAE解码器是流程的最后一步,它将采样器处理后的潜在图像转换为最终的可见图像。只有经过VAE解码器,用户才能看到ComfyUI生成的图片。

comfyui是基于SD模型才能生成图像

comfyui相当于调用API的交互层
SD是已经被训练好的模型


生成原理:将图片铺满噪点,然后根据步数逐步降噪,最终得到目标图像
正向扩散:生噪过程,增加噪点
反向扩散:去噪过程,消除噪点


开始简单介绍comfyui任务流各个面板的功能

模型加载器
加载模型使用

clip文本编码器

是我们需要输入的关键词,自动将输入的条件变成AI可以理解的文字,生成图像时需要两个条件一个是正面条件,一个是负面条件。

正面条件:是我们想生成的图片的描述
负面条件:生成图像时不需要部分的描述

K采样器

1.随机种:默认0,可每次生成的图片完全随机
2.运行后操作

3.步数:去噪的次数,一般20-40之间,建议30-40。

4.CFG:关键词和图片的相关性,一般3-9之间,建议8。数值过大可能会关联出错,导致完全没有关联。

5.采样器:推荐euler_ancestral或者dpmpp_2m_sde百搭

6.调度器:降噪时的变化曲线,一般用前三个

7.降噪:默认1,在做文生图时尽量不要动。图生图时,数值越大与原图的相似度越低,反之数值越小与原图相似度越接近


Latent

决定生成图片的尺寸以及分辨率


VAE解码器

采样器跑完后需要使用VAE解码器转换为图像。这样就可以生成图片了

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

ComfyUI 图像生成 SD模型 扩散模型 AI绘画
相关文章