本文在 草梅友仁的博客 发布和更新,并在多个平台同步发布。如有更新,以博客上的版本为准。您也可以通过文末的
原文链接
查看最新版本。
前言
欢迎来到草梅周报!这是一个由草梅友仁基于 AI 整理的周报,旨在为您提供最新的博客更新、GitHub 动态、个人动态和其他周刊文章推荐等内容。
上期周报推荐过 comfyanonymous/ComfyUI ,一个强大的和模块化的可视化 AI 引擎和应用程序,通过管道来稳定的生成 AI 图片。
本期来研究下 ComfyUI 具体的使用。
首先,ComfyUI 相较于 Stable Diffusion Web UI 最大的改进就是添加了节点式工作流设计。
ComfyUI 通过节点(如 Checkpoint 加载器、K 采样器、ControlNet 应用等)构建图像生成流程,可以精确掌握图像生成的细节,控制图像生成的质量。
以经典的文生图为例,通过组装 Checkpoint 加载器、K 采样器、VAE 解码器等节点,就可以实现跟 Stable Diffusion Web UI 类似的效果,当然了,也可以添加放大模型节点,实现类似的图片放大效果。
当然了,文生图有了,图生图也自然少不了。
图生图跟文生图唯一的区别就是修改 Latent 图像来源,从空 Latent 图像改成从指图像加载。
除了节点式工作流的设计之外,ComfyUI 对 GPU 显存要求显著降低,3G 以下仍可正常运行。
当然了,对新人而言,还可以直接导入大佬制作好的工作流,简化自己搭建工作流的流程。
虽然 ComfyUI 等工作流式的设计在 GPT-4o 等模型出来后看起来会有点麻烦,不过我依然认为,要想精确控制图像生成的话,还是得走类似工作流的模式,这样才能控制最终产物。
当然了,对画师而言,我想 AI 大模型不应该直接生成图片,而是生成 PSD 等图片工程文件,一个没有分层的图片显然是不具备项目价值的。
参考人类绘画的流程,从草稿到成品,每一步都可以有 AI 参与,但 AI 绝不能直接生成成品,无论是出于控制产物的角度还是出于考虑人类自身价值的角度。
对小说、编程等内容,文本本身就是工程文件,修改起来也较为简单。
但 png/jpg 等图片文件,并不是图片工程文件,要修改的门槛也更高。
我猜,未来普通人或者专业画师,在使用 AI 绘画上的区别就是参与程度如何,普通人可能更关心最终产物,而专业画师会更关心整体流程。
一个可能的工作流程就是:GPT-4o 生成参考图片 -> 人类反馈 ->GPT-4o 进一步修改 -> 相对满意后,生成并导出 PSD 工程文件 ->人类画师手动修改。
就像程序员把 AI 当编程助手,让它生成代码,生成测试用例;画师其实也要把 AI 当绘画助手,让它生成线稿,生成上色效果等。
在这 AI 的时代,任何行业都不可能独善其身,唯有继续学习,才能在 AI 时代的洪流下继续前进。
GitHub Release
cookie-cloudflare
v1.4.1 - 2025-04-03 21:40:43
摘要:
版本 1.4.1 更新摘要
Bug 修复:
- 修改缓存时间设置为 3600 秒
- 更新依赖项配置
最新 GitHub 加星仓库
- CaoMeiYouRen starred ComfyUI - 2025-03-30 19:43:23
这是一个功能强大且模块化的扩散模型图形用户界面(GUI)、应用程序接口(API)和后端系统,采用图/节点接口设计。主要编程语言为 Python。该项目在 GitHub 上获得了 73,468 颗星,显示出其广泛的受欢迎程度和社区支持。
其他博客或周刊推荐
潮流周刊
- 第 216 期 - 吃个炒饭 - 2025-03-31 08:00:00
二丫讲梵的学习周刊
- 学习周刊-总第 205 期-2025 年第 14 周 - 2025-04-03 21:42:52
总结
本周的更新和动态如上所示。感谢您的阅读!
您可以通过以下方式订阅草梅周报的更新:
往期回顾
- GPT-4o 多模态图像生成功能解析 | 2025 年第 13 周草梅周报 - 2025-03-30 20:04:29
- DeepSeek-R1 编码体验与 Browser-Use 智能浏览器控制 | 2025 年第 12 周草梅周报 - 2025-03-23 21:52:50
- Mermaid 流程图与 Open-Sora | 2025 年第 11 周草梅周报 - 2025-03-16 19:23:39
本文作者:草梅友仁
本文地址: https://blog.cmyr.ltd/archives/2025-14-caomei-weekly-comfyui-ai-image-generation-workflow-guide.html
版权声明:本文采用 CC BY-NC-SA 4.0 协议 进行分发,转载请注明出处!