【大列表】常用Comfyui插件-2026年1月1日版
本文最后更新于 2026年1月1日 晚上
前言
这些是Comfyui中一些常用的插件(节点),包括对于界面的增强、文生图、图生文、图生视频、文生视频等等。
常用插件
| 插件名称 | 插件地址 | 插件说明 |
|---|---|---|
| ComfyUI-Manager | https://github.com/ltdrdata/ComfyUI-Manager | 用于安装、更新、卸载其他插件,解决依赖问题。 |
| AIGODLIKE-ComfyUI-Translation | https://github.com/AIGODLIKE/AIGODLIKE-COMFYUI-TRANSLATION | 将ComfyUI界面翻译成中文。 |
| ComfyUI-Crystools | https://github.com/crystian/ComfyUI-Crystools | 实时查看GPU内存、显存等使用情况。显示每张图片的生成进度和已用时间,帮助你精确估算任务完成时间。 |
| ComfyUI-Custom-Scripts | https://github.com/pythongosssss/ComfyUI-Custom-Scripts | 内置了十几个非常实用的界面增强、快捷操作和小工具。它的核心就是优化用户界面(UI)功能。 |
| ComfyUI-KJNodes | https://github.com/kijai/ComfyUI-KJNodes | 提供了海量的、用来优化您操作界面、调试工作流、增强可视化效果的小工具。 |
| ComfyUI_essentials | https://github.com/cubiq/ComfyUI_essentials | 提供了许多用户认为“本应该内置”在ComfyUI官方功能中,但实际上却没有的、极其实用的节点。 |
| Dynamic Thresholding | https://github.com/mcmonkeyprojects/sd-dynamic-thresholding | 通过在采样过程中对提示词引导(CFG)进行动态、智能的调整,来直接影响图像的生成质量和创意控制。 |
| ComfyUI Inspire Pack | https://github.com/ltdrdata/ComfyUI-Inspire-Pack | 提供一系列高级节点,帮助您构建更复杂、更精细、更可控的生成流程。 |
| ComfyUI Impact Pack | https://github.com/ltdrdata/ComfyUI-Impact-Pack | 先“识别”图片中的特定内容(如人脸、身体、物体),然后对这些识别出的区域进行“针对性”的增强处理。 |
| ComfyUI Impact Subpack | https://github.com/ltdrdata/ComfyUI-Impact-Subpack | 是 Impact Pack 的“专用配件”。它的唯一作用(从描述可知)就是为主包提供一个名为 “UltralyticsDetectorProvider” 的节点。 |
| ComfyUI_UltimateSDUpscale | https://github.com/ssitu/ComfyUI_UltimateSDUpscale | 功能强大的放大插件,在放大图片的同时,利用AI的“想象力”和“绘画能力”,为图片补充、修复和创造在低分辨率下丢失的细节。 |
| ComfyUI-layerdiffuse | https://github.com/huchenlei/ComfyUI-layerdiffuse | 使AI在生成图片时,能直接输出带有透明通道(Alpha Channel)的图像,而不是常见的、带有白色或纯色背景的不透明图片。 |
| comfyui_controlnet_aux | https://github.com/Fannovel16/comfyui_controlnet_aux | 从您的原始图片(如照片、草图)中,自动生成对应的、能被 ControlNet 理解的“指引图”。 |
| ComfyUI-Advanced-ControlNet | https://github.com/Kosinkadink/ComfyUI-Advanced-ControlNet | 提供比原生ControlNet更丰富的预处理器和模型加载选项,控制效果更精细。 |
| ComfyUI_IPAdapter_plus | https://github.com/cubiq/ComfyUI_IPAdapter_plus | 仅仅通过上传一张参考图片,就让AI在生成新图片时,深度模仿这张图的风格、构图、色调、氛围甚至人物特征。 |
| ComfyUI-Florence2 | https://github.com/kijai/ComfyUI-Florence2 | 这是一个多功能的视觉理解模型,用于根据图像生成提示词或其他分析任务。 |
| ComfyUI-WD14-Tagger | https://github.com/pythongosssss/ComfyUI-WD14-Tagger | 核心作用是 “看图说话”,但说的不是句子,而是一系列精准的、用逗号分隔的英文关键词标签。 |
| ComfyUI-AnimateDiff-Evolved | https://github.com/Kosinkadink/ComfyUI-AnimateDiff-Evolved | 可以将生成的静态图片,变成一段几秒钟的连贯动态视频。 |
| ComfyUI-HunyuanVideoWrapper | https://github.com/kijai/ComfyUI-HunyuanVideoWrapper | 通过“混元视频”模型,直接用文字描述生成高质量、连贯的短视频片段。 |
| ComfyUI-VideoHelperSuite | https://github.com/Kosinkadink/ComfyUI-VideoHelperSuite | 是为所有涉及视频的工作流提供“加载、拆分、合成、保存”等基础操作支持的插件。 |
| RG节点 | https://github.com/rgthree/rgthree-comfy | 提升搭建、管理和维护ComfyUI工作流本身的效率和体验。 |
注1:
AnimateDiff:主要让静态的 Stable Diffusion 图片模型“动起来”,是一种“图/文 转 动画”的技术。
HunyuanVideoWrapper:是直接调用一个原生的、为生成视频而从头训练的专用大模型,通常在大场景连贯性、物理合理性上可能表现不同。
注2:
AnimateDiff / HunyuanVideo 是厨师,负责“炒菜”(用AI生成视频内容)。
VideoHelperSuite 是厨房的刀、案板、锅和灶,负责“备菜”和“装盘”(把原始视频素材处理好交给厨师,再把厨师炒好的菜装盘成最终视频)。
注3:
WD14 Tagger:输出的是标准化的、特征性的标签列表,格式紧凑,更适合直接作为Stable Diffusion的提示词使用,尤其在动漫领域。
Florence2:输出的是自然语言描述(如一段话),理解能力更通用,但生成的描述可能需要加工才能用作提示词。
履历
2026年1月1日,创建列表。
捐赠一元,支持一下!
注:捐赠时如在留言中注明网名或昵称,即可被列入到感谢名单中。否则,会以佚名身份列入名单。
【大列表】常用Comfyui插件-2026年1月1日版
https://rsreland.net/blog/202601012252/