Author By: 杨智超
2022 年,Stable Diffusion 的横空出世标志着 AI 行业正式迈入 AIGC(AI Generated Content)时代,成为推动行业变革的核心引擎。作为 AI 绘画领域的里程碑式模型,Stable Diffusion 不仅实现了文生图(txt2img)和图生图(img2img)等核心功能,更以全面开源的策略彻底改变了 AI 技术的传播与应用模式。
Stable Diffusion(简称 SD)是 AI 绘画领域的一个核心模型,能够进行文生图(txt2img)和图生图(img2img)等图像生成任务。并且,Stable Diffusion 完全开源(模型、代码、数据、论文、生态等),这使得其能快速构建强大繁荣的上下游生态(AI 绘画社区、基于 SD 的自训练 AI 绘画模型、丰富的辅助 AI 绘画工具与插件等),并且吸引了越来越多的 AI 绘画爱好者加入其中,与 AI 行业从业者一起推动 AIGC 领域的发展与普惠。
Stable Diffusion 的真正革命性在于它实现了 AI 技术的 ToC 普惠——让普通用户也能轻松参与内容创作,使 AI 绘画真正融入全球日常生活。这与传统深度学习时代"技术精英化"的模式形成鲜明对比,标志着 AIGC 从工业级应用迈向大众化创作的转折点。
正是这种开放、共享、共创的模式,为未来十五年 AI 技术的爆发性发展奠定了基础。当开源生态与大众创作热情相互激发,我们正见证着一个与移动互联网时代同等重要的技术变革浪潮正在形成。Stable Diffusion 不仅是一个模型,更是开启 AI 普惠新时代的钥匙,预示着 AI 将如互联网一样,成为每个人日常生活与工作中的基础工具。
图像生成技术的发展史,在近几年大模型和算力的飞速发展下,日新月异。
2021 年,OpenAI 推出的 DALL·E 及其后续版本,首次实现了文本到图像的高质量生成,但其计算需求极高,仅限于大型科技公司和研究机构使用。这些模型需要强大的计算资源,生成一张高质量图像往往需要数分钟甚至更长时间,价格也相当昂贵。
2022 年下半年,Stable Diffusion 的开源成为行业分水岭。它基于 Latent Diffusion 架构,将图像压缩到潜在空间进行扩散过程,大幅降低了计算需求。这一技术突破使得 Stable Diffusion 能在消费级 GPU 上运行,单次生成时间从分钟级缩短至秒级,成本近乎为零。
Stable Diffusion 的开源策略更是点燃了行业热情。GitHub 上短短几个月内涌现出大量基于该模型的二次开发项目,形成了完整的生态系统。这与 DALL·E 等闭源模型形成了鲜明对比,后者需要通过 API 调用,限制了开发者的自由度和创新空间。
Stable Diffusion 是一种基于扩散原理的开源 AI 图像生成模型。
Stable Diffusion 的核心优势可归纳为“开源、高效、低门槛”,这些特性共同驱动了它在 AIGC 领域的迅速普及。首先,开源不仅意味着模型权重、代码和训练细节公开,还带来了极高的透明性和可复现性:研究者与工程师可以自由复现、审计与改进模型,社区快速迭代出大量插件、工具与微调策略,形成丰富生态。其次,高效体现在架构设计与工程优化上:Stable Diffusion 在潜在空间(latent space)中做扩散,显著降低了计算量;配合半精度(FP16)、裁剪/量化、TensorRT 等优化后,能够在消费级 GPU 上实现秒级推理,便于在线部署与规模化服务。最后,低门槛既指运行门槛,也指参与门槛——普通开发者和爱好者只需一块中端显卡即可试验与微调模型,丰富的教程与预训练资源让入门更容易;此外,开源生态使得商业化落地变得灵活(易定制、可本地部署、可控制隐私与数据流向)。综上,Stable Diffusion 通过技术与生态双轮驱动,实现了从研究到产品再到大众创作的快速通道,但在落地时仍需注意模型许可、训练数据合规及生成内容的安全与审核策略。
开源生态、运行门槛、可玩性是 Stable Diffusion 与传统 AI 图像工具主要的关键区别。
Stable Diffusion 是完全开源的,模型、代码、数据和生态工具都是对外开放的,你完全可以基于开源的项目打造自己的 AI 图像生成模型。而传统 AI 图像工具,多是厂家收费闭源工具,创新完全受限于厂商。这实现了 AI 技术的 ToC 普惠,让普通用户也能参与模型测的 AI 创新。
运行门槛极低,Stabel Diffusion 基与扩散模型来构建,普通消费级 GPU 即可微调训练和推理,即使是从零开始训练一个 SD2 的模型,费用也可低于 5 万美金,在 A100GPU 中运行 23825 个小时即可完。在推理侧,结合最新的 TensorRT 量化方案即便是在入门级消费显卡 4060,也可实现高效部署。总的来说,不管是训练还是推理 Stabel Diffusion 都已经有相当成熟的方案。
Stable Diffusion 的可玩性也是其另外一大卖点,不管是文本生成图像(txt2img)、图生图(img2img)、文本加图生图等多种模式,都一并支持。相比传统工具的功能单一、可控性弱,Stable Diffusion 无疑是非常成功的框架。
想象一下,你有一张清晰的图片,但想通过某种方式"忘记"它的细节,让它变成一团模糊的噪声。然后,你再尝试从这团噪声中"重建"出原来的图片。扩散模型就是通过这样的"破坏-重建"过程来学习生成新图像的。
DDPM 全称是 Denoising Diffusion Probabilistic Models,最开始提出是用于去噪领域。原始论文中数学公式比较多,需要一定的数理基础。
扩散模型的精髓在于:它不是直接学习如何生成图像,而是学习如何从噪声中恢复图像。 这种思路与传统的 GAN 或 VAE 完全不同,它通过一个渐进的过程来实现。
扩散模型包括两个过程:前向过程(forward process)和反向过程(reverse process),其中前向过程又称为扩散过程(diffusion process)。
如图所示,从
训练的时候,为了提升训练效率,可以直接从
如简介图中所示,SD 中的 Unet 结构是一个融合了传统分割 AI 模型与 Cross Attention 特征融合结构的图像 Latent feature 生成器。
除此之外 U-Net 引入了时间信息 step,来模拟随时间变化噪声扰动的过程,让 SD 模型能够更好的理解时间相关性。需要注意的是,U-net 模块是多次调用的,这是为了从低维到高维有一个渐变的过程,如从整体上先描绘了一张图的轮廓,再逐步深入每一处的细节。
clip 是非常经典的多模态特征提取器,在 SD2 中主要选择了使用其文本 Text Encoder 模型。其简洁高效的实现方式使得语言和文本的壁垒被打通,同时其强大的文本标签数据库使的 clip 模型拥有无与伦比的 zero-shot 能力。
VAE 模型主要起到图像的压缩和图像重建的作用,比如输入一个 H x W x C 的数据,同时比率为 f, 你会得到一个 Hf、Wf 高度、宽度的图像。当 f 小于 1 时,其为下采样,当 f 大于 1 时,其为上采样。
SD 模型充分借鉴了传统 CV 模型的处理技巧,如残差与 U-Net 结构,同时融合 Transformer 对图像、文本编码解码的最新趋势,可谓集合了众家之长。


