【翻译】图解Stable Diffusion

2023-10-27

原文信息

翻译自作者V2 Nov 2022版本。

原文链接:The Illustrated Stable Diffusion – Jay Alammar – Visualizing machine learning one concept at a time. (jalammar.github.io)

作者博客:@Jay Alammar

这是我翻译这位大佬的第五篇文章了。

带引用标签的内容 属于我自己加的,和原作者无关,如有漏无欢迎批评指正。 尽量保持原文意思的意译。


原文翻译

AI最近比较吸引人的一个方向是图像生成。从文本描述中生成图像,某种意义上也意味着人类创造艺术的方式的转变。

Stable Diffusion的发布是这一发展的里程碑,因为它的存在让普通用户使用高性能模型成为可能。

高性能模型:图像质量高、生成速度快并且相对来说对内存等资源的要求较小。

在试过AI图像生成后,你肯定想知道其背后原理。

本文就是对Stable Diffusion工作原理的简要介绍。

Stable Diffusion非常灵活,可以用不同的方式进行图像生成。

我们先来看一下只用文本来生成图像(text2img)。上图向我们展示了输入文本通过Stable Diffusion的生成的结果。

除了从文本中生成图像之外,另一种主要的生成方法是修改图片,输入是文本和图像。

比如下图,输入一张图片,再加上文字,图片就可以根据文字内容修改图像。

现在让我们深入了解一下。解释一下不同的组件之间是如何作用的,以及图像生成中选项、参数的含义。

Stable Diffusion的组成部分

Stable Diffusion是由几个组件和模型共同组成的,不是一个单一模型。

当我们深入了解的时候,我们首先可以看到一个文本理解组件,它将文本信息转化为数字表示,用于捕获文本中的信息。

刚才我们是从更高层面看的整个模型,接下来本文会深入讲一下机器学习的细节。

其中的文本编码器是一个特殊的Transformer语言模型,其实就是CLIP模型的文本编码器。文本编码器接受输入文本,输出代表每个单词或token的向量。然后将这些信息提供给图像生成器。

图像生成要经过两个阶段:

1. 图像信息生成器

这个组件是Stable Diffusion技术的秘密武器。它的实现是Stable Diffusion暴打前人模型获得更好的性能的关键。

这个组件通过多个步骤来生成图像信息。步骤 这个是Stable Diffusion的参数,通常默认为50或100。

图像信息生成器完全在图像信息空间(或潜空间)中运行。我们稍后会详细讨论这意味着什么。这个特性使Stable Diffusion比以前在像素空间中工作的扩散模型更快。在技术是线上,这个组件由一个U-Net神经网络和一个调度算法组成。

“扩散”一词描述了在这个组件中发生的事情。信息一步步被处理,最后生成高质量的图像(生成这一步是由下一个组件图像解码器进行的)。

2. 图像解码器

图像解码器 用 信息生成器中获取的信息 画出图像。它只在整个画图过程结束时运行一次,产生最终的图像。

通过这个,我们可以看到组成Stable Diffusion的三个主要组件(每个组件都有自己的神经网络):

  • ClipText:用于文本编码。

    输入:文本。

    输出:77个标记嵌入向量,每个向量有768个维度。

  • UNet+调度器:在信息(潜在)空间中逐步处理扩散信息。

    输入:文本嵌入和由噪声组成的起始多维数组(结构化数字列表,也称为张量)。

    输出:处理后的信息张量。

  • 自动编码器-解码器使用处理后的信息数组绘制最终图像。

    输入:处理后的信息数组(维度:(4,64,64))

    输出:生成的图像(维度:(3, 512, 512),即(红色/绿色/蓝色,宽度,高度))

所以什么是“扩散”?

“扩散”指的是下图中粉色这一块组件“图像信息生成器”中发生的处理过程。该组件获取能表示输入文本信息的token嵌入一个随机初始化的图像信息张量(aka 潜变量),然后用它们生成一个信息张量,把这个信息张量交给图像解码器,去生成最终的图像。

这个过程是一步一步进行的,逐步添加相关信息。想更直观的了解这个过程的话我们可以去检查随机潜变量那个张量,可以看到它逐步转变为图像噪声。这个检查过程需要借助图像解码器进行。

作者意思是,这个扩散过程是一步一步进行的,初始时候潜变量张量是随机的,每一步都给它加上一点文本相关信息。怎么知道它是逐步进行的?我们可以检查处理过程中的潜变量张量的变化,把其中一步的张量放到图像解码器中去生成,可以看到生成的东西从随机噪声变为我们想要的东西。

整个扩散过程需要很多步,每个步骤都对输入的潜变量矩阵进行操作,并生成下一步的潜变量矩阵,生成的这个潜变量矩阵会比前一步生成结果更符合输入信息,也会更像模型从训练集中获取的视觉信息。

通过下图我们可以直观地看到这些潜变量即集合每一步都添加了什么信息。

整个处理过程如下图:

我们可以看到第二步和第四步效果尤其惊人,就好像一堆噪声中突然就显示出了轮廓。

扩散步骤是如何工作的

扩散模型图像生成的核心要依赖于强大的计算机视觉领域的模型。在足够大的数据集的基础上,这些模型可以学会很多复杂运算。扩散模型通过如下方式建模问题以实现图像生成:

假设我们有一个图像,我们首先生成一些噪声,然后将这些噪声添加到图像上。

这里是广义的噪声,不只是声音上的狭义噪声。对于图像来说,照片中的噪点导致图像模糊,我们就可以认为这些噪点是当前图像上的噪声。

我们可以将这看成是一个训练示例。之后我们使用同样的方法去创建更多的训练示例,然后用这些示例去训练我们图像生成模型的核心组件。

虽然上图例子展示了从图像到噪音图的一些噪音值只有四步(0步不添加噪音,第4步将图像破坏为完全噪音),但实际上我们可以很容易控制给图像添加多少噪音,因此我们可以将整个过程分散到数十个步骤中,为数据集中的每个图像创建数十个训练示例。

有了这个数据集,我们就可以训练噪声预测器了。训练完后会得到一个在特定配置下运行时可以生成图像的预测器。如果你接触过机器学习,那训练步骤看起来应该很熟悉。

接下来我们来看看 Stable Diffusion 是如何生成图像的。

通过降噪生成图片

训练好的噪声预测器,接受一张带噪图片和噪声步长作为输入,输出是它预测的噪声。

预测出来噪声之后,如果我们从带噪图片中减去这个噪声,那我们得到的图像就会得到一张和原始图片接近的图。(当然这里的“图”指的不是图像本身,而是图像服从的分布,这个分布是图像像素的分布方式,决定了天空通常是蓝色并高于地面,人们有两只眼睛,猫……)

如果模型训练集的图片质量比较高,那训练出来的模型产生的图像也会比较好看。比如 Stable Diffusion用到了LAION Aesthetics训练集。如果我们在 logo 图像上对其进行训练,那么我们最终会得到一个 logo 生成模型。

laion-datasets/laion-aesthetic.md at main · LAION-AI/laion-datasets (github.com)

项目官网:https://laion.ai/projects/

到这里我们就讲完了关于扩散模型图像生成的过程,主要是根据Denoising Diffusion Probabilistic Models描述的。现在你已经掌握了扩散的基本概念。你不仅了解了 Stable Diffusion,还了解了DALL·E 2 和谷歌 Imagen 的主要组件。

注意嗷,到目前为止,我们描述的扩散过程生成的图像不使用任何文本数据。如果我们直接用这个模型,它会生成好看的图,但我们无法控制它生成的是什么东西,可能是金字塔,可能是猫,还是其他任何东西。在接下来的内容中,我们讲一下如何将文本提示加入到图像生成过程中,以便控制模型生成的图像类型。

速度提升:扩散在压缩数据中进行而不是在图像上进行

为了加快图像生成的过程,稳定扩散(Stable Diffusion)论文并不直接对像素图像进行扩散过程,而是对图像的压缩版本进行扩散。该论文称之为“转移到潜空间”。

压这种压缩(以及之后的解压缩/绘制)是通过自编码器实现的,自编码器使用编码器将图像压缩到潜在空间中,然后解码器可以重构潜在空间上压缩后的信息获得原图像。

现在,正向扩散过程是在压缩的潜在空间中完成的。噪声片段是应用于这些潜变量的噪声,而不是像素图像。因此,噪声预测器实际上是训练在压缩表示(潜空间)中预测噪声的。

正向过程(使用自编码器的编码器)中我们生成训练噪声预测器所需的数据。训练完毕后,我们就可以通过运行逆向过程(使用自编码器的解码器)来生成图像。

这两个流程在LDM/Stable Diffusion论文的图3中是这么画的:

这张图右边部分还展示了“条件”组件,这个组件是模型生成图像过程中增加文字提示的,现在让我们往下深挖这个图像的文本提示组件:

文本编码器:一种 Transformer 语言模型

Transformer 语言模型作为语言理解组件,能够接受文本提示词并生成 token embeddings。Stable Diffusion 模型使用的是 ClipText(基于 GPT 的模型),而论文中用的是BERT。

谷歌的 Imagen 论文表明,语言模型的选择对图像生成质量是非常重要的。你换个更大的图像生成组件 不如 换个更大的语言模型 对生成图像的质量的影响大。

早期的 Stable Diffusion 模型仅使用了 OpenAI 发布的预训练模型 ClipText。未来模型可能转向新发布的更大的 CLIP 变体 OpenCLIP。(更新于 2022 年 11 月,详情见 Stable Diffusion V2 uses OpenClip。与仅含有 630 万文本模型参数的 ClipText 相比,OpenCLIP 文本模型参数多达 3.54 亿。)

CLIP是如何训练的

CLIP 模型是在图像-文本数据对上训练的。可以将该数据集想象成下图中的形式,只不过该数据集包含了4亿张图像和相应的说明:

实际上,CLIP数据集是网络上抓取的图像及其“alt”标签上的文本。

CLIP 是图像编码器和文本编码器的结合。简单来说,训练过程可以简化为将图像和其说明进行编码。

然后使用余弦相似度比较它们的嵌入向量。

当我们开始训练时,即使文本正确地描述了图像,相似度计算出来也会很低。

所以我们更新这两个模型,以便下一次嵌入它们时,生成的嵌入向量更加相似。

使用较大的batch size在整个数据集上重复这个过程,我们最终得到编码器能够生成嵌入向量,在这些向量中,一张狗的图片和句子“一张狗的照片”是相似的。就像在Word2vec中一样,训练过程还需要包括图像和文本描述不匹配的样本对作为负样,并且需要模型在计算这些负样本的时候给它们较低的相似度分数。

将文本信息融入图像生成过程

为了将文本加到图像生成过程中,我们必须调整噪声预测器,让它能接受文本作为输入。

我们的数据集现在再加上一项:编码的文本。

由于我们在潜在空间中进行计算的,因此输入图像和预测噪声都在潜在空间中。

为了更好地理解文本token在U-net中的使用方式,让我们进一步讲一下U-Net。

无文本的U-net噪声预测器

首先让我们看一下不使用文本的扩散Unet的输入和输出如何:

我们可以看到:

  • U-net是一系列层,用于转换潜在张量
  • 每个层都在前一层的输出上操作
  • 一些输出通过残差连接添加到网络的后续处理中
  • 在每层中会把时间步转换为时间步嵌入向量

带文本的U-net噪声预测器

现在让我们看看如何修改预测器,让它能加上文本内容。

我们需要其支持文本输入(术语:文本控制),主要是在ResNet块之间添加一个注意力层。

请注意,ResNet块不会直接看文本是什么。但是,注意力层可以将这些文本表示合并到潜在表示中。现在,下一个ResNet就可以在其处理中过程中利用这些整合的到潜在表示中的文本信息了。

结语

我希望这篇文章能让你对Stable Diffusion工作原理有一个初步认识,还有很多其他概念,我相信如果你了解了上边讲的内容,那你会很容易理解其他本文中没提到的概念。

下边是我发现的一些比较有用的资源,可以对其进行进一步了解。

其他资源

本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

【翻译】图解Stable Diffusion 的相关文章

随机推荐

  • 数据可视化第三章

    第三章 什么是时间型数据呢 时间型数据类型是 按时间顺序排列的一系列数据值 与一般的定量数据不同 时间型数据包含时间属性 不仅要表达数据随时间变化的规律 还需表达数据分布的时间规律 时间数据可以分为连续型时间数据和离散型时间数据两种 时间数
  • 浅谈MySQL:结构、存储引擎、索引、优化

    MySQL 体系结构 1 模块 1 Connector 用来支持各种语言和 SQL 的交互 比如 PHP Python Java 的JDBC 2 Management Serveices Utilities 系统管理和控制工具 包括备份恢复
  • nginx负载均衡下上传webshell

    目录 反向代理 负载均衡 实验环境 在节点中上传webshell 执行命令的问题 上传工具的问题 由于目标机器不能出外网 想进一步深入 只能使用 reGeorg HTTPAbs 等 HTTP Tunnel 可在这个场景下 这些 tunnel
  • leetcode--31. Next Permutation

    Implement next permutation which rearranges numbers into the lexicographically next greater permutation of numbers If su
  • C++知识积累:继承关系(含虚函数)下类的内存布局

    目录 1 无继承 2 一般继承 2 1 单继承 2 2 多层继承 2 3 多重继承 2 4 菱形继承 3 虚继承 3 1 虚继承的布局 3 2 虚继承的多层继承 3 3 虚继承的菱形继承 总结 1 无继承 类A定义如下 class A pr
  • 编写一个最简单的Windows服务端和客户端程序

    2023年8月4日 周五上午 编译器 我使用vs2022作为编译器 纯享版 服务端负责发送Hello给客户端 客户端负责把Hello接收并打印出来 服务端代码 include
  • 如何将 JSON 转换为有序判断?

    JSON JavaScript Object Notation 是系统之间数据交换的流行格式 它是一种轻量级 基于文本且易于解析的格式 已成为互联网上数据交换的标准 但是 JSON 不会为数据结构中的元素提供任何顺序 虽然这在大多数情况下可
  • linux进入中文乱码的目录下分析文件

    1 查看目录或文件对应的节点 使用命令ls li或ls i 2 进入目录下 使用命令 cd find inum 205129285 参考链接 https www cnblogs com ph829 p 4037929 html
  • Mobile phones 【POJ - 1195】【二维线段树】

    题目链接 关于这道题 我用了二维线段树来做的 但是 我这里又一个疑问 就是我用了个四叉树的线段树的代码却是始终过不了一直在WA 若恰好有大佬经过 能帮小生看一下我不成器的代码吗 先放上讨论哪里错的代码供大家讨论 帮我修改 谢谢 includ
  • 数据库系统原理三

    关系数据模型 1 超码或超键 SuperKey 在码中去除某个属性 它仍然是这个关系的码 关系的所有属性的集合 也是这个关系的最大超码或超键 2 候选码或候选键 CandidateKey 在码中不能从中移去任何一个属性 否则它就不再是这个关
  • windows和Linux动态连接器搜索库文件(.dll/.so)目录的顺序

    Windows按下列顺序搜索 DLL 可执行模块所在的目录 GetMoudleFileName Windows 系统目录 GetSystemDirectory 函数检索此目录的路径 Windows 目录 GetWindowsDirector
  • QT中信号与槽函数

    1 connect的四个参数分别为 参数的发送者 发送者要发送的信号 信号的接收者 接收者对应的槽函数 connect ui btnPage1 SIGNAL clicked this SLOT OnPage1 2 自定义信号 1 返回值为v
  • 2022-2027年中国北京养老机构行业市场深度分析及投资战略规划报告

    报告类型 产业研究 报告格式 电子 纸介版 出品单位 华经产业研究院 本报告由华经产业研究院重磅推出 对中国北京养老机构行业的发展现状 竞争格局及市场供需形势进行了具体分析 并从行业的政策环境 经济环境 社会环境及技术环境等方面分析行业面临
  • 真吓人 chatGPT-4 几分钟搞定我3天工作量

    大家好 我是北妈 一 前些天只是在凑热闹 调戏chat和他对话 问他一些问题 看看它到底是不是弱智 但自从发布了GPT 4 0智能 直接全起飞了 我花20美金 月 买入PLUS 账号 主要是申请开发者权限 用来开发自己的插件或者系统 北妈建
  • try{变量}catch{}中变量无法引用到外部

    try内部定义的对象无法到外部使用 需要在try前声明定义该变量并为null people p2 null 需要添加该代码 try p2 people p1 clone System out println p1 System out pr
  • WebView无法调起支付宝,显示alipays://platformapi/startApp ERR_UNKNOWN_URL_SCHEME

    参考 https www jianshu com p 167457b65f78 一 问题 安卓app通过webview调用支付宝 显示错误信息 alipays platformapi startApp ERR UNKNOWN URL SCH
  • gradle脚本中groovy语法讲解

    文章目录 一 build的生命周期 Glide脚本的生命周期 二 gradle命令 三 gradle的三种对象 四 groovy语法 1 字符串拼接 2 List 3 map 4 定义一个方法 5 定义一个对象 6 闭包 7 环境 8 打签
  • JAVA字符串用两个分隔符分割的实现

    public class Test public static void main String args String s1 abc de f gAB CDE FGH String str1 s1 split for int i 0 i
  • docker 笔记

    docker 命令常用 启动容器的时候 d 后台运行 p 端口映射 宿主机 docker v 卷挂载 e 环境配置 name 容器名字 P 随机映射端口 退出docker的命令 退出docker容器而不关闭它 ctrl p q docker
  • 【翻译】图解Stable Diffusion

    原文信息 翻译自作者V2 Nov 2022版本 原文链接 The Illustrated Stable Diffusion Jay Alammar Visualizing machine learning one concept at a