1 从直觉上理解DDPM
在详细推到公式之前,我们先从直觉上理解一下什么是扩散
对于常规的生成模型,如GAN,VAE,它直接从噪声数据生成图像,我们不妨记噪声数据为\(z\),其生成的图片为\(x\)
对于常规的生成模型:
学习一个解码函数(即我们需要学习的模型)\(p\),实现 $p(z)=x $ \[ z \stackrel{p} \longrightarrow x \] 常规方法只需要一次预测即能实现噪声到目标的映射,虽然速度快,但是效果不稳定。
常规生成模型的训练过程(以VAE为例) \[ x \stackrel{q} \longrightarrow z \stackrel{p} \longrightarrow \widehat{x} \] 对于diffusion model
它将噪声到目标的过程进行了多步拆解。不妨假设一共有\(T+1\)个时间步,第\(T\)个时间步 \(x_T\)是噪声数据,第0个时间步的输出是目标图片\(x_0\)。其过程可以表述为: \[ z = x_T \stackrel{p} \longrightarrow x_{T-1} \stackrel{p} \longrightarrow \cdots \stackrel{p} \longrightarrow x_{1} \stackrel{p} \longrightarrow x_0 \] 对于DDPM它采用的是一种自回归式的重建方法,每次的输入是当前的时刻及当前时刻的噪声图片。也就是说它把噪声到目标图片的生成分成了T步,这样每一次的预测相当于是对残差的预测。优势是重建效果稳定,但速度较慢。
训练整体pipeline包含两个过程
2 diffusion pipeline
2.1前置知识:
高斯分布的一些性质
(1)如果\(X \sim \mathcal{N}(\mu, \sigma^2)\),且\(a\)与\(b\)是实数,那么\(aX+b \sim \mathcal{N}(a\mu+b, (a\sigma)^2)\)
(2)如果$X ((x), ^2(x)) \(,\)Y ((y), ^2(y))\(,且\)X,Y$是统计独立的正态随机变量,则它们的和也满足高斯分布(高斯分布可加性). \[ X+Y \sim \mathcal{N}(\mu(x)+\mu{(y), \sigma^2(x) + \sigma^2(y)}) \\ X-Y \sim \mathcal{N}(\mu(x)-\mu{(y), \sigma^2(x) + \sigma^2(y)}) \] 均值为\(\mu\)方差为\(\sigma\)的高斯分布的概率密度函数为 \[ \begin{eqnarray} f(x) &=& \frac{1}{\sqrt{2\pi} \sigma } \exp \left ({- \frac{(x - \mu)^2}{2\sigma^2} } \right) \nonumber \\ &=& \frac{1}{\sqrt{2\pi} \sigma } \exp \left[ -\frac{1}{2} \left( \frac{1}{\sigma^2}x^2 - \frac{2\mu}{\sigma^2}x + \frac{\mu^2}{\sigma^2} \right ) \right] \end{eqnarray} \]
2.2 加噪过程
1 前向过程:将图片数据映射为噪声
每一个时刻都要添加高斯噪声,后一个时刻都是由前一个时刻加噪声得到。(其实每一个时刻加的噪声就是训练所用的标签)。即 \[ x_0 \stackrel{q} \longrightarrow x_1 \stackrel{q} \longrightarrow x_{2} \stackrel{q} \longrightarrow \cdots \stackrel{q} \longrightarrow x_{T-1} \stackrel{q} \longrightarrow x_T=z \] 下面我们详细来看
记\(\beta_t = 1 - \alpha_t\),\(\beta_t\)随t的增加而增大(论文中1时从0.0001 -> 0.02) (这是因为一开始加一点噪声就很明显,后面需要增大噪声的量才明显).DDPM将加噪声过程建模为(这个是定义式,当然也可以定义成别的!) \[ \begin{eqnarray} x_t &=& \sqrt{\alpha_t}x_{t-1} + \sqrt{(1 - \alpha_t)}z_t \nonumber \\ &=& \sqrt{\alpha_t}x_{t-1} + \sqrt{\beta_t}z_t \end{eqnarray} \] \(x_t\)为在\(t\)时刻的图片,当\(t=0\)时为原图;\(z_t\)为在\(t\)时刻所加的噪声,服从标准正态分布\(z_t \sim \mathcal{N}(0, \textbf{I})\);\(\alpha_t\)是常数,是自己定义的变量;根据高斯分布的定义,\(x_t\)的分布\(q(x_t|x_{t-1})=\mathcal{N}(x_t; \sqrt{\alpha_t}x_{t-1}, (1 - \alpha_t) \textbf{I})\)随着\(T\)增大,\(x_t\)越来越接近纯高斯分布.
同理: \[ x_{t-1} = \sqrt{\alpha_{t-1} }x_{t-2} + \sqrt{1 - \alpha_{t-1} }z_{t-1} \] 将式(9)代入式(8)可得: \[ \begin{eqnarray} x_t &=& \sqrt{\alpha_t} (\sqrt{\alpha_{t-1} }x_{t-2} + \sqrt{1 - \alpha_{t-1} }z_{t-1}) + \sqrt{1 - \alpha_t}z_t \nonumber\\ &=& \sqrt{\alpha_t \alpha_{t-1} }x_{t-2} + (\sqrt{\alpha_t (1 - \alpha_{t-1})} z_{t-1} + \sqrt{1 - \alpha_t}z_t) \end{eqnarray} \] 由于\(z_{t-1}\)服从均值为0,方差为1的高斯分布(即标准正态分布),根据定义\(\sqrt{\alpha_t (1 - \alpha_{t-1})} z_{t-1}\)服从的是均值为0,方差为\(\alpha_t (1 - \alpha_{t-1})\)的高斯分布.即\(\sqrt{\alpha_t (1 - \alpha_{t-1})} z_{t-1} \sim \mathcal{N}(0, \alpha_t (1 - \alpha_{t-1})\textbf{I})\).同理可得\(\sqrt{1 - \alpha_t}z_t \sim \mathcal{N}(0, (1 - \alpha_t)\textbf{I})\).则(高斯分布可加性,可以通过定义推得,不赘述) \[ \begin{eqnarray} (\sqrt{\alpha_t (1 - \alpha_{t-1})} , z_{t-1} + \sqrt{1 - \alpha_t}z_t) \sim \mathcal{N}(0, \alpha_t (1 - \alpha_{t-1}) + 1 - \alpha_t) &=& \mathcal{N}(0, 1 - \alpha_t \alpha_{t-1}) \end{eqnarray} \] 我们不妨记\(\overline{z}_{t-2} \sim \mathcal{N}(0, \textbf{I})\),则\(\sqrt{1 - \alpha_t \alpha_{t-1} } \overline{z}_{t-2} \sim \mathcal{N}(0, (1 - \alpha_t \alpha_{t-1})\textbf{I})\)则式(10)最终可改写为 \[ x_t = \sqrt{\alpha_t \alpha_{t-1} } x_{t-2} + \sqrt{1 - \alpha_t \alpha_{t-1} } \overline{z}_{t-2} \] 通过递推,容易得到 $$ \[\begin{eqnarray} x_t &=& \sqrt{\alpha_t \alpha_{t-1} \cdots \alpha_1} x_0 + \sqrt{1 - \alpha_t \alpha_{t-1} \dots \alpha_1} \overline{z}_0 \nonumber\\ &=& \sqrt{\prod_{i=1}^{t} {\alpha_i} }x_0 + \sqrt{1 - \prod_{i=1}^{t} {\alpha_i} } \overline {z}_0 \nonumber \\ &\stackrel{\mathrm{令} \overline{\alpha}_{t} \prod_{i=1}^{t} {\alpha_i} } = & \sqrt{\overline{\alpha}_{t} }x_0+\sqrt{1 - \overline{\alpha}_{t} }\overline{z}_{0} \end{eqnarray}\] \[ 其中$\overline{z}_{0} \sim \mathcal{N}(0, \mathrm{I})$,$x_0$为原图.从式(13)可见,**我们可以从$x_0$得到任意时刻的$x_t$的分布(14),**而无需按照时间顺序递推!这极大提升了计算效率. \] \[\begin{eqnarray} q(x_t|x_0) &=& \mathcal{N}(x_t; \mu{(x_t, t)},\sigma^2{(x_t, t)}{}\textbf{I}) \nonumber\\ &=& \mathcal{N}(x_t; \sqrt{\overline{\alpha}_{t} }x_0,(1 - \overline{\alpha}_{t})\textbf{I}) \end{eqnarray}\] $$ ⚠️加噪过程是确定的,没有模型的介入. 其目的是制作训练时标签
2.3 去噪过程
给定\(x_T\)如何求出\(x_0\)呢?直接求解是很难的,作者给出的方案是:我们可以一步一步求解.即学习一个解码函数\(p\),这个\(p\)能够知道\(x_{t}\)到\(x_{t-1}\)的映射规则.如何定义这个\(p\)是问题的关键.有了\(p\),只需从\(x_{t}\)到\(x_{t-1}\)逐步迭代,即可得出\(x_0\). \[ z = x_T \stackrel{p} \longrightarrow x_{T-1} \stackrel{p} \longrightarrow \cdots \stackrel{p} \longrightarrow x_{1} \stackrel{p} \longrightarrow x_0 \] 去噪过程是加噪过程的逆向.如果说加噪过程是求给定初始分布\(x_0\)求任意时刻的分布\(x_t\),即\(q(x_t|x_0)\)那么去噪过程所求的分布就是给定任意时刻的分布\(x_t\)求其初始时刻的分布\(x_0\),即\(p(x_0|x_t)\) ,通过马尔可夫假设,可以对上述问题进行化简 \[ \begin{eqnarray} p(x_0|x_t) &=& p(x_0|x1)p(x1|x2)\cdots p(x_{t-1}| x_t) \nonumber \\ &=& \prod_{i=0}^{t-1}{p(x_i|x_{i+1})} \end{eqnarray} \] 如何求\({p(x_{t-1}|x_{t})}\)呢?前面的加噪过程我们大力气推到出了\({q(x_{t}|x_{t-1})}\),我们可以通过贝叶斯公式把它利用起来 \[ p(x_{t-1}|x_t) = \frac{p(x_{t}|x_{t-1})p(x_{t-1})}{p(x_t)} \] ⚠️这里的(去噪)\(p\)和上面的(加噪)\(q\)只是对分布的一种符号记法,它们是等价的.
有了式(17)还是一头雾水,\(p(x_t)\)和\(p(x_{t-1})\)都不知道啊!该怎么办呢?这就要借助模型的威力了.下面来看如何构建我们的模型.
延续加噪过程的推导\(p(x_t|x_0)\)和\(p(x_{t-1}|x_0)\)我们是可以知道的.因此若我们知道初始分布\(x_0\),则 $$ \[\begin{eqnarray} p(x_{t-1}|x_t,x_0) &=& \frac{p(x_{t}|x_{t-1}, x_0)p(x_{t-1}|x_0)}{p(x_t|x_0)} \\ &=& \frac{\mathcal{N}(x_t; \sqrt{\alpha_t}x_{t-1}, (1 - \alpha_t) \textbf{I} ) \mathcal{N}(x_{t-1}; \sqrt{\overline{\alpha}_{t-1} }x_0,(1 - \overline{\alpha}_{t-1}) \textbf{I})} { \mathcal{N}(x_t; \sqrt{\overline{\alpha}_{t} }x_0,(1 - \overline{\alpha}_{t}) \textbf{I} )} \\ &\stackrel{将式(6)代入} \propto & \frac{ \exp \left ({- \frac{(x_t - \sqrt{\alpha_t}x_{t-1} )^2}{2 (1 - \alpha_t)} } \right) \exp \left ({- \frac{(x_{t-1} - \sqrt{\overline{\alpha}_{t-1} }x_0 )^2}{2 (1 - \overline{\alpha}_{t-1})} } \right) } { \exp \left ({- \frac{(x_{t} - \sqrt{\overline{\alpha}_{t} }x_0 )^2}{2 (1 - \overline{\alpha}_{t})} } \right) } \\ &=& \exp \left [-\frac{1}{2} \left ( \frac{(x_t - \sqrt{\alpha_t}x_{t-1} )^2}{1 - \alpha_t} + \frac{(x_{t-1} - \sqrt{\overline{\alpha}_{t-1} }x_0 )^2}{1 - \overline{\alpha}_{t-1} } - \frac{(x_{t} - \sqrt{\overline{\alpha}_{t} }x_0 )^2}{1 - \overline{\alpha}_{t} } \right) \right] \\ &=& \exp \left [ -\frac{1}{2} \left( \left( \frac{\alpha_t}{1-\alpha_t} + \frac{1}{1 - \overline{\alpha}_{t-1} } \right)x^2_{t-1} - \left ( \frac{2\sqrt{\overline{\alpha_{t} } } }{1 - \alpha_t}x_t + \frac{2 \sqrt{\overline{\alpha}_{t-1} } } {1 - \overline{\alpha}_{t-1} }x_0 \right)x_{t-1} + C(x_t, x_0) \right) \right] \end{eqnarray}\] $$
结合高斯分布的定义(6)来看式(22),不难发现\(p(x_{t-1}|x_t,x_0)\)也是服从高斯分布的.并且结合式(6)我们可以求出其方差和均值 \[ \begin{eqnarray} \frac{1}{\sigma_2} &=& \frac{\alpha_t}{1-\alpha_t} + \frac{1}{1 - \overline{\alpha}_{t-1} } \\ \frac{2\mu}{\sigma^2} &=& \frac{2\sqrt{\overline{\alpha_{t} } } }{1 - \alpha_t}x_t + \frac{2 \sqrt{\overline{\alpha}_{t-1} } } {1 - \overline{\alpha}_{t-1} }x_0 \end{eqnarray} \] 可以求得: \[ \begin{eqnarray} \sigma^2 &=& \frac{1 - \overline{\alpha}_{t-1} }{1 - \overline{\alpha}_{t} } (1 - \alpha_t) \nonumber \\ \mu &=& \frac{\sqrt{\alpha_t} (1 - \overline{\alpha}_{t-1})} {1 - \overline{\alpha}_t}x_t + \frac{\sqrt{\overline{\alpha}_{t-1} } (1 - \alpha_t) }{1 - \overline{\alpha}_t}x_0 \end{eqnarray} \] 通过上式,我们可得 \[ p(x_{t-1}|x_t,x_0) = \mathcal{N}(x_{t-1}; \frac{\sqrt{\alpha_t} (1 - \overline{\alpha}_{t-1})} {1 - \overline{\alpha}_t}x_t + \frac{\sqrt{\overline{\alpha}_{t-1} } (1 - \alpha_t) }{1 - \overline{\alpha}_t}x_0 , (\frac{1 - \overline{\alpha}_{t-1} }{1 - \overline{\alpha}_{t} } (1 - \alpha_t)) \textbf{I}) \] 该式是真实的条件分布.我们目标是让模型学到的条件分布\(p_\theta(x_{t-1}|x_t)\)尽可能的接近真实的条件分布\(p(x_{t-1}|x_t, x_0)\).从上式可以看到方差是个固定量,那么我们要做的就是让\(p(x_{t-1}|x_t, x_0)\)与\(p_\theta(x_{t-1}|x_t)\)的均值尽可能的对齐,即
(这个结论也可以通过最小化上述两个分布的KL散度推得) \[ \mathrm{arg} \mathop{min}_\theta \parallel u(x_0, x_t), u_\theta(x_t, t) \parallel \] 下面的问题变为:如何构造\(u_\theta(x_t, t)\)来使我们的优化尽可能的简单
我们注意到\(\mu(x_0, x_t)\)与\(\mu_\theta(x_t, t)\)都是关于\(x_t\)的函数,不妨让他们的\(x_t\)保持一致,则可将\(\mu_\theta(x_t, t)\)写成 \[ \mu_\theta(x_t, t) = \frac{\sqrt{\alpha_t} (1 - \overline{\alpha}_{t-1})} {1 - \overline{\alpha}_t}x_t + \frac{\sqrt{\overline{\alpha}_{t-1} } (1 - \alpha_t) }{1 - \overline{\alpha}_t} f_\theta(x_t, t) \] \(f_\theta(x_t, t)\)是我们需要训练的模型.这样对齐均值的问题就转化成了: 给定\(x_t, t\)来预测原始图片输入\(x_0\).根据上文的加噪过程,我们可以很容易制造训练所需的数据对! (Dalle2的训练采用的是这个方式,可能这就是大力出奇迹吧).事情到这里就结束了吗?
DDPM作者表示直接从\(x_t\)到\(x_0\)的预测数据跨度太大了,且效果一般.我们可以将式(12)做一下变形 \[ \begin{eqnarray} x_t &=& \sqrt{\overline{\alpha}_{t} }x_0+\sqrt{1 - \overline{\alpha}_{t} }\overline{z}_{0} \nonumber \\ x_0 &=& \frac{1}{\sqrt{\overline{\alpha}_{t} } }(x_t - \sqrt{1 - \overline{\alpha}_{t} }\overline{z}_{0}) \end{eqnarray} \] 代入到式(24)中 $$ \[\begin{eqnarray} \mu &=& \frac{\sqrt{\alpha_t} (1 - \overline{\alpha}_{t-1})} {1 - \overline{\alpha}_t}x_t + \frac{\sqrt{\overline{\alpha}_{t-1} } (1 - \alpha_t) }{1 - \overline{\alpha}_t} \frac{1}{\sqrt{\overline{a}_{t} } }(x_t - \sqrt{1 - \overline{a}_{t} }\overline{z}_{0}) \nonumber \\ &=& \frac{\sqrt{\alpha_t} (1 - \overline{\alpha}_{t-1})} {1 - \overline{\alpha}_t}x_t + \frac{(1 - \alpha_t) }{1 - \overline{\alpha}_t} \frac{1}{\sqrt{\alpha}_{t} }(x_t - \sqrt{1 - \overline{\alpha}_{t} }\overline{z}_{0}) \nonumber \\ &\stackrel{合并x_t} =& \frac{\alpha_t(1 - \overline{\alpha}_{t-1}) + (1 - \alpha_t) }{\sqrt{\alpha}_t (1 - \overline{\alpha}_t)}x_t - \frac{\sqrt{1 - \overline{\alpha}_t}(1 - \alpha_t) }{\sqrt{\alpha_t}(1 - \overline{\alpha}_t)}\overline{z}_0 \nonumber \\ &=& \frac{1 - \overline{\alpha}_t}{\sqrt{\alpha}_t (1 - \overline{\alpha}_t)}x_t - \frac{1 - \alpha_t }{\sqrt{\alpha_t}\sqrt{1 - \overline{\alpha}_t} }\overline{z}_0 \nonumber \\ &=& \frac{1}{\sqrt{\alpha}_t}x_t - \frac{1 - \alpha_t }{\sqrt{\alpha_t}\sqrt{1 - \overline{\alpha}_t} }\overline{z}_0 \end {eqnarray}\] \[ 经过这次化简,我们将$\mu{(x_0, x_t)} \Rightarrow \mu{(x_t, \overline{z}_0)}$,其中$\overline{z}_0 \sim \mathcal{N}(0, \textbf{I})$,可以将式(29)转变为 \] (x_t, t) = x_t - f(x_t, t) $$ 此时对齐均值的问题就转化成:给定\(x_t, t\)预测\(x_t\)加入的噪声\(\overline{z}_0\), 也就是说我们的模型预测的是噪声\(f_\theta{(x_t, t)} \simeq \overline{z}_0\)
2.3.1 训练与采样过程
训练的目标就是这两个噪声的尽可能的相近(用MSE或L1-loss). \[ L = \mathrm{arg} \mathop{min}_\theta \parallel \epsilon - \epsilon_{\theta}(x_t, t)\parallel ^2 \] 下图为论文提供的训练和采样过程
2.3.2 采样过程
通过以上讨论,我们推导出\(p_\theta(x_{t-1}|x_t)\)高斯分布的均值和方差.\(p_\theta(x_{t-1}|x_t)=\mathcal{N}(x_{t-1}; \mu_{\theta}(x_t, t), \sigma^2(t) \textbf{I})\),根据文献2从一个高斯分布中采样一个随机变量可用一个重参数化技巧进行近似 $$ \[\begin{eqnarray} x_{t-1} &=& \mu_{\theta}(x_t, t) + \sigma(t) \epsilon,其中 \epsilon \in \mathcal{N}(\epsilon; 0, \textbf{I}) \\ & = & \frac{1}{\sqrt{\alpha_t} } (x_t - \frac{1 - \alpha_t }{\sqrt{1 - \overline{\alpha}_t} }f_\theta(x_t, t)) + \sigma(t) \epsilon \end{eqnarray}\] $$ 式(39)和论文给出的采样递推公式一致.
至此,已完成DDPM整体的pipeline.
还没想明白的点,为什么不能根据(7)的变形来进行采样计算呢? \[ x_{t-1} = \frac{1}{\sqrt{\alpha_t} }x_t - \sqrt{\frac{1 - \alpha_t}{\alpha_t} } f_\theta(x_t, t) \]
3 从代码理解训练&预测过程
3.1 训练过程
参考代码仓库: https://github.com/lucidrains/denoising-diffusion-pytorch/tree/main/denoising_diffusion_pytorch
已知项: 我们假定有一批\(N\)张图片\(\{x_i |i=1, 2, \cdots, N\}\)
第一步: 随机采样\(K\)组成batch,如\(\mathrm{x\_start}= \{ x_k|k=1,2, \cdots, K \}\), \(\mathrm{Shape}(\mathrm{x\_start}) = (K, C, H, W)\)
第二步: 随机采样一些时间步
1 | t = torch.randint(0, self.num_timesteps, (b,), device=device).long() # 随机采样时间步 |
第三步: 随机采样噪声
1 | noise = default(noise, lambda: torch.randn_like(x_start)) # 基于高斯分布采样噪声 |
第四步: 计算\(\mathrm{x\_start}\)在所采样的时间步的输出\(x_T\)(即加噪声).(根据公式12)
1 | def linear_beta_schedule(timesteps): |
第五步: 预测噪声.输入\(x_T,t\)到噪声预测模型,来预测此时的噪声\(\hat{z}_t = \epsilon_\theta(x_T, t)\).论文用到的模型结构是Unet,与传统Unet的输入有所不同的是增加了一个时间步的输入.
1 | model_out = self.model(x, t, x_self_cond=None) # 预测噪声 |
这里面有一个需要注意的点:模型是如何对时间步进行编码并使用的
- 首先会对时间步进行一个编码,将其变为一个向量,以正弦编码为例
1 | class SinusoidalPosEmb(nn.Module): |
- 将时间步的embedding嵌入到Unet的block中,使模型能够学习到时间步的信息
1 | class Block(nn.Module): |
第六步:计算损失,反向传播.计算预测的噪声与实际的噪声的损失,损失函数可以是L1或mse
1 |
|
通过不断迭代上述6步即可完成模型的训练
3.2采样过程
第一步:随机从高斯分布采样一张噪声图片,并给定采样时间步
1 | img = torch.randn(shape, device=device) |
第二步: 根据预测的当前时间步的噪声,通过公式计算当前时间步的均值和方差
1 |
|
第三步: 根据公式(33)计算得到前一个时刻图片\(x_{t-1}\)
1 |
|
通过迭代以上三步,直至\(T=0\)完成采样.