从ImageNet 512×512训练的连续时间一致性模型中选择2步样本

摘要

一致性模型(CMs)是一类强大的基于扩散的生成模型,针对快速采样进行了优化。大多数现有的CMs都是使用离散化时间步长训练的,这会引入额外的超参数,并且容易出现离散化误差。虽然连续时间公式可以缓解这些问题,但它们的成功受到训练不稳定性的限制。为了解决这个问题,我们提出了一个简化的理论框架,该框架将之前扩散模型和CMs的参数化统一起来,确定了不稳定的根本原因。基于这一分析,我们介绍了扩散过程参数化、网络架构和训练目标方面的关键改进。这些变化使我们能够以前所未有的规模训练连续时间CMs,在ImageNet 512×512上达到1.5B参数。我们提出的训练算法仅使用两个采样步骤,在CIFAR-10上实现了2.06的FID得分,在ImageNet 64×64上实现了1.48的FID分数,在ImageNet 512×512上实现了1.88的FIDs分数,将FID分数与现有最佳扩散模型的差距缩小到10%以内。论文地址

引言

扩散模型(Sohl-Dickstein等人,2015Song&Ermon,2019Ho等人,2020Song等人,2021b)彻底改变了生成性人工智能,在图像(Rombach等人,2022Ramesh等人,2022Ho等人,2022)、3D(Poole等人,2022Wang等人,2024Liu等人,2023b)、音频(Liu等人,2033aEvans等,2024)和视频生成(Blattmann等人,2023Brooks等人,2024)方面取得了显著成果。尽管它们取得了成功,但一个显著的缺点是采样速度慢,通常需要几十到几百个步骤来生成一个样本。已经提出了各种扩散蒸馏技术,包括直接蒸馏(Luhman&Luhman,2021Zheng等人,2023b)、对抗蒸馏(Wang等人,2022Sauer等人,2023)、渐进蒸馏(Salimans&Ho,2022)和变分蒸馏(VSD)(Wang等人,2024Yin等人,2024b2024aLuo等人,2024Xie等,2024aSalimans等人,2024b)。然而,这些方法也面临着挑战:由于需要大量的扩散模型样品,直接蒸馏会产生大量的计算成本;对抗性蒸馏引入了与GAN训练相关的复杂性;渐进蒸馏需要多个训练阶段,对于一步或两步生成效果较差;VSD可以产生过于平滑的样本,其多样性有限,在高引导水平下难以实现。

一致性模型(CMs)(Song等人,2023Song&Dhariwal,2023)在解决这些问题方面具有显著优势。它们消除了对扩散模型样本进行监督的需要,避免了生成合成数据集的计算成本。CMs还绕过了对抗性训练,避开了其固有的困难。除了蒸馏,CMs还可以通过一致性训练(CT)从头开始训练,而不依赖于预先训练的扩散模型。之前的工作(Song&Dhariwal,2023Geng等人,2024Luo等人,2023Xie等人,2024a)已经证明了CMs在几步生成中的有效性,特别是在一两步生成中。然而,这些结果都是基于离散时间CMs的,这会引入离散误差,需要仔细调度时间步长网格,从而可能导致样本质量欠佳。相比之下,连续时间CMs避免了这些问题,但面临着训练不稳定的挑战(Song等人,2023Song&Dhariwal,2023Geng等人,2024)。

在这项工作中,我们介绍了简化、稳定和扩大连续时间CM训练的技术。我们的第一个贡献是TrigFlow,这是一种新的公式,将EDM(Karras等人,20222024)和流匹配(Peluchetti,2022Lipman等人,2022)统一起来,大大简化了扩散模型、相关概率流ODE和CMs的公式。在此基础上,我们分析了CM训练中不稳定的根本原因,并提出了一个完整的缓解方案。我们的方法包括在网络架构中改进时间条件和自适应组归一化(adaptive group normalization)。此外,我们重新制定了连续时间CM的训练目标,结合了关键项的自适应加权和归一化,以及渐进退火,以实现稳定和可扩展的训练。

通过这些改进,我们提高了一致性模型在一致性训练和蒸馏中的性能,与之前的离散时间公式相比,取得了相当或更好的结果。我们的模型被称为sCMs,在各种数据集和模型大小上都取得了成功。我们在CIFAR-10、ImageNet 64×64和ImageNet 512×512上训练sCMs,达到了前所未有的规模,有15亿个参数——这是迄今为止训练的最大CM(图2中的样本)。我们证明,sCMs可以随着计算量的增加而有效地扩展,从而以可预测的方式获得更好的样本质量。此外,当与需要更多采样计算的最先进的扩散模型进行比较时,sCM使用两步生成将FID差距缩小到10%以内。此外,我们还证明,当相邻时间步之间的差距缩小到接近连续时间极限时,样本质量就会提高,从而为连续时间 CMs 相对于离散时间变体的优势提供了严谨的理由。此外,我们研究了sCMs和VSD之间的差异,发现sCMs产生的样本更加多样化,与引导更兼容,而VSD往往在更高的指导水平上挣扎。

预备知识

扩散模型

给定一个训练数据集,让 pdp_d 表示其基础数据分布,σd\sigma_d表示其标准偏差。扩散模型通过学习反转噪声过程来生成样本,该过程逐渐将数据样本 x0pdx_0\sim p_d 扰动为噪声版本 xt=αtx0+σtztx_t = \alpha_t x_0 + \sigma_t z_t,其中 ztN(0,I)z_t \sim \mathcal{N}(0,I) 是标准高斯噪声。这种扰动随着 t[0,t]t\in[0,t] 的增加而增加,其中t越大表示噪声越大。

我们考虑了扩散模型的两个最新公式。

EDMKarras等人,20222024)。加噪过程简单地设置 αt=1α_t = 1σt=t\sigma_t = t,训练目标由 Ex0,z,t[w(t)fθ(xt,t)x022]E_{x_0,z,t}[\mathcal{w}(t)||f_{\theta}(x_t,t) - x_0||_2^2] 给出,其中 w(t)\mathcal{w}(t) 是一个加权函数。扩散模型参数化为 fθ(xt,t)=cskip(t)xt+cout(t)Fθ(cin(t)xt,cnoise(t))f_{\theta}(x_t,t) = c_{skip}(t)x_t + c_{out}(t)\mathcal{F}_{\theta}(c_{in}(t)x_t,c_{noise}(t)) ,其中 Fθ\mathcal{F}_{\theta} 是一个具有参数θ的神经网络,cskipc_{skip}coutc_{out}cinc_{in} 和 c_{noise}$ 是手动设计的系数,可确保训练目标在初始化时具有跨时间步长的单位方差。对于采样,EDM求解概率流ODE(PF-ODE)(Song等人,2021b),由 dxtdt=[xtfθ(xt,t)]/t\frac{dx_t}{dt} = [x_t - f_{\theta}(x_t,t)]/t 定义,从 xtN(0,T2I)x_t\sim\mathcal{N}(0,T^2I) 开始,在 x0x_0 处停止。

流匹配。加噪过程使用可微系数 αt\alpha_tσt\sigma_t ,时间导数由 αt\alpha_t^{'}σt\sigma_t^{'} 表示(通常,αt=1t\alpha_t^{'} =1−tσt=t\sigma_t^{'}=t )。训练目标由 Ex0,z,t[(w(t)Fθ(xt,t)(αt+σtz)22]E_{x_0,z,t}[(\mathcal{w}(t)||\mathrm{F}_{\theta}(x_t,t) - (\alpha_t^{'} + \sigma_t^{'}z)||_2^2] 给出,其中 w(t)\mathcal{w}(t) 是一个加权函数,FθF_{\theta} 是一个由θ参数化的神经网络。采样过程从t=1开始,x1N(0,I)x_1\sim\mathcal{N}(0,I) ,求解从t=1到t=0的概率流ODE(PF-ODE),由 dxtdt=Fθ(xt,t)\frac{dx_t}{dt} = \mathcal{F}_{\theta}(x_t,t) 定义。

一致性模型

一致性模型(CMs)(Song等人,2023Song&Dhariwal,2023)是一种神经网络 fθ(xt,t)\mathcal{f}_{\theta}(x_t,t) ,经过训练,通过遵循从 xtx_t 开始的PF-ODE的采样轨迹,直接一步将有噪声的输入 xtx_t 映射到相应的干净数据 x0x_0 。一个有效的 fθf_{\theta} 必须满足边界条件 fθ(x,0)xf_{\theta}(x,0) \equiv x 。满足这一条件的一种方法是将一致性模型参数化为 fθ(xt,t)=cskip(t)xt+cout(t)Fθ(cin(t)xt,cnoise(t))f_{\theta}(x_t,t) = c_{skip}(t)x_t + c_{out}(t)\mathrm{F}_{\theta}(c_{in}(t)x_t,c_{noise}(t)) ,其中 cskip(0)=1c_{skip}(0) = 1cout(0)=0c_{out}(0) = 0 。CMs经过训练,在相邻的时间步上具有一致的输出。根据如何选择附近的时间步长,有两类一致性模型,如下所述。

离散时间CMs。训练目标在两个相邻的有限距离时间步上定义:

Ext,t[w(t)d(fθ(xt,t),fθ(xtt,tt))],(1)E_{x_t, t}[\mathcal{w}(t)d(\mathcal{f}_{\theta}(x_t,t), \mathcal{f}_{\theta^{-}}(x_{t-\triangle\mathrm{t}},t - \triangle\mathrm{t}))]\,, \tag{1}

其中 θ\theta^− 表示 stopgrad(θ)\mathcal{stopgrad}(\theta)wtw_t 是加权函数,t>0\triangle\mathrm{t}\gt\mathrm{0} 是相邻时间步长之间的距离,d(,)d(\cdot,\cdot) 是度量函数;常见的选择是 l2\mathcal{l}_2 损失 d(x,y)=xy22d(x,y) = ||x−y||_2^2 ,伪Huber损失 d(x,y)=xy22+c2cd(x,y) = \sqrt{||x-y||_2^2 + c^2} -cSong&Dhariwal,2023),c>0, 以及LPIPS损失(Zhang等人,2018)。离散时间CMs对 t\triangle\mathrm{t} 的选择很敏感,因此需要手动设计退火时间表(Song&Dhariwal,2023Geng等人,2024)以实现快速收敛。前一时间步长 ttt - \triangle t 处的噪声样本 xttx_{t-\triangle t} 通常是通过使用步长为 t\triangle t 的数值ODE求解器求解PF-ODE而从 xtx_t 中获得的,这可能会导致额外的离散化误差。

连续时间CMs。当使用 d(x,y)=xy22d(x,y) = ||x - y||_2^2 并取极限 t0\triangle t \rightarrow 0 时,Song等人(2023)表明,方程(1)相对于 θ\theta 的梯度收敛到

θExt,t[w(t)fθT(xt,t)dfθ(xt,t)dt],(2)\triangledown_{\theta}\mathrm{E}_{x_t,t}[\mathcal{w}(t)\mathcal{f}_{\theta}^T(x_t,t)\frac{d\mathcal{f}_{\theta}-(x_t,t)}{dt}]\,, \tag{2}

其中 dfθ(xt,t)dt=xtfθ(xt,t)dxtdt+tfθ(xt,t)\frac{d\mathcal{f}_{\theta^-}(x_t,t)}{dt} = \triangledown_{x_t}\mathcal{f}_{\theta^-}(x_t,t)\frac{dx_t}{dt} + \partial_{t}\mathcal{f}_{\theta^-}(x_t,t)fθ\mathcal{f}_{\theta^-} 沿着PF-ODE dxtdt\frac{dx_t}{dt}轨迹在 (xt,t)(x_t,t) 的切线 。值得注意的是,连续时间CMs不依赖于ODE求解器,这避免了离散化误差,并在训练过程中提供了更准确的监督信号。然而,之前的工作(Song等人,2023Geng等人,2024)发现,训练连续时间CMs,甚至具有极小 t\triangle t 的离散时间CMs,在优化中会出现严重的不稳定性。这极大地限制了连续时间CM的实证性能和采用。

一致性蒸馏和一致性训练。离散时间和连续时间CMs都可以使用一致性蒸馏(CD)或一致性训练(CT)进行训练。在一致性蒸馏中,通过从预训练的扩散模型中提取知识来训练CM。该扩散模型提供了PF-ODE,可以直接插入方程(2)中,用于训练连续时间CMs。此外,通过数值求解PF-ODE以从 xtx_t 获得 xttx_{t−\triangle t} ,还可以通过方程(1)训练离散时间CMs。相比之下,一致性训练(CT)从头开始训练CM,而不需要预训练的扩散模型,这使CMs本身成为一个独立的生成模型家族。具体来说,CT在离散时间CMs中将 xttx_{t-\triangle t} 近似为 xtt=αttx0+σttzx_{t-\triangle t}= \alpha_{t-\triangle_t}x_0 + \sigma_{t-\triangle_t}z ,在采样 xt=αtx0+σtzx_t = \alpha_t x_0 + \sigma_t z 时重用相同的数据 x0x_0 和噪声z。在连续时间限制下,当 t0\triangle t \rightarrow 0 时,这种方法产生了PF-ODE dxtdt=αtx0+σtz\frac{dx_t}{dt} = \alpha_t^{'}x_0 + \sigma_t^{'}z 的无偏估计,从而得到了训练连续时间CMs的方程(2)的无偏估算。

简化连续时间一致性模型

先前的一致性模型(CMs)采用EDM(Karras等人,2022)中的模型参数化和扩散过程公式。具体来说,CMs被参数化为 fθ(xt,t)=cskip(t)xt+cout(t)Fθ(cin(t)xt,cnoise(t))\mathcal{f}_{\theta}(x_t,t) = c_{skip}(t)x_t + c_{out}(t)\mathrm{F}_{\theta}(c_{in}(t)x_t, c_{noise}(t)) ,其中 Fθ\mathrm{F}_{\theta} 是一个具有参数 θ\theta 的神经网络。系数 cskip(t)c_{skip}(t)cout(t)c_{out}(t)cin(t)c_{in}(t) 是固定的,以确保在初始化时扩散目标的方差在所有时间步长上都是均衡的,cnoist(t)c_{noist}(t) 则是t的变换,以获得更好的时间调节。由于EDM扩散过程是方差爆炸(Song等人,2021b),这意味着xt=x0+tztx_t = x_0 + tz_t ,我们可以推导出 cskip(t)=σd2/(t2+σd2)c_{skip}(t) = \sigma_d^2/(t_2 + \sigma_d^2)cout(t)=σdt/σd2+t2c_{out}(t) = \sigma_d\cdot t/\sqrt{\sigma_d^2 + t^2}cin(t)=1/t2+σd2c_{in}(t)= 1/\sqrt{t^2 + \sigma_d^2} [见Karras等人(2022)附录B.6]。尽管这些系数对训练效率很重要,但它们与t和 σd\sigma_d 的复杂算术关系使CM的理论分析变得复杂。

为了简化EDM和随后的CMs,我们提出了TrigFlow,这是一种扩散模型的公式,它保持了EDM的特性,但满足 cskip(t)=cos(t)c_{skip}(t) = \mathcal{cos}(t)cout(t)=sin(t)c_{out}(t) = \mathcal{sin}(t)cin(t)1/σdc_{in}(t)\equiv 1/\sigma_d(附录B中的证明)。TrigFlow是流量匹配(也称为随机插值或校正流量)和v预测参数化(Salimans&Ho,2022)的特例。它与Albergo和Vanden Eijnden(2023、;Albergo等人(2023)Ma等人(2024)提出的三角插值法非常相似,但对其进行了修改,以考虑数据分布 pdp_d 的标准偏差 σd\sigma_d 。由于TrigFlow是流量匹配的特例,同时满足EDM原理,因此它结合了两种公式的优点,同时允许扩散过程、扩散模型参数化、PF-ODE、扩散训练目标和CM参数化都有简单的表达式,如下所述。

扩散过程。给定 x0pd(x0)x_0\sim p_d(x_0)zN(0,σd2I)z\sim\mathcal{N}(0,\sigma_d^2I) ,对于 t[0,π2]t\in[0,\frac{\pi}{2}] ,噪声样本定义为 xt=cos(t)x0+sin(t)zx_t = \mathcal{cos}(t)x_0 + \mathcal{sin}(t)z 。作为特例,先验样本 xπ2N(0,σd2I)x_{\frac{\pi}{2}}\sim\mathcal{N}(0,\sigma_d^2\mathrm{I})

扩散模型和PF-ODE。我们将扩散模型参数化为 fθ(xt,t)=F(xt/σd,cnoise(t))\mathcal{f}_{\theta}(x_t,t) = \mathrm{F}(x_t/\sigma_d,c_{noise}(t)) ,其中 fθ\mathcal{f}_{\theta} 是一个具有参数 θ\theta 的神经网络,cnoise(t)c_{noise}(t) 是t的变换,以便于时间调节。相应的PF-ODE由下式给出

dxtdt=σdFθ(xtσd,cnoise(t)).(3)\frac{d_{x_t}}{dt} = \sigma_d\mathrm{F}_{\theta}(\frac{x_t}{\sigma^d},c_{noise}(t))\,. \tag{3}

扩散目标。在TrigFlow中,训练扩散模型通过最小化

LDiff(θ)=Ex0,z,t[σdFθ(xtσd,cnoise(t))vt22],(4)\mathcal{L}_{Diff}(\theta) = E_{x_0,z,t}[||\sigma_d\mathrm{F}_{\theta}(\frac{x_t}{\sigma_d},c_{noise}(t)) -v_t||_2^2]\,, \tag{4}

其中 vt=cos(t)zsin(t)x0v_t = \mathcal{cos}(t)z − \mathcal{sin}(t)x_0 是训练目标。

一致性模型。如第2.2节所述,有效的CM必须满足边界条件 fθ(x,0)xf_{\theta}(x,0)\equiv x 。为了强制执行此条件,我们使用一阶ODE求解器将CM参数化为方程(3)中PF-ODE的单步解(推导见附录B.1)。具体来说,TrigFlow中的CMs采用以下形式

fθ(xt,t)=cos(t)xtsin(x)σdFθ(xtσd,cnoise(t)),(5)\mathcal{f}_{\theta}(x_t,t) = \mathcal{cos}(t)x_t - \mathcal{sin}(x)\sigma_d\mathrm{F}_{\theta}(\frac{x_t}{\sigma_d},c_{noise}(t))\,, \tag{5}

其中 cnoise(t)c_{noise}(t) 是一个时间变换,我们将讨论推迟到第4.1节。

稳定连续时间一致性模型

训练连续时间CM非常不稳定(Song等人,2023Geng等人,2024)。因此,与先前工作中的离散时间CM相比,它们的性能明显较差。为了解决这个问题,我们在TrigFlow框架的基础上,引入了几个理论上有动机的改进来稳定连续时间CMs,重点是参数化、网络架构和训练目标。

参数化与网络架构

连续时间CMs训练的关键是方程(2),它取决于切线函数 dfθ(xt,t)dt\frac{d\mathcal{f}_{\theta^-}(x_t,t)}{dt} 。在TrigFlow公式下,该切线函数由下式给出

dfθ(xt,t)dt=cos(t)(σdFθ(xtσd,t)dxtdt)sin(t)(xt+σddFθ(xtσd,t)dt),(6)\frac{d\mathcal{f}_{\theta}-(x_t,t)}{dt} = -\mathcal{cos}(t)\big(\sigma_d\mathrm{F}_{\theta^-}(\frac{x_t}{\sigma_d},t) - \frac{dx_t}{dt}\big) - \mathcal{sin}(t)\big(x_t + \sigma_d\frac{d\mathrm{F}_{\theta}-(\frac{xt}{\sigma_d},t)}{dt}\big) \,, \tag{6}

其中 dxtdt{dx_t}{dt} 表示PF-ODE,它要么在一致性蒸馏中使用预训练的扩散模型进行估计,要么在一致性训练中使用从噪声和干净样本计算的无偏估计器进行估计。

为了稳定训练,有必要确保方程(6)中的切线函数在不同的时间步长内是稳定的。根据经验,我们发现 σdFθ\sigma_d\mathrm{F}_{\theta-} 、PF-ODE dxtdt\frac{dx_t}{dt} 和噪声样本 xtx_t 都相对稳定。现在切线函数中唯一剩下的项是 sin(t)dFθdt=sin(t)xtFθdxtdt+sin(t)tFθ\mathcal{sin}(t)\frac{d\mathrm{F}_{\theta^-}}{dt} = \mathcal{sin}(t)\triangledown_{x_t}\mathrm{F}_{\theta^-}\frac{dx_t}{dt} + \mathcal{sin}(t)\partial_t\mathrm{F}_{\theta^-} 。经过进一步分析,我们发现 xtFθdxtdt\triangledown_{x_t}\mathrm{F}_{\theta^-}\frac{dx_t}{dt} 通常是条件良好的,因此不稳定性起源于时间导数 sin(t)tFθ\mathcal{sin}(t)\partial_t\mathrm{F}_{\theta^-} ,可以分解为

sin(t)tFθ1=sin(t)cnoise(t)temb(cnoise)cnoiseFθemb(cnoise),(7)\mathcal{sin}(t)\partial_t\mathrm{F}_{\theta^-1} = \mathcal{sin}(t)\frac{\partial\mathrm{c}_{noise}(t)}{\partial\mathrm{t}}\cdot\frac{\partial\mathcal{emb}(c_{noise})}{\partial\mathrm{c}_{noise}}\cdot\frac{\partial\mathrm{F}_{\theta^-}}{\partial\mathcal{emb}(c_{noise})}\,, \tag{7}

其中 emb()\mathcal{emb}(\cdot) 是指时间嵌入,通常以扩散模型和CMs文献中的位置嵌入(Ho等人,2020Vaswani,2017)或傅里叶嵌入(Song等人,2021bTancik等人,2020)的形式。

下面我们依次描述了稳定方程式(7)中每个分量的改进。

恒等时间转换(cnoise(t) = t)。现有的大多数 CMs 都使用 EDM 公式,而 EDM 公式可直接转换为 TrigFlow 公式,如附录 B.2 所述。具体地,时间变换变为 cnoise(t)=log(σdtant)c_{noise}(t) = \mathcal{log}(\sigma_d\mathcal{tan}t) 。直接推导表明,对于这个 cnoise(t)c_{noise}(t) ,只要 tπ2t\rightarrow\frac{\pi}{2}sin(t)tcnoise(t)=1/cos(t)\mathcal{sin}(t)\cdot\partial_t\mathrm{c}_{noise}(t) = 1/\mathcal{cos}(t) 就会爆炸。为了减轻数值不稳定性,我们建议使用 cnoise(t)=tc_{noise}(t) = t 作为默认的时间变换。
位置时间嵌入。对于 emb(c)=sin(s2πwc+ϕ)\mathcal{emb}(c) = \mathcal{sin}(s\cdot 2\pi\mathcal{w}\cdot c + \phi) 形式的一般时间嵌入,我们有 cemb(c)=s2πwcos(s2πwc+ϕ)\partial_c\mathcal{emb}(c) = s\cdot2\pi\mathcal{w}\mathcal{cos}(s\cdot\mathrm{2}\pi\mathcal{w}\cdot\mathrm{c} + \phi) 。随着傅里叶尺度s的增大,这种导数的幅度也会增大,振荡也会更加剧烈,从而导致更严重的不稳定性。为了避免这种情况,我们使用了位置嵌入,在傅里叶嵌入中,这相当于s≈0.02。这一分析为Song和Dhariwal(2023)的观察结果提供了原则性的解释。
自适应双归一化Song和Dhariwal(2023)发现,AdaGN层(Dhariwal&Nichol,2021),定义为 y=norm(x)s(t)+b(t)y = \mathcal{norm}(x)\odot\mathcal{s}(t) + b(t) ,对CM训练产生负面影响。我们的修改是自适应双归一化,定义为 y=norm(x)pnorm(s(t))+pnorm(b(t))y = \mathcal{norm}(x)\odot\mathcal{pnorm}(s(t)) + \mathcal{pnorm}(b(t)) ,其中 pnorm()\mathcal{pnorm}(\cdot) 表示像素归一化(Karras,2017)。根据经验,我们发现它保留了AdaGN在扩散训练中的表达能力,但消除了其在CM训练中的不稳定性。
如图4所示,我们可视化了我们的技术如何稳定在CIFAR-10上训练的CM的时间导数。根据经验,我们发现这些改进有助于稳定CM的训练动态,而不会损害扩散模型训练(见附录G)。

不同公式的稳定性

训练目标

使用第3节中的TrigFlow公式和第4.1节中提出的技术,方程(2)中连续时间CM训练的梯度变为

θExt,t[w(t)σdsin(t)FθT(xtσd,t)dfθ(xt,t)dt].\triangledown_{\theta}\mathrm{E}_{x_t,t}[- \mathcal{w}(t)\sigma_d\mathcal{sin}(t)\mathrm{F}_{\theta}^T(\frac{x_t}{\sigma_d},t)\frac{d\mathcal{f}_{\theta}-(x_t,t)}{dt}]\,.

下面我们提出了其他技术来显式控制这个梯度,以提高稳定性。

切线归一化。如第4.1节所述,CM训练中的大部分梯度方差来自切线函数 dfθdt\frac{d\mathcal{f}_{\theta^-}}{dt} 。我们建议通过用 dfθdt/(dfθdt+c)\frac{d\mathcal{f}_{\theta^-}}{dt}/(||\frac{d\mathcal{f}_{\theta^-}}{dt}|| + c) 替换 dfθdt\frac{d\mathcal{f}_{\theta^-}}{dt} 来显式归一化切线函数,其中我们根据经验设置c=0.1。或者,我们可以将切线剪裁在[-1,1]内,这也限制了它的方差。我们在图5(a)中的结果表明,归一化或裁剪都能显著改善连续时间CM的训练。
自适应加权。先前的工作(Song&Dhariwal,2023Geng等人,2024)手动为CM训练设计加权函数 w(t)\mathcal{w}(t) ,这对于不同的数据分布和网络架构来说可能不是最优的。遵循EDM2(Karras等人,2024),我们建议在训练CM的同时训练一个自适应加权函数,这不仅减轻了超参数调整的负担,而且优于手动设计的加权函数,具有更好的经验性能和可忽略的训练开销。我们方法的关键是观察到 θE[FθTy]=12θE[FθFθ+y22]\triangledown_{\theta}\mathrm{E}[F_{\theta}^T\mathrm{y}] = \frac{1}{2}\triangledown_{\theta}E[||F_{\theta} - F_{\theta^-} + y||_2^2] ,其中y是一个与 θ\theta 无关的任意向量。当使用方程(2)训练连续时间CMs时,我们有 y=w(t)σdsin(t)dfθdty = -\mathcal{w}(t)\sigma_d\mathcal{sin}(t)\frac{d\mathcal{f}_{\theta^-}}{dt} 。这一观察结果使我们能够将方程(2)转换为MSE目标的梯度。因此,我们可以使用Karras等人(2024)中的相同方法来训练自适应加权函数,以最小化MSE损失在时间步长上的方差(详见附录D)。在实践中,我们发现整合先验加权 w(t)=1σdtan(t)\mathcal{w}(t) = \frac{1}{\sigma_d\mathcal{tan}(t)} 可以进一步降低训练方差。通过结合先验加权,我们训练网络 Fθ\mathrm{F}_{\theta} 和自适应加权函数 wϕ(t)\mathcal{w}_{\phi}(t) 通过最小化

LsCM(θ,ϕ):=Ext,t[ewϕ(t)DFθ(xtσd,t)cos(t)dftheta(xt,t)dt22w)ϕ(t)],(8)\mathcal{L}_{sCM}(\theta,\phi) := \mathrm{E}_{x_t,t}[\frac{e^{w_{\phi}(t)}}{D}||\mathrm{F}_{\theta}(\frac{x_t}{\sigma_d},t) - \mathcal{cos}(t)\frac{d\mathcal{f}_{theta^-}(x_t,t)}{dt}||_2^2 - \mathcal{w}){\phi}(t)]\,, \tag{8}

其中D是 x0x_0 的维数,我们从对数正态建议分布(Karras等人,2022)中采样 tan(t)\mathcal{tan}(t),即 eσdtan(t)N(Pmean,Pstd2)\mathcal{e}^{\sigma_d \mathcal{tan}(t)}\sim\mathcal{N}(P_{mean},P_{std}^2) (详见附录G)。

扩散微调和切线预热。对于一致性蒸馏,我们发现微调预训练扩散模型的CM可以加速收敛,这与Song等(2023)耿等(2024)的研究结果一致。回想一下,在方程(6)中,切线 dfθdt\frac{d\mathcal{f}_{\theta^-}}{dt} 可以分解为两部分:第一项 cos(t)(σdFθdxtdt)\mathcal{cos}(t)(\sigma_d\mathrm{F}_{\theta^-} - \frac{dx_t}{dt}) 相对稳定,而第二项 sin(t)(xt+σddFθdt)\mathcal{sin}(t)(x_t + \sigma_d\frac{dF_{\theta^-}}{dt}) 导致不稳定。为了缓解这个问题,我们通过将系数 sin(t)\mathcal{sin}(t) 替换为 rsin(t)r\cdot\mathcal{sin}(t) ,其中r在前10k次训练迭代中从0线性增加到1,逐渐预热第二项。
在所有技术到位的情况下,离散时间和连续时间CM训练的稳定性都大大提高。我们在附录E中提供了离散时间CM的详细算法,并使用相同的设置训练连续时间CM和离散时间CM。如图5(c)所示,在离散时间CM中增加离散步骤N的数量可以通过减少离散误差来提高样本质量,但一旦N变得太大(在N>1024之后)而不会受到数值精度问题的影响,样本质量就会下降。相比之下,连续时间CM在所有N个方面都明显优于离散时间CM,这为选择连续时间CM而不是离散时间CM提供了强有力的理由。我们称我们的模型为sCM(简单、稳定和可扩展),并在附录A中提供了sCM训练的详细伪代码。

扩大连续时间一致性模型

下面,我们通过在各种具有挑战性的数据集上训练大规模sCM来测试前几节中提出的所有改进。

大尺度模型中的切线计算

训练大规模扩散模型的常见设置包括使用半精度(FP16)和Flash Attention(Dao等人,2022Dao,2023)。由于训练连续时间CM需要精确计算切线 dfθdt\frac{d\mathcal{f}_{\theta^-}}{dt} ,我们需要提高数值精度,并支持内存高效的注意力计算,如下所述。

JVP重组。计算 dfθdt\frac{d\mathcal{f}_{\theta^-}}{dt} 涉及计算 dFθdt=xtFθdxtdt+tFθ\frac{d\mathcal{F}_{\theta^-}}{dt} = \triangledown_{x_t}\mathrm{F}_{\theta^-}\cdot\frac{dx_t}{dt} + \partial_t\mathrm{F}_{\theta^-} ,这可以通过 Fθ(cdotσd,)F_{\theta^-}(\frac{cdot}{\sigma_d},\cdot) 与输入向量 (xt,t)(x_t,t) 和切线向量 (dxtdt,1)(\frac{dx_t}{dt},1) 的雅可比向量积(JVP)有效地获得。然而,我们实验发现,当t接近0或 π2\frac{\pi}{2} 时,切线可能会在中间层溢出。为了提高数值精度,我们建议重新安排切线的计算。具体来说,由于方程(8)中的目标包含 cos(t)dfθdt\mathcal{cos}(t)\frac{d\mathcal{f}_{\theta^-}}{dt} ,并且 dfθdt\frac{d\mathcal{f}_{\theta^-}}{dt}sin(t)dFθdt\mathcal{sin}(t)\frac{dF_{\theta^-}}{dt} 成正比,因此我们可以计算JVP为:

cos(t)sin(t)dFθdt=(xtσdFθ)(cos(t)sin(t)dxtdt)+tFθ(cos(t)sin(t)σd),\mathcal{cos}(t)\mathcal{sin}(t)\frac{d\mathrm{F}_{\theta^-}}{dt} = (\triangledown_{\frac{x_t}{\sigma_d}}\mathrm{F}_{\theta^-})\cdot(\mathcal{cos}(t)\mathcal{sin}(t)\frac{dx_t}{dt}) + \partial_t\mathrm{F}_{\theta^-}\cdot(\mathcal{cos}(t)\mathcal{sin}(t)\sigma_d)\,,

这是 Fθ(,)F_{\theta^-}(\cdot,\cdot) 的JVP,具有输入 (xtσd,t)(\frac{x_t}{\sigma_d},t) 和切线 (cos(t)sin(t)dxtdt,cos(t)sin(t)σd)(\mathcal{cos}(t)\mathcal{sin}(t)\frac{dx_t}{dt},\mathcal{cos}(t)\mathcal{sin}(t)\sigma_d) 。这种重新排列大大缓解了中间层的溢出问题,从而在FP16中实现了更稳定的训练。

Flash Attention的JVP。Flash Attention(Dao等人,2022Dao,2023)广泛用于大规模模型训练中的注意力计算,既节省了GPU内存,又提高了训练速度。然而,Flash Attention不计算雅可比向量积(JVP)。为了填补这一空白,我们提出了一种类似的算法(详见附录F),该算法以Flash Attention的风格在单次前向传递中有效地计算softmax自关注及其JVP,显著减少了注意力层中JVP计算的GPU内存使用。

实验

为了测试我们的改进,我们采用一致性训练(简称sCT)和一致性蒸馏(简称sCD)在CIFAR-10(Krizhevsky,2009)、ImageNet 64×64和ImageNet 512×512(Deng等人,2009)上训练和扩展连续时间CM。我们使用FID对样品质量进行基准测试(Heusel等人,2017)。我们遵循CIFAR10上的Score SDE(Song等人,2021b)和ImageNet 64×64和ImageNet 512×512上的EDM2(Karras等人,2024)的设置,同时根据第4.1节更改参数化和架构。我们采用Song等人(2023)提出的方法,使用固定中间时间步长t=1.1对sCT和sCD进行两步采样。对于ImageNet 512×512上的sCD模型,由于教师扩散模型依赖于无分类器引导(CFG)(Ho&Salimans,2021),我们在模型Fθ中加入了额外的输入s来表示引导量表(Meng等人,2023)。我们通过均匀采样s∈[1,2]并在蒸馏过程中将相应的CFG应用于教师模型来用sCD训练模型(更多细节见附录G)。对于sCT模型,我们不测试CFG,因为它与一致性训练不兼容。

sCM的训练计算。我们在所有数据集中使用与教师扩散模型相同的批量大小。sCD每次训练迭代的有效计算量大约是教师模型的两倍。我们观察到,来自sCD的两步样本的质量迅速收敛,使用不到20%的教师培训计算,获得了与教师扩散模型相当的结果。在实践中,我们只需使用sCD进行20k次微调迭代,就可以获得高质量的样本。

基准。在表1和表2中,我们通过对FID和功能评估(NFE)的数量进行基准测试,将我们的结果与之前的方法进行了比较。首先,sCM优于之前所有不依赖于与另一个网络联合训练的几步方法,与对抗训练的最佳结果相当,甚至超过。值得注意的是,ImageNet 512×512上sCD XXL的一步FID超过了StyleGAN XL(Sauer等人,2022)和VAR(Tian等人,2024a)。此外,sCD XXL的两步FID优于除扩散之外的所有生成模型,并且与需要63个连续步骤的最佳扩散模型相当。其次,两步sCM模型将FID与教师扩散模型的差距显著缩小到10%以内,在CIFAR-10上实现了2.06的FID(与2.01的教师FID相比),在ImageNet 64×64上实现了1.48(教师FID为1.33),在Image Net 512×512上实现了1.88(教师FID为1.73)。此外,我们观察到sCT在较小尺度上更有效,但在较大尺度上方差增加,而sCD在小尺度和大尺度上表现出一致的性能。

无条件CIFAR-10和类条件ImageNet 64×64上的样本质量

类条件ImageNet 512×512上的样本质量。†我们基于EDM2(Karras等人,2024)重新实现了教师扩散模型,但在第4.1节中进行了修改。

规模研究。基于我们改进的训练技术,我们成功地扩展了连续时间CM,而没有训练不稳定性。我们在ImageNet 64×64和512×512上使用EDM2配置(S、M、L、XL、XXL)训练各种尺寸的sCM,并在最佳制导尺度下评估FID,如图6所示。首先,随着模型FLOP的增加,sCT和sCD都显示出样本质量的提高,表明这两种方法都受益于缩放。其次,与sCD相比,sCT在较小分辨率下的计算效率更高,但在较大分辨率下的效率较低。第三,对于给定的数据集,sCD可预测地扩展,在不同模型大小的FID中保持一致的相对差异。这表明sCD的FID以与教师扩散模型相同的速度下降,因此sCD与教师扩散模式一样具有可扩展性。随着教师扩散模型的FID随缩放而减小,sCD和教师模型之间的FID绝对差也减小。最后,FID的相对差异随着采样步骤的增加而减小,两步sCD的样本质量与教师扩散模型的样本质量相当。

与VSD进行比较。变分分数蒸馏(VSD)(Wang等人,2024;Yin等人,2024b)及其多步生成(Xie等人,2024d;Salimans等人,2024a)代表了另一种扩散蒸馏技术,该技术已在高分辨率图像上证明了可扩展性(Yin等人)。我们应用从时间T到0的一步VSD,使用EDM2-M配置微调教师扩散模型,并调整加权函数和建议分布以进行公平比较。如图7所示,我们比较了sCD、VSD、sCD和VSD的组合(通过简单地将两个损失相加)以及通过扫过指导量表的教师扩散模型。我们观察到,VSD具有类似于在扩散模型中应用大引导尺度的伪影:它提高了保真度(如更高的精度分数所证明的),同时降低了多样性(如较低的召回分数所表明的)。随着制导规模的增加,这种影响变得更加明显,最终导致严重的模式崩溃。相比之下,两步sCD的精确性和召回率得分与教师扩散模型的得分相当,导致FID得分优于VSD。
与VSD相比,sCD具有更高的多样性

结论

我们改进的公式、架构和训练目标简化并稳定了连续时间一致性模型的训练,使其能够在ImageNet 512×512上平滑扩展到15亿个参数。我们消除了TrigFlow公式、切线归一化和自适应加权的影响,证实了它们的有效性。结合这些改进,我们的方法证明了跨数据集和模型大小的可预测可扩展性,在大规模上优于其他几步采样方法。值得注意的是,与需要更多采样步骤的最先进的扩散模型相比,我们使用两步生成将FID与教师模型的差距缩小到10%以内。