Elucidating the Design Space of Diffusion-Based Generative Models
TL;DR 精炼摘要
本文构建基于扩散生成模型的模块化设计空间,提出采样、训练及分数网络预处理的改进方法,实现CIFAR-10新SOTA性能(FID1.79)及更快采样速度。其设计提升了预训练模型效率,显著推动扩散模型优化和应用。
摘要
We argue that the theory and practice of diffusion-based generative models are currently unnecessarily convoluted and seek to remedy the situation by presenting a design space that clearly separates the concrete design choices. This lets us identify several changes to both the sampling and training processes, as well as preconditioning of the score networks. Together, our improvements yield new state-of-the-art FID of 1.79 for CIFAR-10 in a class-conditional setting and 1.97 in an unconditional setting, with much faster sampling (35 network evaluations per image) than prior designs. To further demonstrate their modular nature, we show that our design changes dramatically improve both the efficiency and quality obtainable with pre-trained score networks from previous work, including improving the FID of a previously trained ImageNet-64 model from 2.07 to near-SOTA 1.55, and after re-training with our proposed improvements to a new SOTA of 1.36.
思维导图
论文精读
中文精读
1. 论文基本信息 (Bibliographic Information)
- 标题 (Title): Elucidating the Design Space of Diffusion-Based Generative Models (阐明基于扩散的生成模型的设计空间)
- 作者 (Authors): Tero Karras, Miika Aittala, Timo Aila, Samuli Laine (全部来自 NVIDIA 研究院)
- 发表期刊/会议 (Journal/Conference): 本文最初发布于预印本网站 arXiv。这些作者通常在计算机视觉和机器学习领域的顶级会议(如 NeurIPS, CVPR, SIGGRAPH)发表论文,这篇论文的质量和影响力也达到了顶级会议水平。
- 发表年份 (Publication Year): 2022
- 摘要 (Abstract): 作者们认为,当前基于扩散的生成模型的理论和实践过于复杂。为了解决此问题,他们提出了一个清晰划分各项具体设计选择的设计空间。基于此框架,他们对采样过程、训练过程以及分数网络(score networks)的预处理(preconditioning)均提出了改进。这些改进共同作用,在 CIFAR-10 数据集上取得了当时最先进的 FID 分数:有类别条件设置下为 1.79,无条件设置下为 1.97,并且采样速度远超以往设计(每张图片仅需 35 次网络评估)。为了证明其改进的模块化特性,他们还展示了这些设计能显著提升先前工作的预训练模型的效率和质量,例如将一个预训练的 ImageNet-64 模型的 FID 从 2.07 提升至接近 SOTA 的 1.55,并在重新训练后达到新的 SOTA 1.36。
- 原文链接 (Source Link):
-
arXiv 链接: https://arxiv.org/abs/2206.00364
-
发布状态: 预印本 (Preprint)。
-
2. 整体概括 (Executive Summary)
-
研究背景与动机 (Background & Motivation - Why):
- 核心问题: 基于扩散的生成模型虽然效果强大,但其理论和实践被各种复杂、紧密耦合的公式和推导所束缚,形成了一个“黑箱”。研究者们难以理解不同设计选择(如噪声调度、采样器、网络结构等)之间的关系,也难以独立地对某个部分进行改进。
- 重要性与空白: 当时的扩散模型研究往往将一个新模型包装成一个“理论上完美但不可分割”的整体,这阻碍了创新和工程实践。例如,一个模型的采样算法似乎是为其特定的训练方式量身定制的,无法轻易更换或改进。这种“强耦合”的设计哲学掩盖了真正的设计自由度,使得模型的优化变得困难。
- 切入点: 本文反其道而行之,从一个更实用、更工程化的视角出发,试图将扩散模型拆解为一系列独立的、模块化的组件。作者们的目标是建立一个统一的框架,清晰地展示每个组件(如采样器、噪声调度、网络预处理)有哪些设计选项,并证明这些选项可以在很大程度上独立优化,从而“阐明”整个设计空间。
-
核心贡献/主要发现 (Main Contribution/Findings - What):
-
提出统一且模块化的设计框架: 论文构建了一个通用的 ODE (常微分方程) 框架,能够统一描述多种主流扩散模型(如 DDPM、NCSN++)。在这个框架下,模型的各个部分——ODE 求解器、时间步长、噪声/信号缩放调度、网络预处理等——都变成了可以独立选择和替换的模块。
-
采样过程的显著优化:
- 高阶求解器: 证明了使用二阶龙格-库塔法(具体为 Heun 方法)代替常用的一阶欧拉法,可以在同等图像质量下,大幅减少网络评估次数 (NFE),即加快采样速度。
- 最佳噪声调度: 论证了最简单的线性噪声调度 是最优选择,因为它能使 ODE 的解路径更“直”,从而减小数值求解的截断误差。
- 改进的随机采样器: 设计了一种新的随机采样算法,通过在特定噪声范围内引入“搅动”(churn),有效修正采样误差,进一步提升了图像质量。
-
训练过程的系统性改进:
- 原则性的网络预处理: 提出了一套全新的网络输入、输出和跳跃连接的缩放函数,旨在使网络在不同噪声水平下都能处理具有稳定方差的输入和目标,从而稳定训练并提升性能。
- 优化的损失权重与噪声分布: 设计了新的损失权重方案和训练噪声采样分布(对数正态分布),将模型的“注意力”集中在对图像生成最关键的噪声区间,显著提高了训练效率和最终模型质量。
-
刷新多项 SOTA 记录: 综合上述改进,论文在多个标准数据集上取得了当时最先进的图像生成质量(以 FID 衡量),同时采样速度大幅提升。这证明了其模块化设计思想的巨大成功。
-
3. 预备知识与相关工作 (Prerequisite Knowledge & Related Work)
-
基础概念 (Foundational Concepts):
- 扩散模型 (Diffusion Models): 一类生成模型。其核心思想分为两个过程:1) 前向过程 (Forward Process): 从一张真实图像开始,逐步、多次地向其添加少量高斯噪声,直到图像完全变成纯噪声。2) 反向过程 (Reverse Process): 训练一个神经网络,学习“撤销”这个加噪过程。从一个纯噪声图像开始,网络逐步地去除噪声,最终生成一张清晰的图像。
- 分数函数 (Score Function): 在数学上,分数函数定义为数据点概率密度对数对数据点本身的梯度,即 。它的直观含义是指向概率密度增长最快的方向的向量。在扩散模型中,我们关心的是被噪声污染的数据分布 的分数函数,它指引着如何从一个噪声样本 移动以增加它像“带噪真实图像”的概率。
- 去噪分数匹配 (Denoising Score Matching): 一种训练神经网络来估计分数函数的技术。一个关键的理论是,一个最优的 L2 去噪器 (即能从带噪图像 中最好地恢复出原始图像)与分数函数之间有一个简单的关系:。这意味着,我们只需训练一个去噪网络 (Denoiser),就可以间接得到分数函数。这比直接估计分数函数要容易得多。
- SDE 和 ODE:
- 随机微分方程 (SDE - Stochastic Differential Equation): 用于描述包含随机过程的系统随时间演化的方程。在扩散模型中,它精确地模拟了带随机性的反向去噪过程,每一步既去噪又引入新的随机噪声。
- 常微分方程 (ODE - Ordinary Differential Equation): 描述没有随机性的系统演化的方程。在扩散模型中,存在一个与 SDE 对应的“概率流 ODE” (Probability Flow ODE),它定义了一个从噪声到图像的确定性路径。给定同一个初始噪声,沿 ODE 路径总能得到完全相同的最终图像。
-
前人工作 (Previous Works):
- Song et al. [49]: 提出了一个统一的 SDE 框架,将之前的
DDPM和NCSN等模型归纳为该框架的特例,即VP-SDE(方差保持) 和VE-SDE(方差爆炸)。本文大量借鉴并简化了这个框架,并直接使用其预训练模型进行对比实验。 - Ho et al. [16] (DDPM): 提出了去噪扩散概率模型,是现代扩散模型的代表作之一。其采样过程是离散的、随机的。
- Song et al. [47] (DDIM): 提出了去噪扩散隐式模型,它展示了可以从一个训练好的
DDPM模型中推导出一个确定性的采样过程(即一个 ODE),并且采样速度可以更快。本文采纳的 调度就源于DDIM的思想。 - Dhariwal & Nichol [9] (ADM): 提出了改进的扩散模型架构和有分类器引导的生成技术,在 ImageNet 上取得了巨大成功。本文也使用其预训练模型进行实验,验证了自身改进的普适性。
- Song et al. [49]: 提出了一个统一的 SDE 框架,将之前的
-
技术演进 (Technological Evolution): 扩散模型的发展经历了从离散时间步的概率模型 (
DDPM) 到连续时间的 SDE/ODE 框架 (Song et al. [49]) 的演进。这使得理论更加统一和优雅,但正如本文所指出的,也让实践变得更加“纠结”和“不透明”。研究者们倾向于从复杂的随机过程理论出发来推导模型,导致最终的算法看起来环环相扣,难以修改。 -
差异化分析 (Differentiation): 本文的核心差异化在于其研究哲学。它摒弃了“理论推导一切”的思路,而是采取了“实践检验一切”的工程化视角。它假设扩散模型的各个组件(采样器、训练策略等)是解耦的 (decoupled),然后通过实验逐一验证和优化每个组件的最佳设计。这种“分而治之”的方法最终证明,一个优秀的采样器可以用于各种不同的预训练模型,一个优秀的训练策略也可以搭配不同的网络架构,从而极大地简化了扩散模型的设计和优化过程。
4. 方法论 (Methodology - Core Technology & Implementation Details)
本文的核心方法论可以分为四个部分:统一框架的建立、确定性采样的改进、随机采样的改进以及训练过程的改进。
-
方法原理 (Methodology Principles):
- 统一框架: 核心思想是将扩散模型的生成过程统一描述为一个概率流 ODE。这个 ODE 的解是从一个纯噪声分布演化到目标数据分布的路径。通过数值方法(如欧拉法)求解这个 ODE,就可以实现图像生成。
- 解耦与优化: 框架将整个过程分解为几个可独立设计的模块:
- ODE 本身: 由噪声调度 和信号缩放
s(t)决定。 - ODE 求解器: 如欧拉法、Heun法等,决定了如何从一个时间点移动到下一个时间点。
- 时间步长: 的选择,决定了在哪些噪声水平上进行采样。
- 去噪网络 : 神经网络本身及其预处理方式。
- 训练策略: 损失函数、噪声采样分布等。
- ODE 本身: 由噪声调度 和信号缩放
-
方法步骤与流程 (Steps & Procedures):
A. 统一的 ODE 框架
- 定义含噪分布: 真实数据分布为 。通过向真实样本添加标准差为 的高斯噪声,得到一系列含噪数据分布 。
- 构建概率流 ODE: 作者给出了一个通用的 ODE 公式,描述了样本 如何随时间 演化: 这个公式的核心在于分数函数 ,它指引着去噪的方向。
- 用去噪器替代分数函数: 利用去噪分数匹配的结论,将分数函数替换为神经网络去噪器 : 将此式代入 ODE,就得到了一个完全由神经网络 驱动的可求解的微分方程。生成图像的过程就是从一个大的时间(高噪声) 开始,向 (零噪声)进行数值积分。
B. 确定性采样优化 (Deterministic Sampling)
- 选择 ODE 求解器: 使用 Heun's 2nd-order method。相比于只在当前点 估计一次方向(梯度)的欧拉法,Heun 法会先按欧拉法走一小步到 ,在那个新位置再估计一次方向,然后取两个方向的平均值来更新位置。这相当于一个“预测-校正”过程,精度更高。
- 选择时间步长 : 采用一个带指数 的分布来生成噪声水平序列 ,使得在低噪声区域的步长更密集,在高噪声区域更稀疏。作者发现 是一个很好的经验值。
- 选择噪声调度 和信号缩放
s(t): 选择了最简单的方案: 和 。这使得 ODE 的解路径在几何上更“直”,从而大大减小了数值求解器的误差,允许使用更少的步数达到同样的效果。
C. 随机采样优化 (Stochastic Sampling)
- 设计 "Churn" 过程: 在每个采样步骤 ,首先给当前样本 增加少量新的噪声,将其“推回”到一个稍高的噪声水平 。
- 确定性去噪: 然后从这个新的、更嘈杂的状态 开始,执行一步确定性的二阶 Heun 求解器,直接移动到下一个目标噪声水平 。
- 引入启发式规则: 为了避免随机性带来的图像质量退化,作者引入了几个超参数进行控制,如仅在特定噪声范围
[S_tmin, S_tmax]内开启随机性,并通过S_churn控制随机性强度。
D. 训练与预处理优化
- 设计网络预处理 (Preconditioning): 提出了一个通用的去噪器 结构: 并为四个缩放函数 导出了 principled(有原则的)形式,目标是让网络 的输入和训练目标的方差在所有噪声水平 下都近似为 1。这极大地稳定了训练过程。
- 设计损失权重与噪声分布:
- 损失权重 : 设置为 ,以抵消预处理引入的缩放,使得不同噪声水平对总损失的贡献更加均衡。
- 噪声分布 : 使用对数正态分布 (Log-Normal Distribution),使得模型在训练时更多地关注那些对图像细节形成至关重要的“中等”噪声水平,而不是在几乎纯净或纯噪声的图像上浪费算力。
-
数学公式与关键细节 (Mathematical Formulas & Key Details):
-
网络预处理结构 (Eq. 7):
- : 整个去噪器模型,输入带噪图像 和噪声水平 ,输出去噪后的图像。
- : 核心的神经网络(如 U-Net)。
- : 输入缩放函数,用于在送入网络前归一化带噪图像 。
- : 跳跃连接的缩放函数,将部分输入直接加到输出上。
- : 输出缩放函数,用于调整网络输出的尺度。
- : 噪声水平嵌入函数,将数值 转换为网络可以理解的向量。
-
作者推荐的预处理函数 (来自 Table 1):
- : 训练数据集中所有样本的标准差,是一个常数。
-
时间步采样公式 (Eq. 5):
-
: 离散的噪声水平序列,从 降到 0。
-
: 总的采样步数。
-
: 采样的最小和最大噪声水平。
-
: 控制步长分布的指数。 时为线性间隔, 时,步长在低噪声区域更密集。作者推荐 。
-
-
5. 实验设置 (Experimental Setup)
-
数据集 (Datasets):
- CIFAR-10: 32x32 像素的彩色图像数据集,包含 10 个类别。用于进行有条件和无条件生成任务的全面消融实验。
- ImageNet: 64x64 像素版本,一个大规模、多样的图像数据集。用于验证方法在更复杂任务上的有效性,并与 SOTA 模型进行比较。
- FFHQ (Flickr-Faces-HQ): 64x64 像素版本,高质量人脸数据集。
- AFHQv2 (Animal Faces-HQ v2): 64x64 像素版本,高质量动物面部数据集。
- 选择这些数据集是因为它们是生成模型领域的标准 benchmark,能够全面评估模型的生成质量和多样性。
-
评估指标 (Evaluation Metrics):
-
Fréchet Inception Distance (FID)
- 概念定义 (Conceptual Definition): FID 是一种衡量两组图像(通常是真实图像和生成图像)分布之间相似度的指标。它通过一个预训练的 Inception-V3 网络提取每张图像的深层特征,然后计算这两组特征分布的均值和协方差。FID 分数越低,表示生成图像的分布与真实图像的分布越接近,即生成图像的质量和多样性越高。
- 数学公式 (Mathematical Formula):
- 符号解释 (Symbol Explanation):
- 和 分别代表真实图像分布和生成图像分布。
- 和 分别是真实图像和生成图像在 Inception 网络特征空间中的特征向量的均值。
- 和 分别是对应的协方差矩阵。
- 表示欧几里得距离的平方。
- 表示矩阵的迹(主对角线元素之和)。
-
网络函数评估次数 (NFE - Neural Function Evaluations)
- 概念定义 (Conceptual Definition): NFE 指的是为了生成单张图像,神经网络(即去噪器 )被调用的总次数。这个指标直接衡量了生成过程的计算成本和速度。NFE 越低,采样速度越快。例如,使用欧拉法进行 步采样,NFE 就是 ;使用 Heun 法进行 步采样,NFE 大约是
2N-1。
- 概念定义 (Conceptual Definition): NFE 指的是为了生成单张图像,神经网络(即去噪器 )被调用的总次数。这个指标直接衡量了生成过程的计算成本和速度。NFE 越低,采样速度越快。例如,使用欧拉法进行 步采样,NFE 就是 ;使用 Heun 法进行 步采样,NFE 大约是
-
-
对比基线 (Baselines):
-
预训练模型:
- Song et al. [49]: 他们的
VP(DDPM++) 和VE(NCSN++) 模型,分别在 CIFAR-10 上预训练。 - Dhariwal & Nichol [9]: 他们的
ADM模型,在 ImageNet-64 上预训练。
- Song et al. [49]: 他们的
-
原始采样器: 论文将自己提出的新采样器与这些模型原始论文中使用的采样器进行了比较,包括
Euler-Maruyama随机采样器、predictor-corrector采样器以及iDDPM的随机采样器。这突显了仅通过改进采样器就能带来的巨大提升。
-
6. 实验结果与分析 (Results & Analysis)
-
核心结果分析 (Core Results Analysis):
-
确定性采样的巨大成功 (图 2):
该图像是插图,展示了论文中基于扩散模型生成的CIFAR-10数据集图像样本,体现了模型生成的多样性和清晰度,验证了设计方法的有效性。上图
Figure 2清晰地展示了本文采样改进的威力。- 橙色 vs. 蓝色曲线: 作者在自己统一框架下重新实现的基线采样器(橙色)比原始实现(蓝色)效果略好,证明了框架的有效性。
- 绿色 vs. 橙色曲线: 将求解器从欧拉法升级为 Heun 法(绿色)后,在所有模型上都实现了显著的“左移”,意味着用更少的 NFE 就能达到相同的 FID。
- 红色 vs. 绿色曲线: 进一步将噪声调度改为 (红色)后,
VP和VE模型的性能再次大幅提升。DDIM模型(ImageNet-64)的红绿曲线重合,因为它原本就使用了类似的调度。 - 结论: 仅通过更换采样器和调度,就能将采样效率提升数倍甚至数百倍(如
VE模型),且这种改进是普适的,与模型如何训练无关。
-
随机采样的进一步提升 (图 4):
该图像是多张动物(包括猫、狗、虎和猎豹)面部生成图像的拼贴,展示了基于扩散模型生成的逼真动物图像效果,用以验证论文中提出设计空间改进后的模型生成质量。上图
Figure 4比较了不同的随机采样方法。- 紫色 vs. 黑色虚线: 作者提出的新随机采样器(紫色)在所有模型上均显著优于之前工作的随机采样器(黑色虚线),尤其是在低 NFE 区域。
- 紫色 vs. 红色曲线: 相比于本文的最佳确定性采样器(红色),随机采样(紫色)能够达到更低的 FID(更好的图像质量)。例如,在 ImageNet-64 上,随机采样将 FID 从 2.07(原始)降至 1.55,接近当时的 SOTA 水平。
- 结论: 随机性通过纠正采样误差,可以进一步提升生成质量,但代价是需要小心地调整
S_churn等启发式参数。
-
训练改进带来的 SOTA 结果 (图 5, 表 2):
该图像是一个拼接的示意图,展示了多个动物脸部的图像样本,可能用于说明扩散生成模型在不同类别动物图像生成中的效果或多样性。Figure 5(a)直观展示了作者的训练策略:通过新的损失权重和噪声分布,将训练资源集中在损失能够被有效降低的中间噪声区域。Figure 5(b)和(c)揭示了一个深刻的现象:当模型本身通过改进的训练方法(Our training setup)变得更强大时,对随机采样的依赖性降低了。在 CIFAR-10 上,确定性采样 () 反而成为最优选择。这表明,一个训练得更好的模型,其学到的 ODE 场本身就更精确,不太需要随机性来“纠错”。
-
-
消融实验/参数分析 (Ablation Studies / Parameter Analysis):
-
Table 2 的逐步分析: 以下是论文中 Table 2 的转录结果,展示了训练改进的消融实验。
CIFAR-10 [29] at 32×32 FFHQ [27] 64× 64 Unconditional AFHQv2 [7] 64×64 Unconditional Conditional Unconditional Training configuration VP VE VP VE VP VE VP VE A Baseline [49] (*pre-trained) 2.48 3.11 3.01* 3.77* 3.39 25.95 2.58 18.52 B + Adjust hyperparameters 2.18 2.48 2.51 2.94 3.13 22.53 2.43 23.12 C + Redistribute capacity 2.08 2.52 2.31 2.83 2.78 41.62 2.54 15.04 D + Our preconditioning 2.09 2.64 2.29 3.10 2.94 3.39 2.79 3.81 E + Our loss function 1.88 1.86 2.05 1.99 2.60 2.81 2.29 2.28 F + Non-leaky augmentation 1.79 1.79 1.97 1.98 2.39 2.53 1.96 2.16 NFE 35 35 79 79 -
A -> D: 是基线。调整超参 () 和网络容量 () 带来了一些改进。引入本文提出的预处理 () 后,
VP架构性能稳定,而VE架构在 64x64 数据集上性能大幅提升,证明了新预处理的鲁棒性。 -
D -> E: 这是最关键的一步。在新的预处理基础上,应用本文提出的损失函数和噪声分布 () 后,所有模型和数据集的 FID 都急剧下降,证明了这个组合的强大威力。
-
E -> F: 最后,加入非泄漏数据增强 (),进一步降低了 FID,尤其是在小数据集 CIFAR-10 上,最终达到了 1.79 的 SOTA 记录。
-
结论: 消融实验清晰地证明了本文提出的每个训练改进组件的有效性,尤其是预处理和损失函数的组合是性能飞跃的核心。
-
-
7. 总结与思考 (Conclusion & Personal Thoughts)
-
结论总结 (Conclusion Summary): 这篇论文通过提出一个清晰、模块化的设计空间,成功地“祛魅”了当时看似高深莫测的扩散模型。它系统性地分析并改进了扩散模型的采样和训练两大核心环节。
- 贡献: 提出了一个统一的 ODE 框架,并在此基础上设计了高效的确定性(Heun 法 + )和随机性(Churn 算法)采样器,大幅提升了采样速度和质量。更重要的是,它开创性地提出了一套基于第一性原理的网络预处理和损失函数设计方案,显著提升了模型的训练效率和最终性能,并刷新了 CIFAR-10 和 ImageNet-64 的 SOTA 记录。
- 意义: 本文最大的意义在于其方法论上的范式转变——将扩散模型从一个紧耦合的理论系统,转变为一个由独立、可插拔模块构成的工程系统。这极大地促进了后续研究者对扩散模型特定组件的创新,并为工业界的应用提供了清晰、高效的实践指南。
-
局限性与未来工作 (Limitations & Future Work):
- 随机采样的启发性: 随机采样器虽然效果好,但其引入的
S_churn等超参数依赖经验性网格搜索来确定,缺乏理论指导,这与论文其他部分的“第一性原理”思想有所出入。 - 高分辨率的泛化性: 论文中的实验主要集中在 32x32 和 64x64 的低分辨率图像上。尽管作者相信其贡献是正交的,但这些参数(如 )和设计是否能直接推广到更高分辨率(如 256x256 或 1024x1024)仍需进一步验证。
- 随机性与训练目标的深层关系: 作者指出,随机采样与训练目标之间的精确交互作用仍是一个有趣的开放问题。为什么更好的模型对随机采样的依赖更低?这背后的理论机制值得深入探索。
- 随机采样的启发性: 随机采样器虽然效果好,但其引入的
-
个人启发与批判 (Personal Insights & Critique):
- 启发:
- 化繁为简的力量: 这篇论文是科学研究中“化繁为简”的典范。它没有提出更复杂的数学理论,而是通过清晰的梳理和务实的实验,解决了领域内的一个核心痛点。这启发我们,在面对一个复杂的系统时,首先尝试去理解和解构它,而不是急于添加更多的复杂性。
- 正交化设计的价值: “解耦”或“正交化”设计是现代软件工程的核心思想。本文成功地将其应用于深度学习模型设计中,证明了其巨大价值。这提示我们,在设计新模型时,应思考如何让不同组件的功能更独立,以便于单独测试、优化和替换。
- 第一性原理思维: 论文中对网络预处理的设计,从“稳定输入输出方差”这一基本目标出发,推导出具体的缩放函数,是第一性原理思维的绝佳体现。
- 批判:
- 论文的标题是“阐明设计空间”,但其对随机采样的处理方式(引入多个需要手动调优的启发式参数)在某种程度上又给这个“清晰”的设计空间增添了一丝“模糊”。这部分的设计略显“ad-hoc”(临时性),与论文整体的优雅和简洁风格略有冲突。
- 论文指出其改进可以应用于预训练模型,这非常强大。但这也引出一个问题:如果一开始就使用本文的训练方法,模型会学到怎样的 ODE 场?这个场是否天然地更平滑,从而使采样问题本身变得更简单?论文的结果(图 5)暗示了这一点,但未深入探讨。
- 作者提及了巨大的能源消耗(约 250 MWh),这反映了当时SOTA生成模型研究的高昂成本。其采样效率的提升,实际上也为后续研究在能耗和环保方面做出了贡献。
- 启发:
相似论文推荐
基于向量语义检索推荐的相关论文。