AiPaper
论文状态:已完成

Effective Diffusion Transformer Architecture for Image Super-Resolution

发表:2024/09/29
原文链接PDF 下载
价格:0.10
价格:0.10
已有 5 人读过
本分析由 AI 生成,可能不完全准确,请以原文为准。

TL;DR 精炼摘要

提出DiT-SR扩散Transformer架构,采用U型多尺度层次特征提取和统一各向同性设计,提升计算资源利用效率。引入频率自适应时间步条件模块,强化不同时间步频率信息处理能力。在无预训练下达到并超越先验方法的超分辨率效果。

摘要

Recent advances indicate that diffusion models hold great promise in image super-resolution. While the latest methods are primarily based on latent diffusion models with convolutional neural networks, there are few attempts to explore transformers, which have demonstrated remarkable performance in image generation. In this work, we design an effective diffusion transformer for image super-resolution (DiT-SR) that achieves the visual quality of prior-based methods, but through a training-from-scratch manner. In practice, DiT-SR leverages an overall U-shaped architecture, and adopts a uniform isotropic design for all the transformer blocks across different stages. The former facilitates multi-scale hierarchical feature extraction, while the latter reallocates the computational resources to critical layers to further enhance performance. Moreover, we thoroughly analyze the limitation of the widely used AdaLN, and present a frequency-adaptive time-step conditioning module, enhancing the model's capacity to process distinct frequency information at different time steps. Extensive experiments demonstrate that DiT-SR outperforms the existing training-from-scratch diffusion-based SR methods significantly, and even beats some of the prior-based methods on pretrained Stable Diffusion, proving the superiority of diffusion transformer in image super-resolution.

思维导图

论文精读

中文精读

1. 论文基本信息

1.1. 标题

Effective Diffusion Transformer Architecture for Image Super-Resolution (图像超分辨率的有效扩散Transformer架构)

1.2. 作者

Kun Cheng, Lei Yu, Zhijun Tu, Xiao He, Liyu Chen, Yong Guo, Mingrui Zhu, Nannan Wang, Xinbo Gao, Jie Hu

1.3. 隶属机构

  • 西安电子科技大学综合业务网理论及关键技术国家重点实验室 (State Key Laboratory of Integrated Services Networks, Xidian University)
  • 华为诺亚方舟实验室 (Huawei Noah's Ark Lab)
  • 华为消费者业务集团 (Consumer Business Group, Huawei)
  • 重庆邮电大学重庆图像认知重点实验室 (Chongqing Key Laboratory of Image Cognition, Chongqing University of Posts and Telecommunications)

1.4. 发表年份

2024年(预印本发布时间为 2024-09-29T07:14:16.000Z)

1.5. 摘要

扩散模型 (diffusion models) 在图像超分辨率 (image super-resolution, SR) 领域展现出巨大潜力。目前主流方法主要基于采用卷积神经网络 (convolutional neural networks) 的潜在扩散模型 (latent diffusion models),但很少有工作探索在图像生成中表现出色的 Transformer 架构。本研究提出了一种用于图像超分辨率的有效扩散 Transformer (DiT-SR) 架构,旨在通过从头开始训练 (training-from-scratch) 的方式,达到甚至超越基于先验 (prior-based) 方法的视觉质量。

DiT-SR 整体采用 UU 形架构,并在不同阶段的所有 Transformer 块 (transformer blocks) 中采用统一的各向同性 (uniform isotropic) 设计。UU 形架构有助于多尺度分层特征提取 (multi-scale hierarchical feature extraction),而各向同性设计则将计算资源重新分配到关键层,以进一步提升性能。此外,论文深入分析了广泛使用的自适应层归一化 (Adaptive Layer Normalization, AdaLN) 的局限性,并提出了一种频率自适应时间步条件模块 (frequency-adaptive time-step conditioning module),增强了模型在不同时间步处理不同频率信息的能力。

广泛的实验结果表明,DiT-SR 在现有从头训练的基于扩散的 SR 方法中表现显著优异,甚至在某些方面超越了基于预训练 Stable Diffusion 的先验方法,证明了扩散 Transformer 在图像超分辨率任务中的优越性。

1.6. 原文链接

2. 整体概括

2.1. 研究背景与动机

图像超分辨率 (image super-resolution, SR) 旨在从低分辨率 (low-resolution, LR) 输入图像重建出高分辨率 (high-resolution, HR) 图像。近年来,扩散模型 (diffusion models, DMs) 在图像生成任务中取得了显著的进展,并被广泛应用于图像超分辨率领域。

当前基于扩散的 SR 方法主要分为两类:

  1. 从头训练 (Training-from-scratch) 方法: 这类方法将 LR 图像直接注入扩散模型并从零开始训练,如 SR3LDMResShift 等。它们具有灵活性高、易于根据架构修改进行再训练的优点,非常适合轻量级应用。然而,这些方法通常难以达到基于先验方法所能达到的性能上限,因为后者受益于在海量数据集上经过数千 GPU 日训练所获得的丰富生成先验。

  2. 基于先验 (Prior-based) 方法: 这类方法利用预训练的扩散模型(如 Stable Diffusion)的生成先验来指导图像超分辨率。它们通常能取得出色的视觉效果,但在推理速度上受限,因为冗余的去噪器架构和多步迭代去噪过程导致推理缓慢。虽然一些工作尝试通过知识蒸馏 (knowledge distillation) 来减少去噪步数,但其扩散架构通常无法在不进行大量再训练的情况下进行修改。

    核心问题与挑战: 当前领域面临的核心问题是,如何开发一种从头训练的扩散架构,使其在性能上能与基于先验的方法相媲美,从而平衡性能和灵活性。现有的从头训练方法在性能上通常不及基于先验的方法,而基于先验的方法则缺乏灵活性且推理速度慢。

论文的切入点或创新思路: 受到扩散 Transformer (Diffusion Transformer, DiT) 在图像生成中展现的卓越性能和可扩展性的启发,本文提出将 Transformer 架构引入图像超分辨率领域。然而,不同于直接应用标准 DiT 架构,本文提出了一种结合 UU 形架构和各向同性设计 (isotropic design) 的 DiT-SR 模型,并结合一种新的频率自适应时间步条件模块,旨在克服现有方法的局限性。

2.2. 核心贡献/主要发现

本研究的主要贡献可以总结如下:

  • 提出了 DiT-SR 架构: 首次将 UU 形架构与各向同性设计无缝结合,专门用于图像超分辨率任务。
    • UU 形架构 (U-shaped architecture) 有助于多尺度分层特征提取,这对于图像重建任务至关重要。
    • 各向同性设计 (isotropic design) 在不同阶段的所有 Transformer 块中采用统一的通道数,并将计算资源重新分配到对 SR 任务更关键的高分辨率层,从而在更少的参数和计算量下提升了模型容量和性能。
  • 引入了频率自适应时间步条件模块 AdaFM: 深入分析了广泛使用的 AdaLN (Adaptive Layer Normalization) 在处理频率信息方面的局限性,并提出 AdaFM (Adaptive Frequency Modulation)。AdaFM 通过在频率域进行时间步条件化,自适应地重加权 (reweight) 不同频率成分,增强了模型在不同去噪阶段强调特定频率信息的能力,特别是高频细节的恢复。
  • 实现了从头训练模型的性能突破: 实验证明,DiT-SR 在从头训练的扩散 SR 方法中表现显著优于现有方法。它甚至能够超越一些基于预训练 Stable Diffusion 的先验方法,但参数量仅为其约 5%,实现了性能与灵活性的平衡。这一发现证明了扩散 Transformer 在图像超分辨率领域的优越性。

2.3. CLIPIQA vs. Parameters & FLOPs 对比

以下是论文中展示的 CLIPIQA 与模型参数及 FLOPs 对比图,直观展现了 DiT-SR 在性能和效率上的优势。

Figure 1. Comparisons between the proposed method and the latest SR methods on RealSR dataset. Top: CLIPIQA vs. Parameters. Bottom: CLIPIQA vs. FLOPs. Specifically, "Diff-based SR" refers to diffusio… 该图像是图表,展示了在RealSR数据集上,所提方法与最新图像超分辨率方法在CLIPIQA指标与参数数量(上图)及FLOPs(下图)间的对比。图中区分了基于GAN、扩散模型及先验模型的方法,显示所提方法在性能与资源消耗上的优势。

Figure 1. Comparisons between the proposed method and the latest SR methods on RealSR dataset. Top: CLIPIQA vs. Parameters. Bottom: CLIPIQA vs. FLOPs. Specifically, "Diff-based SR" refers to diffusion-based image super-resolution methods trained from scratch.

3. 预备知识与相关工作

3.1. 基础概念

3.1.1. 图像超分辨率 (Image Super-Resolution, SR)

概念定义: 图像超分辨率是一项计算机视觉任务,旨在从一个或多个低分辨率 (low-resolution, LR) 图像中重建出一个高分辨率 (high-resolution, HR) 图像。其目标是恢复图像的细节、清晰度和纹理,以提升视觉质量。

3.1.2. 扩散模型 (Diffusion Models, DMs)

概念定义: 扩散模型 (diffusion models, DMs) 是一类生成模型,它通过模拟一个逐渐向数据中添加噪声的“正向扩散过程”来学习数据的分布,然后训练一个神经网络来反向“去噪”,从而从纯噪声中生成出高质量的数据样本。

  • 正向扩散过程 (Forward Diffusion Process): 在这个过程中,通过一系列预定义的时间步 t=1,,Tt=1, \dots, T,逐渐向原始数据 x0\mathbf{x}_0 中添加高斯噪声,直到数据完全变为随机噪声 xTN(0,I)\mathbf{x}_T \sim \mathcal{N}(\mathbf{0}, \mathbf{I})。每一步的噪声添加是根据一个预设的方差调度 (variance schedule) αt\alpha_t 进行的。 q(xtx0)=N(xt;αˉtx0,(1αˉt)I)withαˉt=i=0tαi q \left( { { \pmb x } _ { t } } | { \pmb x } _ { \bf 0 } \right) = \mathcal { N } \left( { { \pmb x } _ { t } } ; \sqrt { { { \bar { \alpha } } _ { t } } } { { \pmb x } _ { \bf 0 } } , \left( 1 - { { \bar { \alpha } } _ { t } } \right) { \pmb I } \right) \mathrm { w i t h } { { \bar { \alpha } } _ { t } } = \prod _ { i = 0 } ^ { t } { \alpha _ { i } }
    • 符号解释:
      • q(xtx0)q(\mathbf{x}_t | \mathbf{x}_0): 从原始数据 x0\mathbf{x}_0 到时间步 tt 的加噪数据 xt\mathbf{x}_t 的条件概率分布。
      • N(;μ,Σ)\mathcal{N}(\cdot; \mu, \Sigma): 表示均值为 μ\mu、协方差为 Σ\Sigma 的高斯分布。
      • xt\mathbf{x}_t: 在时间步 tt 时被噪声污染的数据。
      • x0\mathbf{x}_0: 原始的无噪声数据。
      • αˉt\bar{\alpha}_t: 在时间步 tt 时,累积的无噪声信号保持系数,αˉt=i=0tαi\bar{\alpha}_t = \prod_{i=0}^t \alpha_i
      • αi\alpha_i: 在时间步 ii 时,无噪声信号的保持系数,通过预定义的方差调度确定。
      • I\mathbf{I}: 单位矩阵。
  • 反向去噪过程 (Reverse Denoising Process): 训练一个神经网络(通常称为去噪器,denoiser)来学习每一步从 xt\mathbf{x}_t 恢复 xt1\mathbf{x}_{t-1} 的逆向过程。这个去噪器通常预测添加到 x0\mathbf{x}_0 的噪声 ϵ\epsilon,从而推断出 x0\mathbf{x}_0pθ(xt1xt,y0)=N(μθ(xt,y0,t),Σ(xt,t)) p _ { \theta } \left( { { x } _ { t - 1 } } | { { x } _ { t } } , { { y } _ { 0 } } \right) = \mathcal { N } \left( \mu _ { \theta } \left( { { x } _ { t } } , { { y } _ { 0 } } , t \right) , \Sigma \left( { { x } _ { t } } , t \right) \right)
    • 符号解释:
      • pθ(xt1xt,y0)p_{\theta}(\mathbf{x}_{t-1} | \mathbf{x}_t, \mathbf{y}_0): 从加噪数据 xt\mathbf{x}_t 和条件 y0\mathbf{y}_0(在 SR 任务中通常是 LR 图像)恢复前一步数据 xt1\mathbf{x}_{t-1} 的条件概率分布,由参数 θ\theta 的模型学习。
      • μθ(xt,y0,t)\mu_{\theta}(\mathbf{x}_t, \mathbf{y}_0, t): 由去噪器预测的均值。
      • Σ(xt,t)\Sigma(\mathbf{x}_t, t): 协方差矩阵,通常是预定义或模型预测的,在许多扩散模型中是一个常数。

3.1.3. 潜在扩散模型 (Latent Diffusion Models, LDM)

概念定义: LDM 在潜在空间 (latent space) 而非像素空间 (pixel space) 执行扩散过程,显著提高了训练和推理的效率。它通过一个预训练的自编码器 (autoencoder) 将高维图像压缩到低维潜在表示,然后在这个潜在空间进行扩散和去噪,最后再通过解码器将潜在表示恢复为图像。

3.1.4. Transformer

概念定义: Transformer 是一种基于自注意力机制 (self-attention mechanism) 的深度学习模型架构,最初为自然语言处理任务设计,但后来在计算机视觉等领域也取得了巨大成功。其核心是多头自注意力 (Multi-Head Self-Attention, MHSA) 模块和前馈网络 (Feed-Forward Network, FFN)。

  • 自注意力机制 (Self-Attention Mechanism): 允许模型在处理序列中的一个元素时,同时考虑序列中所有其他元素的信息,并根据它们之间的相关性分配不同的权重。 Attention(Q,K,V)=softmax(QKTdk)V \mathrm{Attention}(Q, K, V) = \mathrm{softmax}\left(\frac{QK^T}{\sqrt{d_k}}\right)V
    • 符号解释:
      • QQ: 查询 (Query) 矩阵。
      • KK: 键 (Key) 矩阵。
      • VV: 值 (Value) 矩阵。
      • QKTQ K^T: 查询和键的点积,表示查询与每个键的相似度。
      • dk\sqrt{d_k}: 缩放因子,用于防止点积结果过大,导致 softmax 梯度过小。dkd_k 是键向量的维度。
      • softmax()\mathrm{softmax}(\cdot): 归一化指数函数,将相似度转换为权重。
      • Attention(Q,K,V)\mathrm{Attention}(Q, K, V): 计算得到的加权值,代表了注意力机制的输出。

3.1.5. Diffusion Transformer (DiT)

概念定义: DiT 是一个全 Transformer 架构的扩散模型,它摒弃了传统的 U-Net 去噪器设计,转而采用各向同性 (isotropic) 的 Transformer 块,即所有 Transformer 块具有相同的深度和通道维度,并且在所有分辨率上保持一致的特征图尺寸。DiT 在图像生成任务中展示了优越的可扩展性和性能。

3.1.6. U-Net 架构

概念定义: U-Net 是一种经典的编码器-解码器 (encoder-decoder) 结构,因其形状像字母 UU 而得名。它包含一个下采样路径(编码器)用于捕获上下文信息,和一个上采样路径(解码器)用于精确定位。编码器和解码器之间通过跳跃连接 (skip connections) 连接,这有助于将编码器中捕获的精细空间信息传递给解码器,从而提高重建细节的能力。U-Net 广泛应用于图像分割、去噪和超分辨率等任务。

3.2. 前人工作与技术演进

3.2.1. 扩散模型的超分辨率应用

  • SR3 [38]: 将扩散模型引入图像超分辨率的开创性工作,直接在像素空间进行扩散。
  • LDM [36]: 提升了扩散模型的效率,通过在潜在空间 (latent space) 进行扩散过程,减少了计算量。
  • ResShift [58]: 提出了一种残差偏移 (Residual Shifting) 的扩散过程,通过在 HRLR 图像之间构建马尔可夫链 (Markov chain),而不是纯粹的高斯噪声,从而有效缩短了去噪链的长度,减少了所需的去噪步数。
  • 基于先验的方法: StableSR [45], DiffBIR [29], PASD [55], SeeSR [52] 等利用预训练的 Stable Diffusion 模型作为生成先验,指导 SR 任务,在视觉质量上表现出色。

3.2.2. 扩散模型架构演进

  • U-Net 为主导: 早期的扩散模型 (如 DDPM [16], ADM [6]) 和许多低级视觉任务 (low-level vision tasks) [50, 59] 主要采用 U-Net 架构作为去噪器。U-Net 擅长分层特征提取 (hierarchical feature extraction) 和拥有利于去噪的归纳偏置 (inductive bias)。
  • DiT 范式转变: DiT [34] 提出了一个全新的范式,采用各向同性 (isotropic) 的全 Transformer 架构替代 U-Net。它通过保持恒定的分辨率和通道维度,在图像生成方面展现了卓越的性能和可扩展性。后续工作 [9, 10, 13, 27, 31, 32] 进一步推动了 DiT 的发展。
  • U-ViT [2]: 尝试结合 U-Net 的长跳跃连接 (long skip connections) 和 ViT 的结构,但没有包含上采样 (upsampling) 和下采样 (downsampling) 操作。

3.3. 差异化分析

本文提出的 DiT-SR 与上述工作的主要区别和创新点在于:

  • 架构融合: DiT-SR 并非简单地将 DiT 应用于 SR,而是创造性地将 U-Net整体 U 形结构DiT各向同性 Transformer 块设计相结合。这使得模型既能进行多尺度分层特征提取(UU 形结构),又能利用 Transformer 块的强大建模能力和各向同性设计带来的计算资源重分配优势。
  • 计算资源优化: 传统 U-Net 在低分辨率层使用更大的通道数,而 DiT-SR 观察到高分辨率 DiT 更能从参数扩展中受益,因此在 UU 形结构中,它为所有 Transformer 模块设置了统一的较大通道数,特别是在高分辨率层,从而更有效地利用计算预算。
  • 频率感知条件化: 针对 SR 任务对高频细节恢复的特殊需求,DiT-SR 深入分析了 AdaLN 的局限性,并提出了 AdaFMAdaFM 在频率域而非空间域进行时间步条件化,使得模型能够自适应地关注不同去噪阶段的特定频率信息,这对于 SR 任务至关重要。
  • 性能与灵活性平衡: 现有从头训练的扩散 SR 方法通常性能不如基于先验的方法。DiT-SR 旨在通过其创新的架构设计,在保持从头训练的灵活性和低参数量的同时,将性能提升到能与基于先验的方法相媲美甚至超越的水平。

4. 方法论

本文提出的 DiT-SR (Diffusion Transformer for Image Super-Resolution) 旨在实现从头训练,同时达到与基于先验方法相当的视觉质量。其核心创新在于结合了 UU 形架构、各向同性 Transformer 块设计,以及一种频率自适应的时间步条件模块。

4.1. 方法原理

DiT-SR 的核心思想是利用 Transformer 的强大建模能力和扩散模型的生成优势,同时针对图像超分辨率任务的特点进行优化。它借鉴了 U-Net 的多尺度特征提取能力,并引入 DiT 的可扩展性,通过各向同性设计将计算资源更有效地分配给对 SR 任务至关重要的高分辨率层。此外,针对 SR 任务中频率信息恢复的关键性,设计了 AdaFM 模块来更精细地控制不同去噪阶段的频率调制。

4.2. 核心方法详解

4.2.1. 整体架构

DiT-SR 采用 UU 形编码器-解码器 (encoder-decoder) 结构,但其内部的去噪器模块由 Transformer 块构成。

下图(原文 Figure 3)展示了 DiT-SR 的整体架构,并与其他 DiT 变体进行了对比:

Figure 4. The percentage of FLOPs and parameters for each stage of the U-shaped DiT, both with and without isotropic design, show that more computational resources are allocated to high-resolution st… 该图像是论文中图4的图表,展示了U形DiT网络在不同阶段的FLOPs和参数百分比对比,分别包括带和不带各向同性设计。图表表明更多计算资源分配给高分辨率阶段,带各向同性设计时FLOPs在高分辨率阶段显著增加。

Figure 3. The illustration of DiT-SR architecture. (a) Isotropic DiT (e.g., DiT-XL/2). (b) U-shaped DiT. (c) Our U-shaped DiT with isotropic design. We rethink the isotropic design in DiT and adapt it to the U-shaped architecture, which reallocates computational resource to high-resolution layers Δ(4C2>C3>C2)\Delta (4C_2 > C_3 > C_2) to boost the model capacity.

  • 输入: 低分辨率图像 y\mathbf{y} 和噪声图像 xt\mathbf{x}_t(或残差 e0\mathbf{e}_0 的噪声版本)沿通道维度拼接,并与时间步 tt 一起作为去噪器的输入。
  • 输出: 去噪器预测原始清晰图像 x^0\hat{\mathbf{x}}_0,并通过迭代去噪过程进行细化。
  • U 形结构: 编码器路径逐渐降低特征图分辨率并增加通道维度,而解码器路径则执行相反的操作以重建图像。这种结构有助于捕获不同尺度的上下文信息和细节。
  • 各向同性 Transformer 块设计: 在每个 Transformer 阶段内部,所有 Transformer 块都采用统一的通道配置。

4.2.2. Transformer 块结构

DiT-SR 的 Transformer 块 (transformer block) 结构如下图(原文 Figure 5)所示。

Figure 6. Visualization of the feature maps and their corresponding spectrums before and after applying AdaFM. AdaFM enhances the low-frequency components in the early stages of denoising (peripheral… 该图像是论文中图6展示的示意图,呈现了应用AdaFM前后不同时间步t=T,t=T/2,t=1t=T, t=T/2, t=1下的特征图及其频谱。AdaFM在去噪早期增强低频(频谱外围变暗),晚期增强高频(频谱外围变亮),提升模型对不同时间步频率的响应能力。

Figure 5. The illustration of transformer block in DiT-SR and Adaptive Frequency Modulation (AdaFM). AdaFM injects the time step into the frequency domain and adaptively reweights different frequency components.

每个 Transformer 块包含以下组件:

  1. 多头自注意力 (Multi-Head Self-Attention, MHSA) 机制: 用作空间混合器 (spatial mixer)。为了处理高分辨率输入带来的高计算成本和内存限制,DiT-SR 采用了带有窗口偏移 (window shifting) 的局部注意力 (local attention),而不是原始的全局自注意力。

  2. 多层感知器 (Multi-Layer Perceptron, MLP): 包含两个全连接层和一个 GELU 激活函数,用作通道混合器 (channel mixer)。

  3. 归一化层 (Normalization Layers):MHSAMLP 之前应用组归一化 (Group Normalization)。

  4. 残差连接 (Residual Connections): MHSAMLP 都采用残差连接,有助于训练深层网络。

  5. 自适应频率调制 (Adaptive Frequency Modulation, AdaFM): 在每个归一化层之后集成 AdaFM 模块,用于注入时间步信息。

    Transformer 块的计算公式如下: \begin{array} { r l } & { f _ { t i m e } ^ { 1 } , f _ { t i m e } ^ { 2 } = \mathrm { M L P } _ { \mathrm { t } } ( t ) , } \\ & { X = \mathrm { M H S A } ( \mathrm { A d a F M } ( \mathrm { N o r m } ( X ) , f _ { t i m e } ^ { 1 } ) ) + X , } \\ & { X = \mathrm { M L P } ( \mathrm { A d a F M } ( \mathrm { N o r m } ( X ) , f _ { t i m e } ^ { 2 } ) ) + X . \end{array}

  • 符号解释:
    • tt: 当前的时间步 (time step)。
    • MLPt(t)\mathrm{MLP_t}(t): 一个小型的 MLP 网络,用于将时间步 tt 编码为两个时间步特征向量 ftime1f_{time}^1ftime2f_{time}^2
    • XX: 当前 Transformer 块的输入特征图。
    • Norm(X)\mathrm{Norm}(X): 对特征图 XX 进行归一化操作(例如组归一化)。
    • AdaFM(Norm(X),ftime1)\mathrm{AdaFM}(\mathrm{Norm}(X), f_{time}^1): 应用 AdaFM 模块,将时间步特征 ftime1f_{time}^1 条件化到归一化后的特征上。
    • MHSA()\mathrm{MHSA}(\cdot): 多头自注意力机制。
    • MLP()\mathrm{MLP}(\cdot): 多层感知器。
    • +X+ X: 残差连接。

4.2.3. U 形 DiT 中的各向同性设计

  • U 形架构的集成: DiT-SR 采用了 U-Net 风格的编码器-解码器结构,以实现多尺度特征提取。编码器逐渐降低特征图分辨率并增加通道维度,解码器则反向操作。

  • 各向同性设计原理: DiT-SR 受到两个关键观察的启发:

    1. DiT (例如 DiT-XL/2DiT-XL/4DiT-XL/8) 能够有效地处理不同大小的输入 patch,这类似于 U-Net 中处理不同分辨率的特征。
    2. 高分辨率的 DiT (例如 DiT/2DiT/2) 比低分辨率的 DiT (例如 DiT/8DiT/8) 从扩展中受益更多,即在高分辨率下增加模型容量更有效。
  • 实现方式: DiT-SR 在多尺度 UU 形框架中引入了各向同性设计。具体而言:

    • 每个 Transformer 阶段内的 Transformer 块都在相同的分辨率下操作。
    • 所有阶段内部特征的通道维度被标准化为相同的大小。这意味着高分辨率层和低分辨率层在 Transformer 块内部都使用相同的通道数。
    • 标准化后的通道数被设置得比传统 U-Net 中高分辨率阶段的原始设置更大,但比低分辨率阶段的原始设置小得多
  • 优势: 这种设计原则将计算资源重新分配到对图像超分辨率至关重要的高分辨率层,有效地利用了计算预算,避免了繁琐的调度策略设计,并在参数量远少于传统 U-Net 的情况下,大大提升了 Transformer 架构在多尺度范式中的容量。

    下图(原文 Figure 4)展示了带和不带各向同性设计的 UUDiTFLOPs 和参数分配上的差异,表明更多计算资源被分配到高分辨率阶段。

    Figure 5. The illustration of transformer block in DiT-SR and Adaptive Frequency Modulation (AdaFM). AdaFM injects the time step into the frequency domain and adaptively reweights different frequency… 该图像是论文中图5的示意图,展示了DiT-SR中的Transformer块结构及自适应频率调制模块(AdaFM)。AdaFM通过将时间步注入频率域,实现对不同频率成分的自适应加权。

Figure 4. The percentage of FLOPs and parameters for each stage of the U-shaped DiT, both with and without isotropic design, show that more computational resources are allocated to high-resolution stages.

4.2.4. 频率自适应时间步条件模块 (Frequency-Adaptive Time Step Conditioning, AdaFM)

  • AdaLN 的局限性: 扩散模型在不同时间步使用相同的去噪器,因此时间步条件化 (time-step conditioning) 至关重要。AdaLN (Adaptive Layer Normalization) 是 DiT 中广泛使用且被证明有效的方法。然而,AdaLN 仅在通道维度上调制特征,对所有空间位置应用统一的调制参数。这限制了其有效捕捉去噪过程中独特的时间动态和频率需求的能力,尤其是在 SR 任务中,模型需要在不同阶段关注不同的频率成分(例如,先重建低频结构,再恢复高频纹理)。

  • AdaFM 的提出: 为了克服 AdaLN 的局限性,本文提出了 AdaFM,将时间步调制从空间域 (spatial domain) 转移到频率域 (frequency domain)。

  • AdaFM 工作原理:

    1. 分窗和 FFT: 为了适应不同的输入分辨率并提高效率,首先将空间域特征图 fspatRC×H×Wf_{spat} \in \mathbb{R}^{C \times H \times W} 分割成 p×pp \times p 的窗口 (windows)。然后,在每个窗口内,使用快速傅里叶变换 (Fast Fourier Transform, FFT) 将这些窗口转换为频谱 fspecRH×Wp2×C×p×pf_{spec} \in \mathbb{R}^{\frac{H \times W}{p^2} \times C \times p \times p}
    2. 时间步到频率尺度矩阵: 时间步 tt 被映射到一个 p2p^2 维向量 ftimef_{time},并重塑为频率尺度矩阵 SspecRp×pS_{spec} \in \mathbb{R}^{p \times p}
    3. 频率自适应调制: SspecS_{spec} 用于自适应地重加权 (reweight) 不同的频率成分。
  • 公式推导: 频率 fu,fvf_u, f_v 与频谱中空间位置 (u, v) 的关系为: fu=uH/2H×Fs,fv=vW/2H×Fs, f _ { u } = \frac { u - H / 2 } { H } \times F _ { s } , \quad f _ { v } = \frac { v - W / 2 } { H } \times F _ { s } ,

    • 符号解释:
      • fu,fvf_u, f_v: 分别表示垂直和水平频率。
      • (u, v): 频谱中的空间位置。
      • H, W: 特征图的高度和宽度。
      • FsF_s: 采样频率 (sampling frequency)。 这个关系表明频谱中每个像素的频率成分是确定的,并且只取决于特征图的空间维度,与内容无关。因此,相同的频率尺度矩阵 SspecS_{spec} 可以应用于所有窗口和通道,从而显著提高效率。

    AdaFM 的具体过程公式化为: Sspec=reshape(ftime,p×p),fspec=FFT(P(fspat)),fspec=Sspecfspec,fout=P1(iFFT(fspec)), \begin{array} { r l } & { S _ { s p e c } = \mathrm { { r e s h a p e } } ( { f _ { t i m e } } , p \times p ) , } \\ & { { f _ { s p e c } } = \mathrm { { F F T } } \left( { \mathcal P \left( { { f _ { s p a t } } } \right) } \right) , } \\ & { { f _ { s p e c } ^ { \prime } } = { S _ { s p e c } } \odot { f _ { s p e c } } , } \\ & { { f _ { o u t } } = { \mathcal P ^ { - 1 } } \left( { \mathrm { { i F F T } } \left( { { f _ { s p e c } ^ { \prime } } } \right) } \right) , } \end{array}

    • 符号解释:
      • SspecS_{spec}: 频率尺度矩阵,通过将时间步特征 ftimef_{time} 重塑为 p×pp \times p 矩阵得到。
      • ftimef_{time}: 由时间步 tt 编码而来的 p2p^2 维向量。
      • P(fspat)\mathcal{P}(f_{spat}): 图像分块操作 (patch unfolding),将空间域特征图 fspatf_{spat} 分割成 p×pp \times p 的不重叠块。
      • FFT()\mathrm{FFT}(\cdot): 快速傅里叶变换,将分块后的空间域特征转换为频率域频谱 fspecf_{spec}
      • fspecf_{spec}': 经过 SspecS_{spec} 调制后的频率域频谱。
      • \odot: 逐元素乘法 (element-wise multiplication),表示频率尺度矩阵 SspecS_{spec} 对频谱 fspecf_{spec} 进行调制。
      • iFFT()\mathrm{iFFT}(\cdot): 逆快速傅里叶变换,将调制后的频率域频谱转换回空间域。
      • P1()\mathcal{P}^{-1}(\cdot): 图像重组操作 (patch folding),将分块后的空间域特征重新组合成完整的特征图 foutf_{out}
  • 参数效率: 相比于 AdaLN 需要 dimftime×C×3×2dim_{f_{time}} \times C \times 3 \times 2 (scale, shift, gate for MHSA and MLP) 个映射参数,AdaFM 仅需要 dimftime×p2×2dim_{f_{time}} \times p^2 \times 2 个参数,参数量大大减少。

  • 频率-时间步关联: AdaFM 通过在频率域进行调制,使扩散模型能够自适应地增强或抑制不同时间步的特定频率成分。例如,在去噪早期(时间步较大),模型更关注低频成分(图像结构);在去噪后期(时间步较小),模型则更关注高频成分(图像纹理和细节)。

    下图(原文 Figure 2)展示了扩散模型在不同去噪阶段预测图像的傅里叶频谱,验证了模型对不同频率的关注:

    该图像是论文中关于三种不同Diffusion Transformer架构的示意图,分别为(a)标准DiT,(b)U型DiT,以及(c)本文提出的架构。图中展示了各自Transformer块的层次和特征图尺寸变化,体现了方法在多尺度特征提取上的差异。 该图像是论文中关于三种不同Diffusion Transformer架构的示意图,分别为(a)标准DiT,(b)U型DiT,以及(c)本文提出的架构。图中展示了各自Transformer块的层次和特征图尺寸变化,体现了方法在多尺度特征提取上的差异。

Figure 2. Analysis of images generated at different stages with a diffusion-based super-resolution model [58]. The first row shows the predicted clean images at various steps, while the second row displays the Fourier spectrums of each predicted clean image. The diffusion model initially generates low-frequency components (center part of spectrums) and subsequently generates high-frequency components (peripheral part of spectrums).

下图(原文 Figure 6)进一步可视化了 AdaFM 应用前后特征图及其频谱的变化,说明了其频率调制能力。

Figure 7. Qualitative comparisons of different methods on both synthetic and real-world datasets. 该图像是一张图表,展示了不同方法在合成数据集和真实世界数据集上的超分辨率重建结果对比。每个子图中,左侧为低分辨率输入(LR),右侧依次为各方法输出及高分辨率真实图像(HR)或参考。该图强调了Ours方法在细节恢复上的优越表现。

Figure 6. Visualization of the feature maps and their corresponding spectrums before and after applying AdaFM. AdaFM enhances the low-frequency components in the early stages of denoising (peripheral part of spectrums getting darker) and the high-frequency components in the later stages (peripheral part of spectrums getting brighter), thereby augmenting the diffusion model's ability to emphasize specific frequency at different time steps.

4.2.5. 残差偏移 (Residual Shifting)

本文遵循了 ResShift [58] 中提出的残差偏移扩散范式。

  • 残差定义:e0=y0x0\mathbf{e}_0 = \mathbf{y}_0 - \mathbf{x}_0 表示 LR 图像 y0\mathbf{y}_0HR 图像 x0\mathbf{x}_0 之间的残差。
  • 偏移序列: 引入一个偏移序列 {ηt}t=1T\{\eta_t\}_{t=1}^T,从 η1=0\eta_1 = 0 逐渐增加到 ηT=1\eta_T = 1
  • 前向过程: 基于该序列,前向扩散过程被制定为: q(xtx0,y0)=N(xt;x0+ηte0,κ2ηtI),t=1,2,,T, q ( \pmb { x } _ { t } | \pmb { x } _ { 0 } , \pmb { y } _ { 0 } ) = \mathcal { N } ( \pmb { x } _ { t } ; \pmb { x } _ { 0 } + \eta _ { t } \pmb { e } _ { 0 } , \kappa ^ { 2 } \eta _ { t } \pmb { I } ) , t = 1 , 2 , \cdots , T ,
    • 符号解释:
      • q(xtx0,y0)q(\mathbf{x}_t | \mathbf{x}_0, \mathbf{y}_0): 在给定原始 HR 图像 x0\mathbf{x}_0LR 图像 y0\mathbf{y}_0 的条件下,时间步 tt 的加噪图像 xt\mathbf{x}_t 的条件概率分布。
      • N(;μ,Σ)\mathcal{N}(\cdot; \mu, \Sigma): 均值为 μ\mu、协方差为 Σ\Sigma 的高斯分布。
      • xt\mathbf{x}_t: 在时间步 tt 的加噪图像。
      • x0\mathbf{x}_0: 原始 HR 图像。
      • y0\mathbf{y}_0: LR 图像。
      • e0=y0x0\mathbf{e}_0 = \mathbf{y}_0 - \mathbf{x}_0: LR 图像与 HR 图像之间的残差。
      • ηt\eta_t: 偏移序列中的一个值,随时间步 tt 增加。
      • κ\kappa: 超参数,控制噪声方差。
      • I\mathbf{I}: 单位矩阵。
      • 其中,αt=ηtηt1\alpha_t = \eta_t - \eta_{t-1} 对于 t>1t > 1,且 α1=η1\alpha_1 = \eta_1
  • 去噪过程: 逆向的去噪过程 q(xt1xt,x0,y0)q ( \pmb { x } _ { t - 1 } | \pmb { x } _ { t } , \pmb { x } _ { 0 } , \pmb { y } _ { 0 } ) 被公式化为: pθ(xt1xt,x0,y0)=N(xt1ηt1ηtxt+αtηtfθ(xt,y0,t),κ2ηt1ηtαtI), \begin{array} { r l } & { p _ { \theta } ( { \pmb x } _ { t - 1 } \vert { \pmb x } _ { t } , { \pmb x } _ { 0 } , { \pmb y } _ { 0 } ) = } \\ & { \mathcal { N } \left( { \pmb x } _ { t - 1 } \bigg \vert \frac { \eta _ { t - 1 } } { \eta _ { t } } { \pmb x } _ { t } + \frac { \alpha _ { t } } { \eta _ { t } } { f } _ { \theta } ( { \pmb x } _ { t } , { \pmb y } _ { 0 } , t ) , \kappa ^ { 2 } \frac { \eta _ { t - 1 } } { \eta _ { t } } \alpha _ { t } { \pmb I } \right) , } \end{array}
    • 符号解释:
      • pθ(xt1xt,x0,y0)p_{\theta}(\mathbf{x}_{t-1} | \mathbf{x}_t, \mathbf{x}_0, \mathbf{y}_0): 从当前加噪图像 xt\mathbf{x}_t 和条件(HR 图像 x0\mathbf{x}_0LR 图像 y0\mathbf{y}_0)恢复前一步图像 xt1\mathbf{x}_{t-1} 的条件概率分布,由参数 θ\theta 的去噪器学习。
      • fθ(xt,y0,t)f_{\theta}(\mathbf{x}_t, \mathbf{y}_0, t): 去噪器,直接预测原始清晰图像 x0\mathbf{x}_0。 这种设计通过直接预测 x0\mathbf{x}_0 并利用 LRHR 之间的残差关系,有效缩短了马尔可夫链的长度,从而减少了所需的去噪时间步。本文遵循这一范式来训练扩散模型。

5. 实验设置

5.1. 数据集

本文在 x4x4 真实世界超分辨率任务上评估了所提出的模型。

5.1.1. 训练数据集

  • LSDIR [26]: 一个大规模图像恢复数据集。训练集包含 82991 张图像。

  • DIV2K [1]: 一个包含 2K 高质量图像的基准数据集。

  • DIV8K [11]: 包含 8K 高质量图像的数据集。

  • OutdoorSceneTraining [46]: 用于图像恢复的户外场景训练数据集。

  • Flicker2K [41]: 包含 2K 张图像的数据集。

  • FFHQ [20]: 从该数据集的前 1 万张人脸图像中选择用于训练。

    HR-LR 对生成: 训练过程中,HR 图像被随机裁剪到 256×256256 \times 256 大小,并使用 RealESRGAN [48] 的退化管道 (degradation pipeline) 合成 LR/HR 对。

5.1.2. 测试数据集

  • LSDIR-Test:LSDIR 中划分出的 2000 张图像作为测试集。这些图像被中心裁剪为 512×512512 \times 512,并使用与训练阶段相同的退化管道生成合成 LR/HR 对。
  • RealSR [4]: 包含 100 张由 Canon 5D3Nikon D810 相机捕获的真实图像。
  • RealSet65 [58]: 包含 65 张从常用数据集和互联网收集的低分辨率图像。
  • 盲人脸恢复数据集 (Appendix E):
    • 训练: 使用 FFHQ [20] 数据集中的 70K 高质量人脸图像,分辨率为 1024×10241024 \times 1024,首先调整为 512×512512 \times 512,然后使用 GFPGAN [47] 典型的退化管道合成 LQ 图像。
    • 合成测试集:CelebA-HQ [19] 验证集中随机选择 2000 张 HR 图像作为测试集,并使用 GFPGAN [47] 合成相应的 LQ 图像。
    • 真实世界测试集:
      • LFW [17]: 包含 1,711 张从真实世界来源收集的人脸图像,用于评估人脸识别算法在无约束条件下的性能。
      • WebPhoto [47]: 包含 407 张通过网络爬取的人脸图像,包括一些严重退化的旧照片。
      • WIDER [62]: 包含从 WIDER Face 数据集中选择的 970 张严重退化的人脸图像,具有遮挡、姿态、尺度和光照变化。

5.2. 评估指标

本文采用了多种评估指标来全面衡量模型性能,包括参考指标 (reference-based metrics) 和非参考指标 (non-reference metrics)。

5.2.1. 参考指标

用于有 Ground Truth (真实标注数据) 的数据集。

  • PSNR (Peak Signal-to-Noise Ratio, 峰值信噪比)
    • 概念定义: PSNR 是一种衡量图像质量的客观标准,它通过计算图像的峰值信号与噪声之间的比率来评估图像的失真程度。PSNR 值越高,表示图像失真越小,质量越好。它主要关注像素级的误差。
    • 数学公式: PSNR=10log10(MAXI2MSE) \mathrm{PSNR} = 10 \cdot \log_{10} \left( \frac{MAX_I^2}{\mathrm{MSE}} \right) 其中,MSE\mathrm{MSE} (Mean Squared Error, 均方误差) 的计算公式为: MSE=1mni=0m1j=0n1[I(i,j)K(i,j)]2 \mathrm{MSE} = \frac{1}{mn} \sum_{i=0}^{m-1} \sum_{j=0}^{n-1} [I(i,j) - K(i,j)]^2
    • 符号解释:
      • MAXIMAX_I: 图像中像素的最大可能值(例如,对于 8 位图像,通常为 255)。
      • I(i,j): 原始图像中像素 (i,j) 的值。
      • K(i,j): 经过处理(例如超分辨率重建)图像中像素 (i,j) 的值。
      • m, n: 图像的行数和列数。
  • LPIPS (Learned Perceptual Image Patch Similarity, 学习感知图像块相似度) [61]
    • 概念定义: LPIPS 是一种基于深度学习的感知图像质量评估指标,旨在更好地与人类的视觉感知判断对齐。它通过比较两张图像在预训练深度网络(如 AlexNetVGG 等)提取的特征空间中的距离来衡量相似度。LPIPS 值越低,表示两张图像在感知上越相似。
    • 数学公式: LPIPS(x0,x1)=l1HlWlh,wwl(ϕl(x0)h,wϕl(x1)h,w)22 \mathrm{LPIPS}(x_0, x_1) = \sum_l \frac{1}{H_l W_l} \sum_{h,w} \| w_l \odot (\phi_l(x_0)_{h,w} - \phi_l(x_1)_{h,w}) \|_2^2
    • 符号解释:
      • x0,x1x_0, x_1: 两张待比较的图像。
      • ϕl\phi_l: 预训练深度网络在第 ll 层激活后的特征图。
      • wlw_l: 在第 ll 层特征图上学习到的权重。
      • \odot: 逐元素乘法。
      • Hl,WlH_l, W_l: 第 ll 层特征图的高度和宽度。
      • h,w\sum_{h,w}: 对特征图所有空间位置求和。
      • 22\|\cdot\|_2^2: L2L_2 范数的平方。
      • l\sum_l: 对所有选定的网络层求和。
  • IDS (Identity Score, 身份分数)
    • 概念定义: IDS 用于评估人脸图像恢复方法在保持人物身份信息方面的能力。它通过计算原始 HQ 图像和恢复图像之间的人脸特征嵌入 (face embedding) 的余弦相似度 (cosine similarity) 来衡量。IDS 值越低,表示身份保持越好。
    • 数学公式: IDS=1cosine_similarity(Fgt,Frec) \mathrm{IDS} = 1 - \mathrm{cosine\_similarity}(F_{gt}, F_{rec}) 其中,cosine_similarity(A,B)=ABAB\mathrm{cosine\_similarity}(A, B) = \frac{A \cdot B}{\|A\| \|B\|}
    • 符号解释:
      • FgtF_{gt}: Ground Truth 人脸图像的特征嵌入。
      • FrecF_{rec}: 恢复人脸图像的特征嵌入。
      • cosine_similarity(,)\mathrm{cosine\_similarity}(\cdot, \cdot): 余弦相似度函数。
  • LMD (Landmark Distance, 地标距离)
    • 概念定义: LMD 用于衡量人脸图像恢复方法对人脸关键地标点 (facial landmark points) 几何结构的保持能力。它计算原始 HQ 图像和恢复图像之间地标点的平均欧氏距离。LMD 值越低,表示人脸结构恢复得越准确。
    • 数学公式: LMD=1Nk=1NPgt,kPrec,k2 \mathrm{LMD} = \frac{1}{N} \sum_{k=1}^N \|P_{gt,k} - P_{rec,k}\|_2
    • 符号解释:
      • NN: 地标点的总数。
      • Pgt,kP_{gt,k}: Ground Truth 图像中第 kk 个地标点的坐标。
      • Prec,kP_{rec,k}: 恢复图像中第 kk 个地标点的坐标。
      • 2\|\cdot\|_2: 欧氏距离。
  • FID (Fréchet Inception Distance, Fréchet Inception 距离) [15]
    • 概念定义: FID 是一种用于评估生成模型生成图像质量的指标,通过比较生成图像和真实图像在 Inception-v3 网络特征空间中的统计量(均值和协方差)来衡量两组图像分布的相似度。FID 值越低,表示生成图像的质量和多样性越接近真实图像。
    • 数学公式: FID=μ1μ222+Tr(Σ1+Σ22(Σ1Σ2)1/2) \mathrm{FID} = \|\mu_1 - \mu_2\|_2^2 + \mathrm{Tr}(\Sigma_1 + \Sigma_2 - 2(\Sigma_1 \Sigma_2)^{1/2})
    • 符号解释:
      • μ1,μ2\mu_1, \mu_2: 分别是真实图像和生成图像在 Inception-v3 特征空间中的特征均值向量。
      • Σ1,Σ2\Sigma_1, \Sigma_2: 分别是真实图像和生成图像在 Inception-v3 特征空间中的特征协方差矩阵。
      • 22\|\cdot\|_2^2: L2L_2 范数的平方。
      • Tr()\mathrm{Tr}(\cdot): 矩阵的迹 (trace)。

5.2.2. 非参考指标

用于没有 Ground Truth 的真实世界数据集,或旨在更好地反映人类感知。

  • CLIPIQA [44]
    • 概念定义: CLIPIQA 是一种基于 CLIP 模型学习到的图像质量评估指标,旨在更好地与人类感知对齐。它利用 CLIP 的视觉-语言联合嵌入空间来评估图像质量,特别是生成图像的视觉真实感和语义一致性。CLIPIQA 值越高,表示图像质量越好。
  • MUSIQ (Multi-scale Image Quality Transformer, 多尺度图像质量 Transformer) [21]
    • 概念定义: MUSIQ 是一种基于 Transformer 的多尺度图像质量评估模型。它通过在多个尺度上分析图像特征来预测图像的感知质量,并被训练成与人类的质量评分高度相关。MUSIQ 值越高,表示图像质量越好。
  • MANIQA (Multi-dimension Attention Network for No-Reference Image Quality Assessment, 无参考图像质量评估的多维度注意力网络) [54]
    • 概念定义: MANIQA 是一种用于无参考图像质量评估 (No-Reference Image Quality Assessment) 的多维度注意力网络。它通过捕捉图像不同维度(如空间、通道)的质量信息来预测图像的感知质量。MANIQA 值越高,表示图像质量越好。

5.3. 对比基线

论文将 DiT-SR 与以下几类最新的 SR 方法进行了比较:

  • 基于 GAN (GAN-based) 的方法:
    • RealSR-JPEG [18]
    • BSRGAN [60]
    • RealESRGAN [48]
    • SwinIR [28] (Swin Transformer 用于图像恢复,通常与 GAN 损失结合或作为强大的判别器)
  • 基于先验 (Prior-based) 的扩散方法:
    • StableSR [45]
    • DiffBIR [29]
    • PASD [55]
    • SeeSR [52] 这些方法利用预训练的 Stable Diffusion 等大型生成模型的先验知识。
  • 从头训练 (Training-from-Scratch) 的扩散方法:
    • LDM [36]
    • ResShift [58] 这些方法不依赖大型预训练模型,而是从零开始训练。

5.4. 实现细节

  • 潜在空间操作: 提出的架构在潜在空间 (latent space) 进行操作,使用了下采样因子为 4 的 Vector Quantized GAN (VQGAN) [7] 作为编码器和解码器。
  • 训练参数:
    • 训练迭代次数: 300K 次迭代。
    • 批处理大小 (batch size): 64
    • GPU 数量: 8NVIDIA Tesla V100 GPU
    • 优化器: Adam [23]。
    • 学习率 (learning rate): 5×1055 \times 10^{-5}
  • FFT 窗口大小: FFT 窗口大小 pp 经验性地设置为 8 [24, 43]。
  • 盲人脸恢复训练细节 (Appendix E):
    • 学习率调度: 学习率在 5000 次迭代内增长到 5×1055 \times 10^{-5},然后根据退火余弦调度 (annealing cosine schedule) 从 5×1055 \times 10^{-5} 逐渐衰减到 2×1052 \times 10^{-5}
    • 训练结束: 200K 次迭代。
    • VQGAN 下采样因子: 8。
    • 扩散步数: 4。
    • 损失函数: 除了潜在空间中的扩散损失 [16] 外,还在像素空间中采用了 LPIPS [61] 损失。

6. 实验结果与分析

6.1. 核心结果分析

本文通过在合成数据集 LSDIR-Test 和真实世界数据集 RealSRRealSet65 上的大量实验,验证了 DiT-SR 的有效性和优越性。

6.1.1. 对比最新 SOTA 方法 (Table 1 & 3)

以下是原文 Table 1 和 Table 3 的结果,展示了 DiT-SRGAN 基线、基于先验的扩散方法和从头训练的扩散方法的对比。

以下是原文 Table 1 的结果:

Methods#ParamsRealSRRealSet65
CLIPIQA↑MUSIQ↑MANIQA↑CLIPIQA↑MUSIQ↑MANIQA↑
GAN based Methods
RealSR-JPEG17M0.361136.0680.17720.527850.53940.2943
BSRGAN17M0.543863.58190.36850.61665.57740.3897
RealESRGAN17M0.489859.67660.36790.598763.22280.3871
SwinIR12M0.465359.63160.34540.577863.82120.3816
Prior based Methods
StableSR-200919M0.520759.42640.35630.533856.92070.3387
DiffBIR-501670M0.714266.8430.48020.739869.72600.5000
PASD-201469M0.517058.43940.36820.573161.88130.3893
SeeSR-501619M0.681966.34610.50350.703068.98030.5084
Training-from-Scratch Diff. based Methods
LDM-100114M0.596955.43590.30710.593656.1120.356
ResShift-15119M0.602858.87900.38910.637658.04000.4048
Ours-1561M0.716165.83340.50220.712066.74130.4821

以下是原文 Table 3 的结果: Table 3. Performance comparison on the synthetic LSDIR-Test dataset. The best and second best results are highlighted in bold and underline.

MethodsLSDIR-Test
PSNR↑LPIPS↓CLIPIQA↑ MUSIQ↑MANIQA↑
GAN based Methods
RealSR-JPEG BSRGAN22.16 23.740.3600.54659.02 67.940.342 0.394
RealESRGAN23.150.274 0.2590.570 0.56868.230.414
SwinIR23.170.2470.59868.200.414
Prior based Methods
StableSR-200 DiffBIR-5022.680.2670.66068.910.416
PASD-2022.840.2740.70970.050.455 0.440
SeeSR-5023.570.2790.62469.07
22.900.2510.71872.470.559
Training-from-Scratch Diff. based Methods
LDM-10023.340.2550.60166.840.413
ResShift-1523.830.2470.64067.740.464
Ours-1523.600.244
0.64669.320.483
  • 显著超越从头训练方法:RealSRRealSet65 真实世界数据集上(Table 1),DiT-SRCLIPIQAMUSIQMANIQA 等所有非参考指标上均取得了最佳性能,显著优于 LDM-100ResShift-15 等现有从头训练的扩散 SR 方法。

  • 媲美甚至超越基于先验方法: 令人印象深刻的是,DiT-SR 甚至能够与 DiffBIR-50SeeSR-50 等基于预训练 Stable Diffusion 的先验方法相媲美,在某些指标上甚至表现更好。例如,在 RealSR 数据集上,DiT-SRCLIPIQA (0.7161) 略高于 DiffBIR-50 (0.7142),MANIQA (0.5022) 略低于 SeeSR-50 (0.5035),但 MUSIQ (65.8334) 略低于 DiffBIR-50 (66.843) 和 SeeSR-50 (66.3461)。

  • 参数效率高: DiT-SR 仅用 61M 参数量,相比于 DiffBIR-50 (1670M) 和 PASD-20 (1469M) 等基于先验的方法,参数量仅为它们的约 5%,展现了极高的参数效率。

  • 合成数据集表现 (LSDIR-Test): 在合成数据集 LSDIR-Test 上 (Table 3),DiT-SRLPIPS 上取得了最佳性能 (0.244),PSNR 达到了 23.60。在 CLIPIQAMUSIQMANIQA 非参考指标上,DiT-SR 也取得了非常接近最优(或次优)的性能,再次验证了其有效性。

    下图(原文 Figure 7)展示了在合成和真实世界数据集上的定性比较,进一步证实了 DiT-SR 在视觉效果上的优越性。

    Figure 8. More visualization results on real-world datasets. Please zoom in for a better view. 该图像是论文中真实世界数据集上的超分辨率视觉结果对比图,展示了LR图像及多种方法的重建效果。左侧红框表示关注区域,不同方法包括BSRGAN、StableSR、DiffBIR、PASD、SeeSR、RealESRGAN、SwinIR、LDM、ResShift和本文提出的方法。

Figure 7. Qualitative comparisons of different methods on both synthetic and real-world datasets.

6.1.2. 盲人脸恢复实验 (Appendix E, Table 7 & 8)

论文还在盲人脸恢复 (blind face restoration) 任务上评估了 DiT-SR 的性能。

以下是原文 Table 7 的结果: T underline.

MethodsCelebA-Test
LPIPS↓IDS↓LMD↓FID↓CLIPIQA↑MUSIQ↑ManIQA
DFDNet0.73986.32320.78476.1180.61951.1730.433
PSFRGAN0.47574.02510.16860.7480.63069.9100.477
GFPGAN0.41666.8208.88627.6980.67175.3880.626
VQFR0.41165.5388.91025.2340.68573.1550.568
CodeFormer0.32459.1365.03526.1600.69875.9000.571
DiffFace-1000.33863.0335.30123.2120.52766.0420.475
ResShift-40.30959.6235.05617.5640.61373.2140.541
Ours-40.33761.46445.23519.6480.72575.8480.634

以下是原文 Table 8 的结果: in bold and underline.

MethodsLFWWebPhotoWider
CLIPIQA↑ MUSIQ↑ MANIQA↑CLIPIQA↑ MUSIQ↑ MANIQA↑CLIPIQA↑MUSIQ↑ MANIQA↑
DFDNet0.71673.1090.60620.65469.0240.5500.62563.2100.514
PSFRGAN0.64773.6020.51480.63771.6740.4760.64871.5070.489
GFPGAN0.68774.8360.59080.65173.3670.5770.66374.6940.602
VQFR0.71074.3860.54880.67770.9040.5110.70771.4110.520
CoderFormer0.68975.4800.53940.69274.0040.5220.69973.4040.510
DiffFace-1000.59370.3620.47160.55565.3790.4360.56164.9700.436
ResShift-40.62670.6430.48930.62171.0070.4950.62971.0840.494
Ours-40.72773.1870.5640.71773.9210.5710.74374.4770.589
  • 合成数据集 (CelebA-Test): 在合成数据集 CelebA-Test (Table 7) 上,DiT-SR (Ours-4) 在 CLIPIQAMANIQA 上取得了最佳性能,MUSIQ 达到了次优。虽然在 LPIPSIDSLMDFID 等参考指标上略逊于 ResShift-4,但整体感知质量指标表现突出。

  • 真实世界数据集 (LFW, WebPhoto, Wider):LFWWebPhotoWider 等真实世界数据集上 (Table 8),DiT-SR 在所有非参考指标 CLIPIQAMUSIQMANIQA 上均取得了最佳性能,证明了其在处理真实世界复杂退化人脸图像时的强大能力。

    下图(原文 Figure 10)提供了更多盲人脸恢复的定性结果。

    该图像是多组人脸超分辨率重建结果的对比示意图,展示了LFW、WebPhoto和WIDER三个人脸数据集上不同方法(如GFPGAN、VQFR、CodeFormer、DiffFace、ResShift和本文方法)修复低分辨率(LR)人脸图像的效果。 该图像是多组人脸超分辨率重建结果的对比示意图,展示了LFW、WebPhoto和WIDER三个人脸数据集上不同方法(如GFPGAN、VQFR、CodeFormer、DiffFace、ResShift和本文方法)修复低分辨率(LR)人脸图像的效果。

Figure 10. More visualization results of blind face restoration on real-world datasets. Please zoom in for a better view.

6.2. 消融实验与参数分析

6.2.1. U 形 DiT 与各向同性设计 (Table 2)

本节探究了 UUDiT 和各向同性设计的有效性。

以下是原文 Table 2 的结果: J-shaped DiT. The best results are highlighted in bold.

Configuration#ParamsFLOPsRealSRRealSet65
DiT Arch.Time ConditioningCLIPIQA↑MUSIQ↑CLIPIQA↑MUSIQ↑
IsotropicAdaLN42.38M122.99G0.65564.1940.66464.263
U-shapeAdaLN264.39M122.87G0.68864.0620.69365.604
OursAdaLN100.64M(-62%)93.11G(-24%)0.70064.6760.69967.634
OursAdaFM60.79M(-77%)93.03G(-24%)0.71665.8330.71266.741
  • 标准 DiT (Isotropic DiT) vs. UUDiT:
    • 标准 DiT (Isotropic + AdaLN) 具有 42.38M 参数和 122.99G FLOPs
    • UUDiT (U-shape + AdaLN) 在相似的 FLOPs (122.87G) 下,参数量高达 264.39M,但性能(CLIPIQAMUSIQ)略优于标准 DiT。这表明 UU 形结构有助于性能提升,但参数效率较低。
  • U 形 DiT 与各向同性设计 (Ours + AdaLN):
    • 本文提出的架构 (Ours + AdaLN) 在 FLOPs (93.11G) 减少 24% 的情况下,参数量从 UUDiT 的 264.39M 大幅减少了 62%,仅为 100.64M。
    • 尽管参数和 FLOPs 大幅减少,但性能却进一步提升(CLIPIQA 从 0.688 提升到 0.700,MUSIQ 从 64.062 提升到 64.676)。这强有力地证明了各向同性设计在 UUDiT 中重新分配计算资源到关键高分辨率层的有效性。

6.2.2. 自适应频率调制 (AdaFM) (Table 2)

  • AdaLN vs. AdaFM:
    • 在本文提出的架构 (Ours) 中,将 AdaLN 替换为 AdaFM (即 Ours + AdaFM),在 FLOPs 保持不变的情况下,参数量从 100.64M 进一步减少了 77%,降至 60.79M。
    • 同时,性能也得到了显著提升(CLIPIQA 从 0.700 提升到 0.716,MUSIQ 从 64.676 提升到 65.833)。
  • 结论: AdaFM 不仅显著减少了模型参数,还在频率域实现了更有效的条件化,从而进一步提升了模型的性能,尤其是在处理对频率信息敏感的图像超分辨率任务中。

6.2.3. 压缩 UUDiT (Appendix B, Table 5)

本节探讨了通过深度和宽度压缩 UUDiT 的效果,以验证本文架构的参数效率。

以下是原文 Table 5 的结果: FLOPs are compared to the U-shaped DiT. The best results are highlighted in bold.

Methods#ParamsFLOPsRealSRRealSet65
CLIPIQA↑MUSIQ↑CLIPIQA↑MUSIQ↑
U-shaped DiT264.39M122.87G0.68864.0620.69365.604
Shallower U-DiT196.65M(-26%)96.30G(-22%)0.67163.3190.68364.097
Narrower U-DiT214.20M(-19%)99.56G(-19%)0.68263.6310.69265.469
Ours w/ AdaLN100.64M(-62%)93.11G(-24%)0.70064.6760.69967.634
  • 压缩尝试:
    • Shallower U-DiT: 减少每个阶段的 Transformer 块数量(从 6 减到 4),参数减少 26%
    • Narrower U-DiT: 减少基础通道维度(从 160 减到 144),参数减少 19%
  • 结果: 尽管参数减少幅度相对温和(约 20%),但这两种压缩策略都导致了明显的性能下降。
  • 结论: 这表明原始的 UUDiT (d6c160 配置) 尚未达到冗余点。本文提出的架构 (Ours w/ AdaLN) 通过将计算资源重新分配到关键高分辨率层,在参数量显著减少 62% 的情况下,反而取得了更好的性能,再次验证了其设计的优越性。

6.2.4. 轻量化版本 (Appendix C, Table 6)

为了满足轻量级应用的需求,论文还开发了一个 DiT-SR 的轻量化版本。

以下是原文 Table 6 的结果:

Methods#ParamsRealSRRealSet65
CLIPIQA↑MUSIQ↑MANIQA↑CLIPIQA↑MUSIQ↑MANIQA↑
LDM-100114M0.596955.43590.30710.593656.11200.3560
ResShift-15119M0.602858.87900.38910.637658.04000.4048
Ours-1561M0.716165.83340.50220.712066.74130.4821
Ours-Lite-1531M0.667063.05440.45650.669464.33870.4420
Ours-Lite-131M0.699363.37590.42620.709264.83290.4299
  • Ours-Lite-15 (轻量化版本,15步去噪):
    • 参数量从 Ours-15 的 61M 减少到 31M (约 50%)。
    • 尽管参数量仅为 ResShift25%Ours-Lite-15 仍显著优于 ResShift-15 在所有指标上。这进一步证明了 DiT-SR 架构在模型容量方面的优越性。
  • Ours-Lite-1 (轻量化版本,1步去噪):
    • 通过与 SinSR [49] 结合进行步长蒸馏 (step distillation),将 15 步去噪模型压缩到单步去噪。
    • CLIPIQAMUSIQ 指标上有所提升,但 MANIQA 指标有所下降。这表明用户可以根据应用场景对不同指标的偏好选择是否进行步长蒸馏。
  • 结论: DiT-SR 架构的灵活性使其能够轻松适应轻量级应用,并在大幅减少参数量的情况下,依然保持卓越的性能。

6.3. 架构超参数 (Appendix A & Table 4)

以下是原文 Table 4 的结果: Table 4. Diffusion Architecture Hyper-parameters.

DiT Arch.Time Conditioning#ParamsFLOPsNumber of BlocksChannelsReallocated Channel
IsotropicAdaLN42.38M122.99G[6,6,6,6,6]160-
U-shapeAdaLN264.39M122.87G[6,6,6,6][160,320,320,640]-
OursAdaLN100.64M93.11G[6,6,6,6][160,320,320,640]192
OursAdaFM60.79M93.03G[6,6,6,6][160,320,320,640]192
Ours-LiteAdaFM30.89M49.17G[4,4,4][128,256,256]160
  • 块数量 (Number of Blocks): 对于 Isotropic DiT,每个阶段的块数量是 [6,6,6,6,6] (5个阶段)。对于 U-shape DiTOurs,每个阶段的块数量是 [6,6,6,6] (4个阶段)。Ours-Lite 进一步减少为 [4,4,4] (3个阶段)。

  • 通道数 (Channels):

    • Isotropic DiT: 所有阶段通道数保持为 160
    • U-shape DiT: 通道数随着深度增加而增加,为 [160,320,320,640]
    • Ours: 基础通道数同样为 [160,320,320,640],但在各向同性设计下,内部重新分配的通道数为 192
    • Ours-Lite: 基础通道数 [128,256,256],内部重新分配的通道数为 160
  • 重新分配通道 (Reallocated Channel): 这是 Ours 架构各向同性设计中关键的参数。它表示在高分辨率层标准化和放大的通道数,从而更有效地利用计算资源。

    这些详细的架构配置进一步解释了 DiT-SR 如何通过巧妙的资源分配和架构设计,在保持较低参数量的同时实现卓越的性能。

7. 总结与思考

7.1. 结论总结

本研究提出了一种名为 DiT-SR 的新型高效扩散 Transformer 架构,专为图像超分辨率任务设计。DiT-SR 成功地结合了 UU 形全局架构和各向同性块设计,通过将计算资源重新分配到对图像超分辨率至关重要的高分辨率层,有效地提升了模型性能。此外,论文还深入分析了传统 AdaLN 的局限性,并引入了一种创新性的频率自适应时间步条件模块 AdaFMAdaFM 通过在频率域而非空间域进行调制,增强了扩散模型在不同去噪阶段强调特定频率信息(特别是高频细节)的能力。

通过大量的实验验证,DiT-SR 在从头训练的扩散 SR 方法中取得了显著的性能提升。它甚至在某些关键指标上超越了部分依赖大规模预训练模型(如 Stable Diffusion)的基于先验的方法,而其参数量仅为后者的约 5%。这不仅证明了扩散 Transformer 在图像超分辨率领域的巨大潜力,也为在保持从头训练的灵活性和资源效率的前提下,达到与 SOTA 先验方法相媲美的性能提供了新的范式。

7.2. 局限性与未来工作

7.2.1. 局限性

  • 与文本到图像模型的差距: 论文指出,由于任务差异和数据限制,图像超分辨率模型通常不像文本到图像模型那样具有同等的可扩展性。
  • 性能提升空间: 尽管 DiT-SR 在参数量上具有显著优势,并取得了与基于先验模型竞争的性能,但它距离完全超越这些模型仍有一定距离。这表明在性能的绝对上限上,可能还需要进一步的架构创新或更大规模的训练。

7.2.2. 未来工作

  • AdaFM 的普适性: AdaFM 作为一种新的时间步条件化范式,具有推广到其他扩散模型的潜力,包括其他低级视觉任务 (low-level visual tasks) 甚至文本到图像生成 (text-to-image generation) 任务。这些任务也遵循从低频到高频的生成模式,因此 AdaFM 有望在这些领域发挥作用。

7.3. 个人启发与批判

7.3.1. 个人启发

  • 架构融合的威力: DiT-SR 成功融合了 U-Net 的多尺度分层特征提取优势和 DiT 的可扩展性与各向同性设计。这提示我们,在面对新任务或优化现有任务时,不应局限于单一架构范式,而是可以创造性地结合不同架构的优点,实现 1+1>2 的效果。
  • 资源再分配的重要性: 各向同性设计在 UU 形结构中的应用,特别是在高分辨率层集中计算资源,这表明了对模型内部计算资源进行智能且有针对性的分配,比盲目增加整体模型容量可能更有效。这对于资源受限或需要轻量化部署的场景具有重要指导意义。
  • 频率域条件化的潜力: AdaFM 的提出,将时间步条件化从空间域转向频率域,极大地提升了模型处理频率信息的能力。这对于图像处理领域中,许多任务(如去噪、去模糊、超分)都与频率信息密切相关。未来的研究可以更多地探索如何在频率域进行特征调制、信息融合或条件化,以实现更精细的控制和更优的性能。
  • 从头训练的潜力再确认: 面对 Stable Diffusion 等预训练大模型的强大性能,许多研究倾向于利用其先验。然而,DiT-SR 证明了通过精巧的架构设计,从头训练的小型模型仍有能力在特定任务上达到甚至超越大型预训练模型的水平,且在灵活性和部署成本上具有显著优势。这鼓励我们继续探索基础架构创新,而不是完全依赖预训练大模型。

7.3.2. 潜在问题与改进方向

  • AdaFM 的复杂性与解释性: 尽管 AdaFM 表现出色且参数效率高,但其在频率域的调制可能不如空间域的调制直观。更深入地分析 AdaFM 在不同频率分量上具体是如何动态调整权重,以及这种调整的物理或感知意义,可能会进一步提升其解释性和可设计性。例如,它是否在早期的去噪步骤中抑制高频噪声,而在后期放大高频细节?
  • 计算成本与推理速度: 虽然 DiT-SR 的参数量远低于基于先验的方法,但在推理速度方面(尤其是多步去噪),扩散模型通常仍慢于 GAN 或流模型 (flow-based models)。尽管论文提到了与 SinSR 结合进行步长蒸馏,但如何进一步优化推理速度,使其更适用于实时应用,仍是一个重要的研究方向。
  • 超参数敏感性: FFT 窗口大小 pp 是一个经验性设置的超参数。研究其对性能和效率的影响,并探索自适应或学习型窗口大小的机制,可能会进一步提升模型的鲁棒性和性能。
  • 泛化能力: 论文主要在图像超分辨率和盲人脸恢复任务上进行了验证。DiT-SR 的架构是否能在其他低级视觉任务(如去模糊、去雨等)中保持同样的优势,值得进一步探索。尤其是对于那些对频率信息有不同侧重或具有更复杂结构退化的任务。
  • 损失函数的优化: 论文在盲人脸恢复中除了扩散损失外还引入了 LPIPS 损失。探索更多感知损失 (perceptual losses) 或对抗损失 (adversarial losses) 的组合,以进一步优化生成图像的真实感和细节。

相似论文推荐

基于向量语义检索推荐的相关论文。

暂时没有找到相似论文。