UniScene: Unified Occupancy-centric Driving Scene Generation
TL;DR 精炼摘要
UniScene提出基于占用图的分层生成框架,首次统一生成语义占用、视频和LiDAR数据。通过高斯联合渲染与先验引导稀疏建模,显著提升多模态场景生成质量,促进自动驾驶下游任务性能。
摘要
Generating high-fidelity, controllable, and annotated training data is critical for autonomous driving. Existing methods typically generate a single data form directly from a coarse scene layout, which not only fails to output rich data forms required for diverse downstream tasks but also struggles to model the direct layout-to-data distribution. In this paper, we introduce UniScene, the first unified framework for generating three key data forms - semantic occupancy, video, and LiDAR - in driving scenes. UniScene employs a progressive generation process that decomposes the complex task of scene generation into two hierarchical steps: (a) first generating semantic occupancy from a customized scene layout as a meta scene representation rich in both semantic and geometric information, and then (b) conditioned on occupancy, generating video and LiDAR data, respectively, with two novel transfer strategies of Gaussian-based Joint Rendering and Prior-guided Sparse Modeling. This occupancy-centric approach reduces the generation burden, especially for intricate scenes, while providing detailed intermediate representations for the subsequent generation stages. Extensive experiments demonstrate that UniScene outperforms previous SOTAs in the occupancy, video, and LiDAR generation, which also indeed benefits downstream driving tasks. Project page: https://arlo0o.github.io/uniscene/
思维导图
论文精读
中文精读
1. 论文基本信息 (Bibliographic Information)
- 标题 (Title): UniScene: Unified Occupancy-centric Driving Scene Generation (UniScene:以占用为中心的统一驾驶场景生成)
- 作者 (Authors): u H Y , Yikang , Xiwu Chen5, , Feiyang Tan5, Chi Zhang5, Tiancai Wang4, Shuchang Zhou4, Li Zhang6, Xiaojuan , Hao Zhao3, Mu Yang4, Wenjun Zeng2, Xin Jin2‡。作者来自上海交通大学、宁波数字孪生研究院、东方理工大学等多个顶尖学术和研究机构。
- 发表期刊/会议 (Journal/Conference): arXiv 预印本。虽然尚未在顶级会议或期刊上正式发表,但 arXiv 是计算机科学领域分享最新研究成果的重要平台。
- 发表年份 (Publication Year): 2024
- 摘要 (Abstract): 为自动驾驶生成高保真、可控且带标注的训练数据至关重要。现有方法通常直接从粗略的场景布局生成单一形式的数据,这不仅无法满足多样化下游任务所需的数据形式,也难以对复杂的“布局到数据”分布进行建模。本文提出了 UniScene,这是第一个用于生成驾驶场景中三种关键数据形式——语义占用、视频和 LiDAR——的统一框架。UniScene 采用渐进式生成过程,将复杂的场景生成任务分解为两个层级步骤:(a) 首先从自定义的场景布局生成语义占用图,作为富含语义和几何信息的元场景表示;然后 (b) 在占用图的条件下,通过两种新颖的转换策略——基于高斯联合渲染 (Gaussian-based Joint Rendering) 和先验引导的稀疏建模 (Prior-guided Sparse Modeling)——分别生成视频和 LiDAR 数据。这种以占用为中心的方法降低了生成负担,尤其是在复杂场景中,同时为后续生成阶段提供了详细的中间表示。大量实验证明,UniScene 在占用、视频和 LiDAR 生成方面均优于先前的 SOTA 方法,并且确实有益于下游驾驶任务。
- 原文链接 (Source Link):
-
arXiv 链接: https://arxiv.org/abs/2412.05435v2
-
发布状态: 预印本 (Preprint)。
-
2. 整体概括 (Executive Summary)
-
研究背景与动机 (Background & Motivation - Why):
- 核心问题: 自动驾驶系统的研发和测试需要海量、多样化且带有精确标注的数据。真实世界的数据采集成本高、周期长,且难以覆盖所有极端场景(corner cases)。因此,如何高效生成高质量、可控的合成数据成为一个关键问题。
- 现有挑战 (Gap):
- 数据形式单一: 大多数现有生成模型(如
MagicDrive,LiDARGen)一次只能生成一种数据模态(如视频或 LiDAR 点云),无法满足需要多模态数据(如摄像头+LiDAR)的下游任务。 - 生成难度大: 现有方法通常尝试从一个非常粗糙的输入(如鸟瞰图
BEV布局或 3D 边界框)一步到位直接生成高保真的数据(如视频)。这种“一步式”的映射非常复杂,模型难以学习真实世界中复杂的几何与外观分布,导致生成质量不佳。
- 数据形式单一: 大多数现有生成模型(如
- 创新思路: 本文提出,不应直接从粗糙布局生成最终数据,而应引入一个高质量的中间表示。作者认为语义占用 (Semantic Occupancy) 是理想的中间表示,因为它同时包含了丰富的 3D 几何结构和语义信息。因此,论文的核心思路是将复杂的生成任务分解为两步:先从粗糙布局生成精细的语义占用图,再以该占用图为坚实基础,分别指导视频和 LiDAR 数据的生成。
-
核心贡献/主要发现 (Main Contribution/Findings - What):
-
提出了 UniScene 框架: 这是第一个能够在一个统一框架内生成三种关键数据形式(语义占用、多视角视频、LiDAR 点云)的生成模型。
-
提出了一种“以占用为中心”的分解式生成范式: 该范式将复杂的场景生成任务分解为“布局 → 占用 → 多模态数据”的渐进式过程,有效降低了生成难度,提升了最终数据的保真度。
-
设计了两种新颖的表征转换策略:
- 对于视频生成: 提出了基于高斯联合渲染 (Gaussian-based Joint Rendering) 的策略,将 3D 占用图高效地渲染成多视角的 2D 深度图和语义图,为视频生成提供精细的几何和语义指导。
- 对于 LiDAR 生成: 提出了先验引导的稀疏建模 (Prior-guided Sparse Modeling) 方案,利用占用图作为先验,高效地生成稀疏但精确的 LiDAR 点云。
-
卓越的性能: 实验证明,UniScene 在语义占用、视频和 LiDAR 的生成质量上均超越了现有的 SOTA 模型,并且其生成的增强数据能够显著提升下游感知任务(如 3D 物体检测、BEV 分割)的性能。
-
3. 预备知识与相关工作 (Prerequisite Knowledge & Related Work)
基础概念 (Foundational Concepts)
-
语义占用 (Semantic Occupancy): 一种 3D 场景表示方法。它将 3D 空间划分为一个个微小的立方体(称为体素
voxel),并为每个体素预测一个语义标签(如汽车、行人、道路、建筑)和它是否被占据。相比于 2D 的 BEV 图或稀疏的 3D 边界框,语义占用能够提供更密集、更精细的 3D 几何与语义信息,被认为是自动驾驶中一种更优秀的场景表示。 -
扩散模型 (Diffusion Models): 一类强大的生成模型。其基本思想是通过两个过程来学习生成数据:
- 前向过程(加噪): 不断向真实数据中添加少量高斯噪声,直到数据完全变成纯噪声。
- 反向过程(去噪): 训练一个神经网络(通常是
U-Net架构),学习如何从噪声中逐步恢复出原始数据。在生成阶段,模型从一个纯噪声输入开始,反复应用去噪网络,最终“雕刻”出逼真的新数据。
-
变分自编码器 (Variational Autoencoder, VAE): 一种生成模型,由编码器 (Encoder) 和解码器 (Decoder) 两部分组成。编码器将输入数据(如图像)压缩到一个低维的连续潜在空间 (latent space),解码器则从这个潜在空间的向量中重建原始数据。VAE 通过强制潜在空间服从特定分布(如正态分布),使其具备了生成新数据的能力。
-
Diffusion Transformer (DiT): 一种将
Transformer架构应用于扩散模型的新范式。传统的扩散模型多使用U-Net作为去噪网络,而 DiT 则用Transformer替代了U-Net的核心部分。Transformer的自注意力机制使其在处理序列化数据和捕捉长距离依赖关系方面表现出色,因此 DiT 在图像和视频生成任务中取得了突破性进展。 -
高斯泼溅 (Gaussian Splatting, GS): 一种新颖的实时三维场景渲染技术。它不用传统的网格或体素,而是用大量带有位置、形状(协方差)、颜色和透明度的 3D 高斯函数来表示场景。渲染时,这些 3D 高斯被快速“泼溅”或投影到 2D 图像平面上,生成高质量的视图。其优点是渲染速度极快,且能保持高保真度。
-
鸟瞰图 (Bird's Eye View, BEV): 从正上方俯视场景的 2D 表示。在自动驾驶中,BEV 图通常用来表示车辆、车道线、行人等物体在地面上的位置和布局,是一种非常直观和常用的场景表示方式。
前人工作与差异化分析 (Previous Works & Differentiation)
作者将相关工作分为语义占用表示、自动驾驶生成模型两大类。
-
语义占用表示与生成:
- 前人工作: 大多数工作如
MonoScene、TPVFormer关注语义占用预测 (SOP),即从传感器输入预测当前场景的占用状态。少数工作如OccWorld、OccLlama关注占用预测 (Occupancy Forecasting),即预测未来的占用状态。而纯粹的占用生成 (Occupancy Generation) 研究较少,如OccSora虽能生成时序占用,但质量和可控性不足。 - UniScene 的差异化: UniScene 不仅生成高质量的时序占用序列,更重要的是实现了可控生成,即用户可以通过编辑简单的 BEV 布局来控制生成的 3D 场景结构,这是之前工作所缺乏的。
- 前人工作: 大多数工作如
-
自动驾驶场景生成模型:
-
前人工作:
- 视频生成:
BEVGen、MagicDrive、Drive-WM等模型能从 BEV 布局或历史图像生成驾驶视频,但它们通常只生成单一的视频模态,且是“一步式”生成,难以保证几何结构的精确性。 - LiDAR 生成:
LidarDiffusion、LidarDM等模型专注于生成 LiDAR 点云,同样是单一模态生成,且与视频生成模型是割裂的。 - 多模-单生成: 一些工作使用多模态输入,但输出仍是单一模态。
- 视频生成:
-
UniScene 的差异化: 如论文中的 Table 1 所示,UniScene 是第一个统一框架,能够同时生成语义占用、视频和 LiDAR 三种关键数据。其核心创新在于“以占用为中心”的分解式生成范式,通过高质量的中间表示(占用图)来桥接粗糙布局和最终的多模态数据,从而显著提升了所有生成模态的质量和一致性。
该图像是论文中图1,示意了UniScene统一生成驾驶场景中语义占用、视频和LiDAR数据的流程及性能对比。左侧展示基于BEV布局生成语义占用图,进而生成多视角视频和LiDAR点云;右侧柱状图显示UniScene在三项生成任务上相较SOTA有显著性能提升。
-
上图(图1)直观展示了 UniScene 的核心思想和优势。(a) 概览部分显示,UniScene 从 BEV Layouts(鸟瞰图布局)出发,首先生成 Semantic Occupancy(语义占用),然后基于这个精细的中间表示,分别生成 LiDAR Point Clouds(LiDAR 点云)和 Multi-view Video(多视角视频)。(b) 性能对比部分则用柱状图清晰地表明,相比于之前的 SOTA 模型(如 OccWorld, Drive-WM, LiDARDM),UniScene 在占用、视频和 LiDAR 三项生成任务上都取得了显著的性能提升(指标越低越好)。
4. 方法论 (Methodology - Core Technology & Implementation Details)
UniScene 的方法论可以清晰地分解为三个主要部分:可控语义占用生成、基于占用的视频生成、基于占用的 LiDAR 生成。
该图像是论文UniScene中用于展示其统一生成流程的示意图,描述了从BEV布局和噪声体积输入开始,经过Occupancy Diffusion Transformer生成语义占用表示,并基于此通过视频扩散UNet和LiDAR稀疏UNet分别生成视频与LiDAR数据。
上图(图2)是 UniScene 的整体架构图。整个流程分为两大阶段:
- 语义占用生成 (Semantic Occupancy Generation): 左侧部分,将
BEV Layouts(BEV 布局)和Noise Volumes(噪声体积)输入到一个Occupancy Diffusion Transformer中,通过去噪过程生成语义占用的潜在表示,最后由Occupancy VAE Decoder(Docc) 解码得到语义占用序列。 - 基于占用的视频和 LiDAR 生成 (Occupancy-based Video and LiDAR Generation):
-
视频生成 (上半部分): 生成的占用图通过
Occ2Gaussian模块转换为 3D 高斯基元,并渲染成Semantic&Depth(语义和深度) 图。这些图作为条件,与文本提示 (Text Prompt) 和噪声图像一起输入到Video Diffusion UNet中,最终由Video VAE Decoder(Dvid) 生成多视角视频。 -
LiDAR 生成 (下半部分): 生成的占用图输入到一个
LiDAR Sparse UNet中进行特征提取,然后通过Prior Guided Sampling(先验引导采样)策略生成点云,最后由LiDAR Head(Dlid) 输出最终的 LiDAR 点云。下面详细拆解每个模块。
-
4.1. 可控语义占用生成 (Controllable Semantic Occupancy Generation)
这一步的目标是从用户可编辑的 BEV 布局序列生成时序一致的 3D 语义占用序列。该模块由 Occupancy VAE 和 Latent Occupancy DiT 两部分组成。
该图像是论文中图10,展示了占用表示生成模型的架构,由占用VAE和占用DiT组成。占用VAE包含2D编码器(利用ResBlock、2D CNN和轴向注意力)及3D解码器。占用DiT采用时空自注意力块的去噪扩散过程,结合BEV布局序列生成统一的补丁化输出,实现稳健的占用生成。
上图(图10)详细展示了占用生成模型的架构。
-
时序感知的占用 VAE (Temporal-aware Occupancy VAE):
- 目的: 将高维度的 3D 占用数据 O∈R^(H×W×D) 压缩到一个更低维、更易于处理的连续潜在空间,以提高计算效率。
- 编码器 (Encoder): 采用 2D 卷积和 2D 轴向注意力,将 3D 占用图压缩为 BEV 特征,再编码为连续的潜在特征。作者发现连续的 VAE 比离散的 VQVAE 能更好地保留空间细节。
- 解码器 (Decoder): 采用 3D 卷积和 3D 轴向注意力,从潜在特征序列 z_occ^seq 重建出时序占用序列 O^seq。解码器专门处理时序信息,以捕捉动态变化。
- 损失函数: VAE 的训练损失由三部分构成:
- : 交叉熵损失 (Cross-Entropy Loss),用于像素级的分类准确性。
- : Lovasz-softmax 损失,用于改善分割任务中 IoU 指标。
- : KL 散度损失 (KL Divergence Loss),用于正则化潜在空间,使其接近标准正态分布。
- : 平衡各项损失的权重系数。
-
潜在占用 DiT (Latent Occupancy DiT):
- 目的: 在 VAE 压缩的潜在空间中,学习从噪声和 BEV 布局条件生成占用序列的潜在表示。
- 流程: 将随机噪声与 BEV 布局序列拼接 (concat) 在一起,然后进行
patchify(切块)操作,输入到 DiT 模型中。DiT 内部由一系列交错的空间 Transformer 块和时间 Transformer 块组成,分别用于聚合单帧内的空间信息和帧间的时间依赖关系。 - 损失函数: 采用扩散模型标准的均方误差损失:
- : 表示 DiT 网络。
- : 第 i 帧的加噪潜在表示。
- : 第 i 帧的 BEV 布局条件。
- : 添加的随机噪声。
- 目标是让网络预测出添加的噪声。
4.2. 视频:占用作为条件指导 (Video: Occupancy as Conditional Guidance)
这一步的目标是利用上一步生成的语义占用图,指导一个预训练的视频扩散模型(如 SVD)生成高质量、多视角、且与 3D 几何一致的视频。
该图像是图12,展示了视频生成模型的架构。模型结合视频潜在表示与文本提示,通过VAE编码器提取潜在特征并加入噪声,随后经Diffusion UNet利用跨注意力机制融合文本信息并精炼表示,基于语义占据网格生成深度与语义图,最后由VAE解码器生成去噪视频。
上图(图12)展示了视频生成模型的架构。
-
基于高斯的联合渲染 (Gaussian-based Joint Rendering):
- 目的: 将 3D 语义占用图这种离散的体素表示,转换为能够为 2D 视频生成提供密集指导的 2D 图像(深度图和语义图)。
- 流程:
- 占用转高斯: 将每个被占据的体素 grid 转换为一个 3D 高斯基元 G,其中心位置、语义标签、透明度等属性由体素决定。
- 渲染深度图与语义图: 使用
Gaussian Splatting的快速渲染技术,将这些 3D 高斯基元集合从不同相机视角投影到 2D 平面,分别渲染出深度图 D 和语义图 S。- 深度图 D 的渲染公式为: 这里 是第 i 个高斯球的深度, 是其投影到 2D 平面后的不透明度。该公式是对光线穿过的一系列半透明物体进行深度混合。
- 语义图 S 的渲染公式为:
这里 是第 i 个高斯球的语义标签,
onehot将其转换为独热编码。该公式是进行语义概率的混合,并取概率最大的类别。
- 注入条件: 渲染出的深度图和语义图通过一个类似于
ControlNet的结构注入到视频扩散 U-Net 中,为生成提供强几何和语义约束。
-
几何感知的噪声先验 (Geometric-aware Noise Prior):
- 目的: 为了增强生成视频的帧间一致性,特别是在动态区域,作者在扩散模型的采样初始噪声中引入了先验信息。
- 流程: 简单的方法是将第一帧(条件帧)的潜在表示 按一定比例 混合到后续帧的初始噪声中。但这样无法处理物体移动。因此,作者提出使用上一步渲染出的深度图 D,通过基于深度的重投影 (depth-based reprojection),将第一帧的特征
Warp(扭曲/映射)到当前帧的正确位置上。 - 公式:
- : 表示重投影操作,它利用相机内外参和深度图,将一个视图中的像素/特征映射到另一个视图。
- : 第 i 帧的深度图。
- : 相机内参和从第 i 帧到第 0 帧的变换矩阵。
- 这样,即使物体移动了,来自第一帧的外观先验也能被准确地“粘贴”到后续帧的对应位置,从而大大提高动态一致性。
4.3. LiDAR: 基于占用的稀疏建模 (LiDAR: Occupancy-based Sparse Modeling)
这一步的目标是利用生成的语义占用图,高效地生成逼真的 LiDAR 点云。
该图像是图13,展示了LiDAR生成模型的架构示意图,集成了LiDAR Sparse UNet和Prior Guided Sampling机制。模型通过对输入占用信息提取空间特征,并基于空间结构采样生成LiDAR点,最终用加权求和和MLP模块计算点的强度、射线丢弃概率及精确位置。
上图(图13)详细描绘了 LiDAR 生成模型的架构。
- 先验引导的稀疏建模 (Prior Guided Sparse Modeling):
- 核心思想: LiDAR 点云本质上是稀疏的,只存在于物体表面。因此,没有必要在整个 3D 空间中进行密集计算。语义占用图恰好提供了物体在哪里的先验信息。
- 流程:
- 特征提取: 使用一个
Sparse UNet(稀疏 U-Net)来处理输入的占用图。Sparse UNet只在被占据的体素上进行卷积计算,极大地提高了效率。 - 稀疏采样: 沿着 LiDAR 的每一条射线,首先进行均匀采样。然后,根据占用图先验,定义一个概率分布函数 (PDF):位于被占据体素内的采样点概率为 1,其余为 0。最后,基于这个 PDF 进行重采样,使得大部分计算点都集中在物体表面附近。
- 特征提取: 使用一个
- LiDAR 头与损失函数:
- 深度渲染: 对于每条射线上的采样点,一个 MLP 网络会预测其
SDF(Signed Distance Function,有符号距离函数) 值,然后通过体积渲染公式计算出最终的深度 。 - 额外预测头: 为了更真实地模拟 LiDAR,模型还增加了两个预测头:
- 反射强度头 (Intensity Head): 预测每个点的反射强度。
- 射线丢弃头 (Ray-dropping Head): 预测某条射线是否因为没有接收到反射而“丢失”,模拟了真实世界中的点云 dropout 现象。
- 损失函数:
-
: 渲染深度与真实深度的损失。
-
\mathcalL}_{\mathrm{inten}}: 预测强度与真实强度的损失。
-
: 预测射线丢弃概率与真实情况的损失(二元交叉熵)。
-
- 深度渲染: 对于每条射线上的采样点,一个 MLP 网络会预测其
5. 实验设置 (Experimental Setup)
-
数据集 (Datasets):
- 实验主要在 NuScenes 数据集上进行。NuScenes 是一个大规模的自动驾驶数据集,包含来自 6 个摄像头、1 个 LiDAR 和 5 个雷达的数据,并带有详细的 3D 标注。
- 对于语义占用任务,作者使用了 NuScenes-Occupancy 数据集,并将其 2Hz 的关键帧标注插值到 12Hz,以匹配视频的帧率。
-
评估指标 (Evaluation Metrics):
-
占用生成/预测:
-
概念定义 (
mIoU):mIoU(Mean Intersection over Union, 平均交并比) 是衡量语义分割或占用预测准确度的标准指标。它首先计算每个类别的IoU(预测区域与真实区域的交集面积除以并集面积),然后对所有类别的IoU取平均值。mIoU值越高,表示预测的占用图在形状和类别上与真实情况越吻合。 -
数学公式:
-
符号解释: 是类别总数。 (True Positives) 是类别 c 被正确预测的体素数, (False Positives) 是被错误预测为类别 c 的体素数, (False Negatives) 是类别 c 被漏掉的体素数。
-
概念定义 (
F3D):F3D(Fréchet 3D Distance) 是一种衡量生成 3D 占用序列与真实序列之间分布差异的指标,类似于视频领域的FVD。它通过一个预训练的 3D 识别网络提取生成序列和真实序列的特征,然后计算这两个特征分布的 Fréchet 距离。F3D值越低,表示生成的占用序列在时空动态性和真实性上与真实数据越接近。 -
数学公式:
-
符号解释: 和 分别是真实数据和生成数据特征的均值向量; 和 是它们的协方差矩阵; 表示矩阵的迹。
-
概念定义 (
MMD):MMD(Maximum Mean Discrepancy, 最大均值差异) 是一个用于衡量两个概率分布之间差异的非参数指标。它通过一个核函数将样本映射到高维空间,然后计算两个分布样本均值之间的距离。MMD值越低,表示两个分布(例如生成的点云分布和真实点云分布)越相似。 -
数学公式:
-
符号解释: 和 是两个概率分布。 是一个映射到再生核希尔伯特空间 (RKHS) 的核函数。 表示期望。
-
-
视频生成:
- 概念定义 (
FID):FID(Fréchet Inception Distance) 是衡量生成图像质量和多样性的常用指标。它使用预训练的 Inception-v3 网络提取真实图像集和生成图像集的特征,然后计算这两个特征分布的 Fréchet 距离。FID越低,表示生成图像的质量和多样性越接近真实图像。 - 概念定义 (
FVD):FVD(Fréchet Video Distance) 是FID在视频领域的扩展,用于评估生成视频的质量。它使用一个预训练的 3D 视频分类网络来提取特征,并计算生成视频集与真实视频集特征分布之间的 Fréchet 距离。FVD综合考虑了单帧质量、时间一致性和运动真实性。FVD越低,视频质量越高。
- 概念定义 (
-
LiDAR 生成:
- 概念定义 (
JSD):JSD(Jensen-Shannon Divergence, 杰森-香农散度) 是一种衡量两个概率分布之间相似性的指标。它是 KL 散度的一种对称、平滑版本。在点云评估中,通常将点云转换为体素网格的占用概率分布,然后计算生成点云和真实点云分布之间的JSD。JSD越低,表示生成的点云空间分布越接近真实情况。 - 数学公式:
- 符号解释: 和 是两个概率分布。 是 KL 散度。 是 和 的平均分布。
- 概念定义 (
-
-
对比基线 (Baselines):
-
占用生成:
OccWorld -
视频生成:
BEVGen,DriveDreamer,MagicDrive, ,Drive-WM等。 -
LiDAR 生成:
LiDARDM,Open3D(一个基于光线投射的非学习方法)。 -
下游任务:
CONet(用于占用预测),CVT(用于 BEV 分割),BEVFusion(用于 3D 检测)。
-
6. 实验结果与分析 (Results & Analysis)
该图像是关于Gaussian-based联合渲染的示意图,展示了不同层次数据的生成效果,包括占用率(Occupancy)、语义(Semantic)、深度(Depth)和RGB图像。图中分别展示了两组对比场景,突出方法在场景细节和几何信息上的表现。
上图(图3)展示了UniScene多任务生成能力。从BEV布局生成语义占用图,再生成多视角视频和LiDAR点云,并能通过文本控制生成不同天气和光照条件的视频。
该图像是论文中图4的示意图,展示了基于先验引导的稀疏采样策略以及LiDAR射线丢弃机制的可视化效果,左图(a)展示了依托占据点的采样过程,右图(b)展示了射线丢弃对LiDAR点云的影响对比。
上图(图4)展示了UniScene的可控生成能力。通过编辑BEV布局(例如移除车辆),生成的语义占用、LiDAR和视频内容会相应地发生改变。同时,通过不同的文本提示(text prompts),可以生成晴天、阴天、夜晚、雨天等不同风格的视频。
核心结果分析 (Core Results Analysis)
-
占用生成与预测 (Tables 2 & 3):
-
表2 (Occupancy Reconstruction): 在占用重建任务中,UniScene 的 VAE 在压缩比为 512 时,
mIoU达到了 72.9%,远超OccWorld (VQVAE)(65.7%) 和OccSora (VQVAE)(27.4%)。这证明了连续潜在空间 (VAE) 比离散 Token (VQVAE)更能保留几何细节。Method Compression ↑ Ratio mIoU ↑ IoU ↑ OccLLama (VQVAE) [68] 8 75.2 63.8 OccWorld (VQVAE) [86] 16 65.7 62.2 OccSora (VQVAE) [59] 512 27.4 37.0 Ours (VAE) 32 92.1 87.0 Ours (VAE) 512 72.9 64.1 -
表3 (Occupancy Generation and Forecasting): 在占用预测任务中,UniScene 的预测模型 (
Ours-Fore.) 的F3D和MMD指标分别比OccWorld降低了 70.39% 和 71.08%,显示出极强的时序建模能力和生成真实性。Method CFG mIoU ↑ F3D ↓ MMD ↓ Ours-Gen. 4 20.51 205.78 11.60 1 19.44 158.55 10.60 OccWorld [86] - 17.13 145.65 9.89 Ours-Fore. - 31.76 43.13 2.86
-
-
视频生成 (Table 4):
-
UniScene 在视频生成质量上全面领先。使用其自身生成的占用图 (
Gen Occ) 作为条件时,FVD达到了 71.94,优于所有对比方法,包括强大的Drive-WM(122.70) 和 (112.65)。这证明了以占用为中心的分解式生成范式的优越性。即使是直接从粗糙布局生成视频的MagicDrive,其质量也不及 UniScene。 -
当使用真实的占用图 (
GT Occ) 时,性能进一步提升至 70.52,说明生成质量仍有提升空间,主要瓶颈在于占用生成的质量。Method Multi-view Video FID ↓ FVD ↓ BEVGen [55] × × 25.54 - BEVControl [80] × × 24.85 - DriveGAN [27] × ✓ 73.40 502.30 DriveDreamer [85] × ✓ 52.60 452.00 Vista [16] × ✓ 6.90 89.40 WoVoGen [41] ✓ ✓ 27.60 417.70 Panacea [70] ✓ ✓ 16.96 139.00 MagicDrive [15] ✓ ✓ 16.20 - Drive-WM [66] × ✓ 15.80 122.70 Vista * [16] ✓ ✓ 13.97 112.65 Ours (Gen Occ) ✓ ✓ 6.45 71.94 Ours (GT Occ) ✓ ✓ 6.12 70.52
-
-
LiDAR 生成 (Table 5):
-
UniScene 在 LiDAR 生成方面同样表现最佳。其
MMD指标(2.40)比LiDARDM(3.51) 低了 31.6%,JSD指标也更优。 -
更引人注目的是生成速度。UniScene 的生成时间仅为 0.47 秒,远快于
LiDARDM(45.12 秒),这得益于其先验引导的稀疏建模策略,避免了大量无效计算。Method MMD (10-4)↓ JSD ↓ Time (s)↓ LiDARDM [91] 3.51 0.118 45.12 Open3D [89] 8.15 0.149 2.39 Ours (Gen Occ) 2.40 0.108 0.47 Ours (GT Occ) 1.53 0.072 0.25
-
-
下游任务提升 (Tables 6 & 7):
- 占用预测 (Table 6): 使用 UniScene 生成的数据(包括图像、LiDAR、深度图)对占用预测模型
CONet进行数据增强,无论是在纯相机 ()、纯 LiDAR () 还是多模态 (C&L) 设置下,性能都获得了巨大提升(mIoU分别提升 +3.7, +3.5, +3.8)。这远超其他生成模型带来的增益。 - BEV 分割与 3D 检测 (Table 7): 同样地,使用 UniScene 生成的数据增强
CVT和BEVFusion模型,在 BEV 分割和 3D 检测任务上的性能也获得了显著提升,再次证明了 UniScene 生成数据的高保真度和带标注的可用性。
- 占用预测 (Table 6): 使用 UniScene 生成的数据(包括图像、LiDAR、深度图)对占用预测模型
消融实验/参数分析 (Ablation Studies)
-
占用生成模型 (Table 8):
-
移除 VAE 中的 3D 轴向注意力和 DiT 中的时空注意力,
F3D和MMD指标均显著恶化。这表明显式地建模时空信息对于生成高质量、动态一致的占用序列至关重要。Method mIoU ↑ F3D ↓ MMD ↓ Ours 19.44 158.55 10.60 w/o. VAE 3D Axial Attention 18.77 167.91 17.10 w/o. DiT Temporal Attention 17.63 176.74 11.35 w/o. DiT Spatial Attention 10.29 261.03 18.59
-
-
视频生成模型 (Table 9):
-
条件指导的重要性: 移除渲染的语义图或深度图,
FVD指标大幅上升。这证明了来自占用的精细几何和语义指导是提升视频质量的关键。与使用Spatial-temporal Attention的方案相比,UniScene 的占用指导方案效果更好 (FVD70.52 vs 110.87),且计算效率更高。 -
噪声先验的有效性: 移除
Depth-based Noise Prior,FVD从 70.52 上升到 87.52,说明该策略有效增强了视频的时序一致性。Method FID↓ FVD↓ Ours 6.12 70.52 w/. Spatial-temporal Attention 12.72 110.87 w/o. Rendered Semantic Map 11.72 107.92 w/o. Rendered Depth Map 10.17 102.42 w/o. Depth-based Noise Prior 7.23 87.52
-
-
LiDAR 生成模型 (Table 10):
-
稀疏建模的优势: 移除
Sparse UNet或Sparse Sampling,性能 (JSD) 下降,且计算成本(Memory或Time)显著增加。这证明了稀疏建模策略在效率和效果上取得了很好的平衡。 -
真实性模拟: 移除
Ray-dropping Head,MMD和JSD指标大幅恶化,说明模拟 LiDAR 射线丢失现象对于生成更真实的 LiDAR 点云分布至关重要。Method MMD (10−4)↓ JSD ↓ Time (s)↓ Memory (GB)↓ Ours 1.53 0.072 0.25 6.84 w/o. Sparse UNet 2.88 0.097 0.21 6.73 w/o. Sparse Sampling 1.69 0.075 0.30 16.66 w/o. Ray-dropping Head 3.25 0.100 0.25 5.05
-
7. 总结与思考 (Conclusion & Personal Thoughts)
-
结论总结 (Conclusion Summary): UniScene 成功地构建了一个统一、可控的驾驶场景生成框架,能够高质量地生成语义占用、多视角视频和 LiDAR 点云三种关键数据。其核心创新在于“以占用为中心”的渐进式生成策略,将复杂的端到端生成任务分解为更易于管理的两个阶段,显著降低了学习难度。通过为视频和 LiDAR 生成分别设计的高斯联合渲染和稀疏建模策略,UniScene 有效地利用了语义占用图提供的精细几何与语义先验,在所有生成任务上均取得了 SOTA 性能,并证明了其生成的数据能有效提升下游感知任务的水平。
-
局限性与未来工作 (Limitations & Future Work):
- 资源密集: 作者承认,将多个生成任务集成到一个统一系统中是具有挑战性且资源密集(计算和内存)的。
- 未来方向:
- 轻量化部署: 探索如何优化系统,使其更加轻量化,是未来研究的一个有前景的方向。
- 领域扩展: 将该系统扩展到其他相关领域,如具身智能 (embodied intelligence) 和机器人学,是另一个有价值的探索方向。
-
个人启发与批判 (Personal Insights & Critique):
- “中间表示”思想的胜利: 这篇论文最核心的启发在于展示了“分而治之”和寻找优秀“中间表示”在解决复杂生成任务中的强大威力。直接学习从粗糙输入到精细输出的映射往往是吃力不讨好的,而引入一个既能承上(易于从粗糙输入生成)又能启下(能有效指导后续生成)的中间表示(本文中的语义占用),是解锁高质量生成的关键。这一思想可以广泛迁移到其他复杂的生成任务中。
- 技术选型的巧妙融合: UniScene 巧妙地融合了当前最前沿的多种生成和表示技术,如
Diffusion Transformer用于时序建模,Gaussian Splatting用于高效渲染,Sparse Convolution用于高效处理点云。这种“集大成”式的创新展现了作者深厚的技术视野。 - 潜在问题与挑战:
- 误差累积: 这是一个两阶段生成 pipeline,第一阶段占用生成的误差会不可避免地传递并影响到第二阶段的视频和 LiDAR 生成。虽然实验表明
Ours (Gen Occ)的结果已经很好,但与Ours (GT Occ)之间仍有差距,这说明误差累积问题是存在的。 - 系统复杂性: 整个 UniScene 框架由多个复杂的大模型(VAE, DiT, Diffusion UNet, Sparse UNet)组成,训练和推理的流程相当复杂,部署和复现的门槛较高。作者提到的“轻量化”确实是未来必须面对的问题。
- 可控性的粒度: 目前的可控性主要通过 BEV 布局实现,这主要控制了场景的宏观结构。对于更细粒度的控制,如单个车辆的精确轨迹、外观、行为交互等,该框架可能还需要进一步的扩展。
- 误差累积: 这是一个两阶段生成 pipeline,第一阶段占用生成的误差会不可避免地传递并影响到第二阶段的视频和 LiDAR 生成。虽然实验表明
相似论文推荐
基于向量语义检索推荐的相关论文。