4D Gaussian Splatting SLAM
TL;DR 精炼摘要
该论文提出一种新颖的4D高斯溅射SLAM系统,解决了动态场景下相机定位与场景重建的挑战,通过构建4D高斯辐射场而非简单移除动态物体,实现了2D图像与4D现实世界的桥接。其关键方法包括利用RGB-D图像序列,将高斯基元分为静态和动态两组,并结合稀疏控制点及MLP来建模动态高斯的运动。为精确学习动态运动,还创新性地设计了2D光流图重建算法进行监督。实验结果表明,该方法在真实环境中展现了鲁棒的相机跟踪和高质量的视图合成能力。
摘要
Simultaneously localizing camera poses and constructing Gaussian radiance fields in dynamic scenes establish a crucial bridge between 2D images and the 4D real world. Instead of removing dynamic objects as distractors and reconstructing only static environments, this paper proposes an efficient architecture that incrementally tracks camera poses and establishes the 4D Gaussian radiance fields in unknown scenarios by using a sequence of RGB-D images. First, by generating motion masks, we obtain static and dynamic priors for each pixel. To eliminate the influence of static scenes and improve the efficiency on learning the motion of dynamic objects, we classify the Gaussian primitives into static and dynamic Gaussian sets, while the sparse control points along with an MLP is utilized to model the transformation fields of the dynamic Gaussians. To more accurately learn the motion of dynamic Gaussians, a novel 2D optical flow map reconstruction algorithm is designed to render optical flows of dynamic objects between neighbor images, which are further used to supervise the 4D Gaussian radiance fields along with traditional photometric and geometric constraints. In experiments, qualitative and quantitative evaluation results show that the proposed method achieves robust tracking and high-quality view synthesis performance in real-world environments.
思维导图
论文精读
中文精读
1. 论文基本信息 (Bibliographic Information)
- 标题 (Title): 4D Gaussian Splatting SLAM (4D 高斯溅射 SLAM)
- 作者 (Authors): Yanyan Li, Youxu Fang, Zunjie Zhu, Kunyi Li, Yong Ding, Federico Tombari。作者分别来自慕尼黑工业大学 (Technical University of Munich)、杭州电子科技大学 (Hangzhou Dianzi University)、浙江大学 (Zhejiang University) 和谷歌 (Google),均是计算机视觉和机器人领域的知名研究机构。
- 发表期刊/会议 (Journal/Conference): 本文目前发布在 arXiv 上,是一个预印本 (Preprint),尚未经过同行评审或在正式的会议/期刊上发表。arXiv 是计算机科学领域研究人员分享最新成果的重要平台。
- 发表年份 (Publication Year): 2025 (根据 arXiv 编号推断,实际提交于 2025 年 3 月)。
- 摘要 (Abstract): 论文提出了一种在动态场景中同时进行相机定位和构建高斯辐射场的方法,旨在建立 2D 图像与 4D 真实世界之间的桥梁。与传统方法移除动态物体不同,本文提出了一种高效的架构,利用 RGB-D 图像序列,增量式地跟踪相机位姿并构建 4D 高斯辐射场。该方法首先通过生成运动掩码来区分像素的静态与动态先验。为了消除静态场景对动态物体运动学习的干扰并提高效率,它将高斯基元分为静态和动态两组,并利用稀疏控制点和多层感知机 (MLP) 来建模动态高斯基元的变换场。为了更精确地学习动态高斯基元的运动,本文设计了一种新颖的 2D 光流图重建算法,用于渲染相邻图像间动态物体的光流,并将其与传统的光度、几何约束一同用于监督 4D 高斯辐射场的学习。实验结果表明,该方法在真实世界环境中实现了鲁棒的跟踪和高质量的视图合成性能。
- 原文链接 (Source Link):
- arXiv 链接: https://arxiv.org/abs/2503.16710v1
- PDF 链接: http://arxiv.org/pdf/2503.16710v1
- 发布状态: 预印本 (Preprint)。
2. 整体概括 (Executive Summary)
-
研究背景与动机 (Background & Motivation - Why):
- 核心问题: 传统的即时定位与地图构建 (SLAM) 系统通常假设场景是静态的。在现实世界中,如有人走动、物体被移动等动态元素普遍存在,这会严重干扰相机的定位精度和地图构建的质量。
- 重要性与挑战: 如何在包含动态物体的场景中实现鲁棒的相机跟踪和高质量的三维重建,是机器人、增强现实和自动驾驶等领域的关键挑战。现有方法大多将动态物体视为干扰物或“噪声”,通过检测并移除它们来保证静态环境的重建质量,但这不仅丢失了场景的完整信息,也无法对动态物体本身进行建模。
- 创新思路: 本文的切入点是不再丢弃动态物体,而是主动地对它们进行建模和重建。作者提出,可以将整个场景分解为静态背景和动态前景,并为两者分别建立模型。通过这种方式,系统不仅能利用稳定的静态部分进行精确的相机定位,还能同时构建一个包含时间和空间变化的四维 (4D) 场景表示。
-
核心贡献/主要发现 (Main Contribution/Findings - What):
- 提出了一个新颖的 4D 高斯溅射 SLAM 框架: 这是首批能够同时进行相机定位并在未知动态场景中构建 4D 高斯辐射场 (Gaussian radiance fields) 的方法之一。它实现了对整个动态场景(包括背景和运动物体)的完整重建。
- 引入了静态与动态高斯基元的分离机制: 通过运动掩码将场景中的高斯基元划分为
静态和动态两部分。相机跟踪仅依赖于稳定的静态高斯基元,从而提高了定位的鲁棒性。动态高斯基元的运动则通过一个由稀疏控制点和 MLP 驱动的变换场(transformation field) 进行建模。 - 设计了一种创新的基于光流渲染的监督信号: 为了更精确地学习动态物体的运动,本文提出了一种新方法:直接从学习到的动态高斯基元中“渲染”出 2D 光流图,并将其与使用成熟的光流估计算法 (如 RAFT) 在真实图像上计算出的光流图进行对比,形成一个
光流损失(optical flow loss)。这个损失函数为动态模型的学习提供了强有力的监督。
3. 预备知识与相关工作 (Prerequisite Knowledge & Related Work)
-
基础概念 (Foundational Concepts):
- SLAM (Simultaneous Localization and Mapping): 中文译为“即时定位与地图构建”。它指的是一个移动设备(如机器人或手机)在未知环境中,一边估计自身的运动轨迹 (Localization),一边构建环境的三维地图 (Mapping) 的过程。这是一个“鸡生蛋,蛋生鸡”的问题,因为准确的定位依赖于精确的地图,而精确的地图又需要准确的定位来构建。
- RGB-D 相机: 一种能同时捕捉彩色图像 (RGB) 和深度信息 (Depth) 的相机。深度信息记录了图像中每个像素点到相机的距离,为三维重建提供了关键的几何信息。
- 3D 高斯溅射 (3D Gaussian Splatting, 3DGS): 一种新兴的、高效的三维场景表示方法。它不像传统的三维模型那样使用点、线、面,而是使用成千上万个微小的、带有颜色和透明度的三维高斯椭球来“绘制”场景。这种方法在渲染新视角图像时速度极快且质量很高,优于此前的 NeRF 方法。
- 光流 (Optical Flow): 描述了连续两帧图像之间,每个像素点的运动情况。它是一个二维向量场,每个向量指明了对应像素从第一帧到第二帧的移动方向和距离。光流是理解场景动态信息的重要线索。
- 多层感知机 (Multilayer Perceptron, MLP): 一种基础的前馈神经网络,由多个神经元层组成。在本文中,它被用作一个函数逼近器,学习从时间和空间位置到动态物体变换(旋转和平移)的复杂映射关系。
-
前人工作 (Previous Works):
- 静态 GS-SLAM: 像
MonoGS、Gaussian-SLAM和SplaTAM等方法将 3DGS 技术成功应用于 SLAM。它们在静态场景中表现出色,能够实现高质量的实时重建。然而,这些方法假设场景是静止的,一旦出现动态物体,它们的相机跟踪和建图就会产生严重错误。 - 处理动态场景的 SLAM: 此前处理动态场景的主流策略是“检测并移除”。例如
DGS-SLAM,它们会利用语义分割或运动检测模型(如Segment Anything)识别出图像中的动态区域,然后在 SLAM 计算中忽略这些区域的像素。这种方法的缺点是只重建了静态背景,丢失了场景的动态信息。 - 动态场景的 3DGS 重建: 像
4DGS和SC-GS等工作致力于用 3DGS 重建动态场景。它们能够生成非常逼真的动态视频。但这些方法通常假设相机的位姿是已知的,即它们需要预先通过其他系统(如专业的动作捕捉设备)获得相机轨迹,而不能像 SLAM 系统一样在未知环境中自己定位。
- 静态 GS-SLAM: 像
-
技术演进 (Technological Evolution): SLAM 技术从早期基于稀疏特征点的方法 (如
ORB-SLAM),发展到能够构建稠密地图的直接法 (如LSD-SLAM),再到近年来结合深度学习和隐式神经表示 (如NeRF-SLAM)。3DGS 的出现为 SLAM 提供了一种新的、高效且高质量的场景表示方案,催生了GS-SLAM。本文正是在这个脉络上,将GS-SLAM从静态场景推向了更具挑战性也更实用的动态场景,并且不是简单地忽略动态物体,而是将动态物体的 4D 建模也整合进了 SLAM 框架中。 -
差异化分析 (Differentiation): 与上述工作的核心区别在于:
- 目标不同: 与静态
GS-SLAM不同,本文的目标是同时重建静态背景和动态物体,生成 4D 地图。 - 方法不同: 与“移除动态物体”的 SLAM 不同,本文显式地建模动态物体的运动。
- 能力不同: 与需要已知相机位姿的动态 3DGS 方法不同,本文是一个完整的 SLAM 系统,能够在未知环境中自主估计相机位姿。
- 技术创新: 独创性地提出了渲染光流图并以此作为监督信号,为动态模型的学习提供了一种新颖且有效的约束。
- 目标不同: 与静态
4. 方法论 (Methodology - Core Technology & Implementation Details)
本文提出的 4DGS-SLAM 系统框架如下图所示,主要包含初始化 (Initialization)、跟踪 (Tracking) 和 4D 建图 (4D Mapping) 三个核心模块。
该图像是论文中系统架构的示意图,展示了基于输入RGB-D序列的4D高斯点云SLAM流程。包括静态和动态高斯成分分离,动态高斯变换场和控制点初始化,基于关键帧的光流估计及动态损失计算,联合优化高斯参数、相机位姿和动态变形,最终实现鲁棒的相机追踪与高质量动态场景重建。
-
方法原理 (Methodology Principles): 核心思想是“分而治之”:将场景中的三维高斯基元分解为
静态和动态两部分。静态部分用于稳定地估计相机位姿,因为它不受场景中物体运动的干扰。动态部分则通过一个可学习的形变网络来专门建模其随时间的变化。最后,通过一个联合优化过程,同时更新相机位姿、静态地图和动态物体的 4D 模型。 -
方法步骤与流程 (Steps & Procedures):
3.1. 初始化 (Initialization)
- 高斯表示: 每个高斯基元 不仅包含传统的位置 、协方差 、颜色 和不透明度 ,还额外增加了一个二进制属性
dy,用于标记该高斯是静态 (dy=0) 还是动态 (dy=1)。 - 静态/动态分离:
- 系统接收一帧新的 RGB-D 图像后,首先使用一个预训练的目标检测模型 (
YOLOv9) 和光流来生成运动掩码(motion mask),识别出图像中的运动区域。 - 在初始化新的高斯基元时,如果一个像素位于运动掩码内,那么从它生成的高斯基元就被标记为动态 (dy=1),否则为静态 (dy=0)。
- 系统接收一帧新的 RGB-D 图像后,首先使用一个预训练的目标检测模型 (
- 动态模型:
- 对于所有动态高斯基元 ,它们的运动由一个
形变场(deformation field) 控制。 - 该形变场由一组稀疏的控制点和一个小型神经网络 MLP () 构成。控制点在初始帧的运动区域内生成。
- MLP 的任务是预测在任意时刻 ,每个控制点 的 6-DoF 变换(旋转 和平移 )。
- 每个动态高斯基元的具体运动,是通过
线性混合蒙皮(Linear Blend Skinning, LBS) 技术,对其周围最近的 K 个控制点的变换进行加权插值得到的。这样,只需学习少数控制点的运动,就能驱动大量动态高斯基元的复杂形变。
- 对于所有动态高斯基元 ,它们的运动由一个
3.2. 跟踪 (Tracking)
- 目的: 估计每一帧新图像的相机位姿。
- 核心策略: 为了避免动态物体的运动干扰定位,在跟踪阶段,系统只使用静态高斯基元 来渲染参考图像。
- 优化过程: 将渲染出的静态场景的颜色图和深度图,与输入的真实 RGB-D 图像的静态部分(通过运动掩码 M 过滤)进行对比,通过最小化它们之间的 损失来优化相机位姿。
- 关键帧选择: 当相机移动足够距离,或者场景中的动态物体运动发生显著变化时,当前帧会被选为关键帧,用于后续的地图优化。
3.3. 4D 建图 (4D Mapping)
- 目的: 优化所有高斯基元(包括静态和动态)的属性以及动态形变网络。
- 新颖的监督信号——光流图渲染:
- 这是本文最关键的创新之一。传统的光度和几何损失在动态场景中不足以提供充分的约束。
- 作者提出,可以利用学习到的动态模型来“渲染”光流。具体做法是:对于当前关键帧 和上一关键帧
t-1,将动态高斯基元 从t-1时刻的位置变换到 时刻的位置。 - 将这两个时刻的动态高斯基元投影到当前关键帧 的图像平面上,得到两组 2D 点。这两组点之间的位移差 就是每个高斯基元在图像上的运动。
- 利用 3DGS 的渲染管线,将这些位移差 渲染成一张完整的 2D
光流图。
- 联合优化:
- 在建图阶段,系统会优化一个包含多个损失项的联合损失函数 。
- 这个损失函数不仅包括传统的光度损失 和几何损失 ,还加入了新颖的
光流损失,以及一些正则化项(如ARAP loss和 E_{iso})来保证动态形变的平滑和高斯形状的合理性。
- 两阶段映射策略: 为了优化稳定,建图过程分为两个阶段。第一阶段先固定高斯参数,只优化相机位姿和动态形变网络;第二阶段则对所有参数进行联合优化。
- 高斯表示: 每个高斯基元 不仅包含传统的位置 、协方差 、颜色 和不透明度 ,还额外增加了一个二进制属性
-
数学公式与关键细节 (Mathematical Formulas & Key Details):
-
渲染方程: 像素的颜色 、深度 和不透明度 通过 alpha-blending 渲染得到。以颜色为例:
- 和 分别是第 个高斯基元的颜色和不透明度。该公式表示从前到后混合所有对像素 有贡献的高斯基元的颜色。
-
跟踪损失 ():
- : 图像中的像素。
- : 运动掩码,用于忽略动态区域的像素。
- : 由静态高斯渲染出的颜色和深度。
- : 绝对值差损失函数。
- : 平衡颜色和深度损失的权重。
-
光流渲染方程 ():
- : 第 个动态高斯在时间
t-1到 之间投影到图像上的 2D 位移。 - 此公式结构与颜色渲染类似,但混合的不是颜色值,而是运动向量 ,从而得到像素 的光流值。
- : 第 个动态高斯在时间
-
光流损失 ():
- : 从动态高斯渲染出的从 到
t-1的反向光流图。 - : 使用 RAFT 模型从真实图像计算出的反向光流图(作为伪真值)。
- 该损失函数促使学习到的动态高斯运动与真实图像中的运动保持一致。
- : 从动态高斯渲染出的从 到
-
总建图损失 ():
- 这是一个加权和,包含了光度损失、几何损失、光流损失以及
ARAP(As-Rigid-As-Possible, 尽可能刚性) 损失和各向同性 (isotropic) 损失 等正则项。
- 这是一个加权和,包含了光度损失、几何损失、光流损失以及
-
5. 实验设置 (Experimental Setup)
-
数据集 (Datasets):
- TUM RGB-D dataset: 这是一个广泛用于评估 RGB-D SLAM 算法的经典数据集。它包含多种室内场景,其中一些序列(如
sitting和walking)包含人物走动和坐下等动态行为,非常适合测试动态 SLAM 算法的性能。 - BONN RGB-D Dynamic dataset: 这是一个专门为动态场景三维重建设计的更具挑战性的数据集。它包含了更复杂的动态事件,如物体被拿起和放下、多个人同时移动等。
- 选择原因: 这两个数据集都是真实世界采集的,并提供了精确的相机轨迹真值,便于定量评估相机定位的准确性。同时,它们的动态复杂性不同,可以全面检验算法的鲁棒性和重建质量。
- TUM RGB-D dataset: 这是一个广泛用于评估 RGB-D SLAM 算法的经典数据集。它包含多种室内场景,其中一些序列(如
-
评估指标 (Evaluation Metrics):
-
用于评估相机定位精度:
- ATE (Absolute Trajectory Error, 绝对轨迹误差):
- 概念定义: ATE 是衡量 SLAM 系统估计的相机轨迹与真实轨迹之间全局一致性的核心指标。它首先将估计轨迹与真实轨迹进行对齐(通常通过最小二乘法),然后计算两者在每个时间戳上对应位姿的均方根误差 (RMSE)。ATE 值越小,说明估计的轨迹越接近真实轨迹,定位精度越高。
- 数学公式:
- 符号解释:
- : 轨迹中的总帧数。
- : 第 帧的真实相机位姿。
- : 第 帧的估计相机位姿。
- : 将估计轨迹对齐到真实轨迹的变换矩阵。
- : 提取位姿矩阵中的平移向量部分。
- : 计算向量的二范数(即长度)。
- ATE (Absolute Trajectory Error, 绝对轨迹误差):
-
用于评估地图重建(视图合成)质量:
-
PSNR (Peak Signal-to-Noise Ratio, 峰值信噪比):
- 概念定义: PSNR 是衡量图像质量的常用指标,通过计算渲染图像与真实图像之间像素误差的对数来表示。PSNR 的值越高,说明渲染图像与真实图像越接近,失真越小,重建质量越好。它对像素级别的差异非常敏感。
- 数学公式: 其中,。
- 符号解释:
- : 图像像素值的最大可能值(对于 8 位图像,通常是 255)。
- MSE: 均方误差 (Mean Squared Error)。
m, n: 图像的高度和宽度。- : 真实图像在像素 处的值。
- : 渲染图像在像素 处的值。
-
SSIM (Structural Similarity Index Measure, 结构相似性指数):
- 概念定义: SSIM 是一种从人类视觉感知角度衡量图像相似性的指标。与 PSNR 不同,它不仅考虑像素差异,还综合评估两张图像在亮度、对比度和结构上的相似性。SSIM 的取值范围为 0 到 1,值越接近 1,表示两张图像在结构上越相似,渲染质量越高。
- 数学公式:
- 符号解释:
x, y: 两张待比较的图像块。- : 图像块 和 的平均值。
- : 图像块 和 的方差。
- : 图像块 和 的协方差。
- : 用于维持稳定性的常数。
-
LPIPS (Learned Perceptual Image Patch Similarity, 学习感知图像块相似度):
- 概念定义: LPIPS 是一种基于深度学习的图像质量评估指标。它通过一个预训练的深度神经网络(如 VGG)提取两张图像的深层特征,并计算这些特征之间的距离。LPIPS 被认为比 PSNR 和 SSIM 更符合人类的主观感知,因为它能更好地捕捉图像的语义和风格差异。LPIPS 值越低,表示两张图像在感知上越相似,渲染质量越高。
- 数学公式:
- 符号解释:
- : 图像 和 之间的 LPIPS 距离。
- : 神经网络的第 层。
- : 从图像 中提取的第 层的特征图。
- : 第 层特征图的高度和宽度。
- : 用于缩放各通道激活的权重向量。
- : 逐元素相乘。
-
-
-
对比基线 (Baselines):
- GS-SLAM 方法:
SplaTAM,Gaussian-SLAM,MonoGS。这些是先进的基于高斯溅射的 SLAM 系统,但它们主要为静态场景设计。将它们作为基线可以突显本文方法在处理动态场景时的优势。 - 动态 3DGS 方法:
SC-GS。这是一个强大的动态场景重建方法,但它需要预先知道相机位姿。与它比较可以验证本文在重建质量上能否达到或接近专用动态重建方法的水平。 - 动态 NeRF-SLAM 方法:
RoDyn-SLAM。这是一个基于 NeRF 的动态 SLAM 系统,与本文目标相似。将它作为基线可以比较基于高斯溅射和基于 NeRF 的两种不同技术路线在动态 SLAM 任务上的优劣。
- GS-SLAM 方法:
6. 实验结果与分析
-
核心结果分析 (Core Results Analysis):
-
相机定位精度 (Pose Estimation):
- 以下是论文 Table 4 和 Table 1 的转录数据,展示了在 TUM RGB-D 和 BONN 数据集上的 ATE (cm) 误差。
Table 4: TUM RGB-D 数据集上的 ATE (cm) 轨迹误差
Method fr3/sit_st fr3/sit_xyz fr3/sit_rpy fr3/walk_st fr3/walk_xyz fr3/walk rpy Avg. RoDyn-SLAM[20] 1.5 5.6 5.7 1.7 8.3 8.1 5.1 MonoGS[30] 0.48 1.7 6.1 21.9 30.7 34.2 15.8 Gaussian-SLAM[50] 0.72 1.4 21.02 91.50 168.1 152.0 72.4 SplaTAM[21] 0.52 1.5 11.8 83.2 134.2 142.3 62.2 Ours 0.58 2.9 2.6 0.52 2.1 2.6 1.8 Table 1: BONN 数据集上的 ATE (cm) 轨迹误差
Method ballon ballon2 ps_track ps_track2 sync sync2 p_no_box p_no_box2 p_no_box3 Avg. RoDyn-SLAM[20] 7.9 11.5 14.5 13.8 1.3 1.4 4.9 6.2 10.2 7.9 MonoGS[30] 29.6 22.1 54.5 36.9 68.5 0.56 71.5 10.7 3.6 33.1 Gaussian-SLAM[50] 66.9 32.8 107.2 114.4 111.8 164.8 69.9 53.8 37.9 84.3 SplaTAM[21] 32.9 30.4 77.8 116.7 59.5 66.7 91.9 18.5 17.1 56.8 Ours 2.4 3.7 8.9 9.4 2.8 0.56 1.8 1.5 2.2 3.6 分析:
- 在包含显著动态(如
walk_xyz,walk_rpy)的序列中,所有为静态场景设计的 GS-SLAM 方法 (MonoGS,Gaussian-SLAM,SplaTAM) 的定位误差都急剧增大,甚至完全失败。这证明了动态物体对传统 SLAM 的致命影响。 - 本文方法 (
Ours) 在所有动态序列上都取得了最低的平均误差(TUM: 1.8cm, BONN: 3.6cm),远优于其他 GS-SLAM 基线。这强有力地证明了其通过分离静态/动态高斯进行跟踪的策略是极其有效的。 - 与同为动态 SLAM 的
RoDyn-SLAM相比,本文方法在两个数据集上的平均定位精度都更高,说明其框架在鲁棒性和准确性上具有优势。
-
地图重建质量 (Quality of Reconstructed Map):
- 以下是论文 Table 2 和 Table 3 的转录数据,展示了视图合成质量。
Table 2: TUM RGB-D 数据集上的渲染质量
Method Metric fr3/sit_st fr3/sit_xyz fr3/sit_rpy fr3/walk_st fr3/walk_xyz fr3/walk_rpy Avg. ... ... ... ... ... ... ... ... ... Ours PSNR[dB] ↑ 27.68 24.37 20.71 22.99 19.83 19.22 22.46 SSIM↑ 0.892 0.822 0.746 0.820 0.730 0.708 0.786 LPIPS↓ 0.116 0.179 0.265 0.195 0.281 0.337 0.228 Table 3: BONN 数据集上的渲染质量 (摘要展示)
Method Metric ... Avg. ... ... ... ... Ours PSNR[dB] ↑ ... 23.66 SSIM↑ ... 0.852 LPIPS↓ ... 0.241 分析:
-
在所有三个指标(PSNR, SSIM, LPIPS)上,本文方法在两个数据集上的平均表现都是最好的。这表明它不仅定位准,而且重建的 4D 地图质量非常高。
-
从定性结果(下图)可以看出,其他方法在动态区域会出现严重的模糊、重影或伪影,而本文方法能清晰地重建动态人物和静态背景。
该图像是论文中针对TUM RGB-D数据集的渲染图像视觉对比,展示了Ground Truth、MonoGS、SplaTAM、SC-GS和本文所提方法五种结果。图中三组场景分别是两个人坐在桌旁和静态办公桌,体现了各方法在动态与静态环境下的视觉复原效果差异。
该图像是一个包含两组动态场景对比的插图,展示了不同方法在动态目标处理上的效果。上半部分展示了一个人搬运箱子的动作序列,下半部分为两人行走的序列。每组图像从左至右依次为真实场景(Ground Truth)、MonoGS、SplaTAM、SC-GS以及本文方法的重建结果。图中重点对比了各方法在动态物体运动模糊和重建清晰度上的表现,体现了本文方法在动态场景下更鲁棒且更精确的跟踪与合成能力。
上图(Figure 5)清晰地展示了,在
placing_no_box3和synchronous序列中,MonoGS和SplaTAM等方法无法处理人物运动,导致人物形象模糊不清;SC-GS虽然能重建动态人物,但背景和人物边缘有时存在伪影;而本文方法 (Ours) 的重建结果在清晰度和真实感上最接近真实图像 (Ground Truth)。
-
-
消融实验/参数分析 (Ablation Studies / Parameter Analysis):
-
映射策略 (Mapping Strategy):
该图像是多张渲染结果对比的插图,展示了不同映射策略下动态场景的重建效果。图中(a)为真实图像(GT),其余(b)-(f)为不同方法生成的渲染图像。结果显示,采用两阶段映射和最终方法(fin)能更清晰地还原人物和环境细节,而去除两阶段映射或减少映射次数则导致图像模糊或失真。该图展示了在建图 (Mapping) 阶段,选择哪些关键帧进行优化的不同策略对最终渲染结果的影响。结果表明,本文采用的策略 (f),即优化最近的 3 个关键帧、全局随机的 2 个关键帧和与当前帧重叠的 5 个随机关键帧,在动态人物和静态背景的清晰度上达到了最佳平衡。这说明了精细的优化策略对于高质量重建至关重要。
-
光流损失和高斯分离的作用:
- 以下是论文 Table 5 的转录数据,在 BONN 数据集的两个序列上进行了消融实验。
Table 5: 消融实验结果 (PSNR)
Optical Flow Separate Gaussians sync sync2 × × 18.37 22.11 ✓ × 22.87 24.84 × ✓ 17.40 21.03 ✓ ✓ 23.25 25.42 分析:
- 光流损失 (Optical Flow) 的作用: 比较第一行 (×, ×) 和第二行 (✓, ×),加入光流损失后,PSNR 显著提升 (18.37 -> 22.87)。这证明了新颖的光流损失为动态模型的学习提供了非常有效的监督,是提升重建质量的关键。
- 高斯分离 (Separate Gaussians) 的作用: 比较第一行 (×, ×) 和第三行 (×, ✓),仅分离动静态高斯而不做针对性学习,效果甚至变差。但当与光流损失结合时(比较第二行和第四行),分离策略能带来进一步的提升。这说明,分离动静态高斯本身是一个基础框架,必须与专门为动态部分设计的学习目标(如光流损失)相结合,才能发挥最大作用。
- 两者结合: 第四行 (✓, ✓) 代表本文的完整方法,取得了最好的结果。这充分验证了本文提出的两个核心创新点——光流损失和动静态分离——都是必要且有效的。
-
7. 总结与思考 (Conclusion & Personal Thoughts)
-
结论总结 (Conclusion Summary): 本文成功地提出了一种新颖的 4D 高斯溅射 SLAM 框架,能够在未知的动态环境中,同时实现鲁棒的相机定位和高质量的动态场景重建。通过将高斯基元分为静态和动态两部分,并为动态部分设计了由稀疏控制点、MLP 和创新的光流渲染损失驱动的形变模型,该方法有效地解决了传统 SLAM 在动态场景中失效的问题。实验证明,该方法在定位精度和重建质量上均达到了业界领先水平。
-
局限性与未来工作 (Limitations & Future Work): 论文本身未明确指出局限性,但根据其方法可以推断出以下几点:
- 依赖预训练模型: 该系统依赖
YOLOv9进行初步的运动分割和RAFT计算光流伪真值。如果这些预训练模型在特定场景(如未见过的物体类别、极端光照)下表现不佳,可能会影响系统的初始分割精度和动态学习效果。 - 拓扑变化处理: 该方法对于动态物体的拓扑结构变化(例如,一个人穿上或脱下外套)可能处理不好,因为其形变模型基于蒙皮插值,更适合处理关节运动而非拓扑变化。
- 计算复杂度: 同时优化 SLAM 和 4D 动态模型,计算开销较大,实现实时高性能运行仍有挑战。
- 未来工作可能包括:1) 探索端到端的、不依赖特定预训练模型的方法;2) 增强对物体拓扑变化和更复杂非刚性形变的建模能力;3) 进一步优化算法,降低计算负载,使其更接近实时应用。
- 依赖预训练模型: 该系统依赖
-
个人启发与批判 (Personal Insights & Critique):
- 启发: 这篇论文最令人印象深刻的启发是“将三维模型的运动约束转换回二维图像空间进行监督”。直接在 3D 空间监督动态模型的学习是困难的,因为缺乏 3D 运动的真值。而本文通过“渲染光流图”这一巧妙的操作,将 3D 高斯基元的运动投影回 2D 图像平面,并与成熟的 2D 光流估计算法的结果进行比对。这为复杂的 3D/4D 学习问题提供了一个非常实用且有效的监督来源,这种思想可以迁移到其他类似的三维动态建模任务中。
- 批判性思考: 该方法虽然效果显著,但其成功很大程度上建立在一个“分而治之”的假设上:即场景可以被清晰地划分为完全静态和动态的部分。在某些场景中,物体可能处于“半动态”状态(例如,被风吹动的窗帘、轻微晃动的植物),如何优雅地处理这种介于静态和动态之间的状态,是该框架需要进一步思考的问题。此外,将动态模型限定在稀疏控制点驱动的形变场,虽然高效,但也限制了其表达能力,对于非常剧烈或无规律的运动(如水流、烟雾),该模型可能难以胜任。总的来说,这是一项扎实且具有开创性的工作,为动态环境下的 SLAM 和三维重建领域开辟了新的道路。
相似论文推荐
基于向量语义检索推荐的相关论文。