MASt3R-Fusion: Integrating Feed-Forward Visual Model with IMU, GNSS for High-Functionality SLAM
TL;DR 精炼摘要
MASt3R-Fusion提出创新的多传感器SLAM框架,通过融合前馈视觉模型、IMU与GNSS,克服了传统视觉SLAM在弱纹理和尺度模糊环境下的局限。其核心方法是将Sim(3)视觉对齐约束高效转换为通用的度量尺度SE(3)因子图,并结合分层优化策略,实现了实时位姿跟踪和全局一致性建图。实验结果表明,该系统在定位精度和鲁棒性上均显著超越了现有以视觉为中心的多传感器SLAM方案。
摘要
Visual SLAM is a cornerstone technique in robotics, autonomous driving and extended reality (XR), yet classical systems often struggle with low-texture environments, scale ambiguity, and degraded performance under challenging visual conditions. Recent advancements in feed-forward neural network-based pointmap regression have demonstrated the potential to recover high-fidelity 3D scene geometry directly from images, leveraging learned spatial priors to overcome limitations of traditional multi-view geometry methods. However, the widely validated advantages of probabilistic multi-sensor information fusion are often discarded in these pipelines. In this work, we propose MASt3R-Fusion,a multi-sensor-assisted visual SLAM framework that tightly integrates feed-forward pointmap regression with complementary sensor information, including inertial measurements and GNSS data. The system introduces Sim(3)-based visualalignment constraints (in the Hessian form) into a universal metric-scale SE(3) factor graph for effective information fusion. A hierarchical factor graph design is developed, which allows both real-time sliding-window optimization and global optimization with aggressive loop closures, enabling real-time pose tracking, metric-scale structure perception and globally consistent mapping. We evaluate our approach on both public benchmarks and self-collected datasets, demonstrating substantial improvements in accuracy and robustness over existing visual-centered multi-sensor SLAM systems. The code will be released open-source to support reproducibility and further research (https://github.com/GREAT-WHU/MASt3R-Fusion).
思维导图
论文精读
中文精读
1. 论文基本信息 (Bibliographic Information)
- 标题 (Title): MASt3R-Fusion: Integrating Feed-Forward Visual Model with IMU, GNSS for High-Functionality SLAM (MASt3R-Fusion:融合前馈视觉模型、IMU与GNSS的高功能性SLAM)
- 作者 (Authors): Yuxuan Zhou, Xingxing Li, Shengyu Li, Zhuohao Yan, Chunxi Xia, Shaoquan Feng
- 隶属机构 (Affiliation): 武汉大学测绘学院 (School of Geodesy and Geomatics, Wuhan University, China)
- 发表期刊/会议 (Journal/Conference): 本文目前是一篇预印本 (Preprint),发布于
arXiv平台。 - 发表年份 (Publication Year): 论文的
arXivID2509.20757指向一个未来的虚构日期,但根据内容分析,其技术背景处于2024-2025年。 - 摘要 (Abstract): 视觉SLAM是机器人、自动驾驶和XR领域的核心技术,但传统系统在弱纹理、尺度模糊和挑战性视觉条件下性能不佳。近期基于前馈神经网络的点图回归方法展示了直接从图像恢复高保真3D几何的潜力,但它们通常舍弃了经过验证的多传感器概率融合的优势。本文提出了
MASt3R-Fusion,一个多传感器辅助的视觉SLAM框架,它将前馈点图回归与IMU和GNSS等互补传感器信息紧密集成。该系统将基于Sim(3)的视觉对齐约束(以Hessian形式)引入一个通用的度量尺度SE(3)因子图,实现了有效的信息融合。通过分层因子图设计,系统支持实时滑动窗口优化和带有激进回环检测的全局优化,实现了实时位姿跟踪、度量尺度结构感知和全局一致建图。在公开和自采数据集上的评估表明,该方法在精度和鲁棒性上均显著优于现有的以视觉为中心的多传感器SLAM系统。 - 原文链接 (Source Link):
-
ArXiv:
https://arxiv.org/abs/2509.20757 -
PDF:
https://arxiv.org/pdf/2509.20757 -
发布状态: 预印本 (Preprint)。
-
2. 整体概括 (Executive Summary)
-
研究背景与动机 (Background & Motivation - Why):
- 核心问题: 传统的视觉SLAM (Simultaneous Localization and Mapping) 方法在面对弱纹理环境、纯旋转等退化场景时容易失败,并且单目视觉SLAM存在固有的尺度模糊问题。
- 现有挑战与空白 (Gap): 近年来,以
DUSt3R和MASt3R为代表的前馈视觉模型 (Feed-Forward Visual Model) 展现了强大的3D几何感知能力,通过学习大规模数据中的空间先验,能直接从图像中回归出3D点云(点图),有效克服了传统多视图几何的许多局限性。然而,这些先进的视觉模型在集成到SLAM系统时,往往忽略了与惯性测量单元 (IMU) 和全球导航卫星系统 (GNSS) 等传感器的紧密概率融合。这种融合对于解决尺度模糊、抑制漂移和实现全局定位至关重要。因此,如何在保留前馈模型强大视觉能力的同时,将其与多传感器信息在概率框架下进行严谨、紧密的融合,是当前研究的一个关键空白。 - 切入点: 本文的创新思路是搭建一座桥梁,连接前馈视觉模型产生的相似变换 (Sim(3)) 空间与IMU/GNSS等传感器所在的度量尺度刚体变换 (SE(3)) 空间。通过这种方式,将前馈模型的强大视觉约束,无缝集成到一个统一的、基于因子图优化的多传感器融合框架中。
-
核心贡献/主要发现 (Main Contribution/Findings - What):
-
提出了一个紧密融合框架: 设计了一种新颖的框架,能够将前馈点图回归模型提供的Sim(3)视觉约束,有效地转换为度量尺度的SE(3)因子图中的约束,从而实现了与IMU、GNSS等传感器的紧密耦合。
-
开发了一个高性能的实时视觉-惯性SLAM系统: 基于该框架,实现了一个实时的视觉-惯性SLAM系统,能够进行度量尺度的位姿估计和密集的场景感知。
-
构建了一个全局一致的SLAM系统: 引入了高效的几何回环检测和GNSS信息,并通过两阶段的全局优化策略,实现了全局一致且无漂移的建图和定位。
-
全面的实验验证: 在多个公开数据集(如KITTI-360)和具有挑战性的自采数据集上进行了广泛实验,结果表明该系统在精度和鲁棒性上均超越了现有的先进方法。
-
3. 预备知识与相关工作 (Prerequisite Knowledge & Related Work)
-
基础概念 (Foundational Concepts):
- SLAM (Simultaneous Localization and Mapping): 即时定位与地图构建。指移动机器人在未知环境中,在没有先验信息的情况下,于运动过程中建立环境的模型,同时估计自己的运动。
- 前馈点图回归 (Feed-Forward Pointmap Regression): 一种基于深度学习的方法,代表作为
DUSt3R和MASt3R。它使用一个前馈神经网络(通常是Transformer架构),直接从一对或多张图像中预测出每个像素对应的3D点坐标(形成点图),以及用于匹配的描述子。其核心优势是利用从大规模数据中学到的3D空间先验,在传统方法失效的场景下也能稳健地恢复几何结构。 - 因子图 (Factor Graph): 一种在SLAM中广泛应用的概率图模型。它将待优化的状态(如相机位姿、路标点位置)表示为变量节点,将来自传感器的观测(如视觉重投影误差、IMU测量)表示为因子节点。SLAM问题最终转化为求解使所有因子总误差最小的优化问题。
- IMU (Inertial Measurement Unit): 惯性测量单元。它包含陀螺仪和加速度计,可以高频地测量载体的角速度和加速度。在SLAM中,IMU可以提供度量尺度信息、重力方向,并能有效估计短时间内的运动,与视觉信息形成互补。
- GNSS (Global Navigation Satellite System): 全球导航卫星系统(如GPS)。它可以提供全局绝对坐标,用于消除SLAM系统累积的长期漂移,实现全局定位。
- SE(3) vs Sim(3):
- SE(3): 特殊欧几里得群 (Special Euclidean Group),表示三维空间中的刚体变换(旋转+平移),变换前后物体的长度、角度、体积都保持不变。这是真实物理世界中的运动模型。
- Sim(3): 相似变换群 (Similarity Group),在SE(3)的基础上增加了一个尺度 (Scale) 变换(尺度+旋转+平移)。单目相机进行3D重建时,由于无法确定绝对距离,其恢复的位姿和地图本质上是在Sim(3)空间下的,存在一个未知的尺度因子。如何确定这个尺度,并将Sim(3)约束转换到SE(3)空间,是单目视觉-惯性融合的关键。
-
前人工作 (Previous Works):
- 传统视觉SLAM: 如
ORB-SLAM3,基于稀疏特征点和后端优化,技术成熟但依赖良好的视觉条件。 - 基于深度学习的SLAM:
- 模块化增强: 如
SuperPoint用于特征提取,GAT-LSTM用于动态环境处理。 - 端到端方法: 如
DROID-SLAM,通过可微的优化模块实现端到端的位姿和深度估计。 - 基于前馈模型的SLAM: 如
MASt3R-SLAM和VGGT-SLAM,直接利用MASt3R等模型的输出构建SLAM系统,但它们主要是纯视觉系统,或未实现与其他传感器的紧密融合。
- 模块化增强: 如
- 多传感器融合SLAM: 如
VINS-Fusion和GVINS,是经典的视觉-惯性-GNSS融合框架,但其视觉前端仍基于传统方法。DBA-Fusion虽然融合了深度学习视觉模块,但与本文采用的前馈模型在范式上有所不同。
- 传统视觉SLAM: 如
-
技术演进 (Technological Evolution): SLAM技术正从依赖手工设计特征和几何约束的“古典时代”,迈向一个由数据驱动、深度学习模型提供强大先验的“现代时代”。本文正处于这一技术浪潮的前沿,探索如何将最新的深度学习视觉成果(前馈模型)与经典的、基于概率优化的多传感器融合理论进行有机结合。
-
差异化分析 (Differentiation): 与
MASt3R-SLAM等纯视觉方法相比,本文引入了IMU和GNSS,解决了尺度模糊和长期漂移问题。与VINS-Fusion等传统多传感器融合方法相比,本文采用了更强大的前馈视觉前端,在弱纹理和 大视角变化下具有更强的鲁棒性。其最核心的创新在于提出了一套严谨的数学方法,将前馈模型原生的Sim(3)视觉约束,无损地转化为SE(3)因子图中的概率约束,实现了真正意义上的紧密耦合,而非简单的松耦合或姿态图优化。
4. 方法论 (Methodology - Core Technology & Implementation Details)
该图像为系统流程图,展示了MASt3R-Fusion多传感器视觉SLAM框架的整体架构。流程分为实时部分和全局部分,融合了图像、IMU、GNSS数据,通过帧初始化、跟踪、帧匹配、本地和全局优化实现地图帧的精准构建与更新。图中以绿色箭头标示了基于前馈模型的关键步骤。
图像2: 该图展示了MASt3R-Fusion的系统流程。系统分为两大模块:① 实时SLAM (Real-Time) 和 ② 全局优化 (Global)。实时模块负责处理图像和IMU数据,通过滑动窗口优化进行高频位姿跟踪。全局模块则利用实时模块存储的信息,结合回环检测和GNSS数据,进行全局一致性优化。绿色箭头标示了依赖前馈模型的关键步骤。
A. 基于前馈模型的视觉测量
该系统的视觉前端建立在MASt3R模型之上,其核心是直接从图像对中回归出3D点图并进行密集匹配。
图像3: 该图展示了双视图前馈模型的工作原理。两张输入图像i和j分别通过编码器 (Enc.) 提取特征,然后将特征令牌 (tokens) 一同送入解码器 (Dec.)。解码器联合解码,生成两幅在同一参考坐标系下(例如,以相机i为参考)的2D-to-3D点图 (Points) 和像素级描述子图 (Desc.)。
-
点图回归与密集匹配:
- 对于一对图像 和 ,模型输出点图 和 ,它们都在相机i的坐标系下。
- 通过最小化两点在相机i坐标系下单位方向向量的差异,可以实现初步的密集匹配(基于几何的
ray proximity)。 - 再利用模型输出的描述子图 和 进行特征匹配,对几何匹配结果进行精化,实现亚像素级别的精确匹配。
-
基于点图对齐的视觉约束:
-
与传统SLAM使用捆绑调整 (Bundle Adjustment, BA) 联合优化相机位姿和三维点坐标不同,本文利用前馈模型提供的带尺度的3D结构先验,将问题简化为点图对齐。
该图像为流程示意图,展示了两个视图(jth和ith)通过“Match”模块进行匹配,随后匹配结果输入到“Proj.”投影模块,结合一个被标记为“Maintained”的投影结果,计算出残差,用于视觉特征匹配和投影误差的建模。
图像4: 该图展示了视觉约束的构建过程。利用MASt3R模型对两个视图(ith和jth)进行临时匹配,得到匹配关系j->i。然后,将系统维护的(经过优化的)jth视图的点图,通过待求的相对位姿 投影到ith视图,并与匹配点计算重投影误差 。 -
核心思想: 假设前馈模型恢复的点图结构是准确的(只差一个尺度),那么两帧之间的相对位姿可以通过对齐它们的点图来求解。
-
数学公式: 对于帧i和j,它们之间的视觉约束通过最小化重投影误差来构建。误差项定义为:
- : 从相机j到相机i的相似变换(待求)。
- : 系统中维护的相机j的点图。
- : 通过密集匹配得到的、在图像i上与图像j像素对应的坐标。
- : 相机投影模型。
- : 变换操作。
-
Hessian形式: 为了优化效率,该误差项的二阶近似信息(Hessian矩阵 和梯度向量 )在GPU上被密集计算并存为紧凑形式,用于CPU端的因子图优化。
-
B. 实时SLAM:滑动窗口多传感器融合
-
Sim(3)到SE(3)的桥梁:同构群变换 (Isomorphic Group Transformation)
- 动机: 视觉约束是Sim(3),而IMU和GNSS约束是SE(3)。为了在同一个因子图中优化,必须统一表示。
- 方法: 将一个Sim(3)变换 分解为一个SE(3)变换 和一个尺度因子 。
- 论文推导了它们在李代数 (Lie Algebra) 层面微小扰动之间的线性变换关系:
- 左侧为Sim(3)的李代数扰动(旋转, 平移, 尺度)。
- 右侧为SE(3)的李代数扰动(旋转, 平移)和尺度扰动。
- : 连接两个空间的线性变换矩阵。
- 作用: 这个变换使得Sim(3)的Hessian视觉约束可以被无损地应用到SE(3)+尺度的状态变量上。
-
滑动窗口因子图:
- 状态变量: 在一个固定大小的滑动窗口内,每个关键帧的状态包括SE(3)位姿 、尺度 、速度 和IMU偏置 。
- 因子:
- 视觉因子: 将Sim(3)的Hessian信息通过上述同构变换,转换为对状态变量 的约束。
- IMU因子: 采用经典的IMU预积分 (Pre-integration) 技术,构建相邻关键帧之间的运动约束。
- 边缘化因子 (Marginalization Factor): 当最老的帧滑出窗口时,将其相关的因子信息通过舒尔补 (Schur Complement) 操作,边缘化为一个先验因子,保留历史信息。
- 优化目标: 最小化滑动窗口内所有视觉因子、IMU因子和边缘化先验因子的总代价函数。
C. 全局SLAM:回环与GNSS融合
-
回环检测 (Loop Closure):
- 候选帧检索: 利用前馈模型编码器输出的特征令牌,构建图像检索系统,找到外观相似的候选回环帧。
- 几何一致性滤波 (创新点): 传统方法需要昂贵的几何验证。本文提出了一种高效的滤波方法:
- 将视觉-惯性里程计的漂移建模为一个随机过程,快速估计任意两帧之间位姿的不确定性。
- 利用这个不确定性,判断两个候选帧在几何上是否可能观测到同一场景。
- 过滤掉大量几何上不合理的候选帧,大大减少了后续密集匹配验证的计算量,同时能保留下视角差异极大的“激进”回环。
-
全局因子图优化:
-
构建全局图: 包含所有关键帧的V-I约束、所有通过验证的回环约束,以及GNSS位置约束。
-
两阶段优化策略:
- 第一阶段 (鲁棒初始化): 将回环和GNSS约束建模为相对位姿约束,并使用鲁棒核函数进行优化。这一步可以得到一个全局一致的位姿初始估计,并剔除错误的回环或GNSS测量。
- 第二阶段 (精确优化): 对于第一阶段筛选出的内点 (inlier) 回环,将其约束转换为信息更丰富的Hessian形式,进行最终的全局优化,得到最优的全局轨迹和地图。
-
优势: 这种方法保留了完整的V-I因子信息,相比传统的位姿图优化,能更有效地抵抗GNSS异常值,并将GNSS的绝对信息平滑地传递到整个轨迹中,实现全局最优估计。
-
5. 实验设置 (Experimental Setup)
-
数据集 (Datasets):
- KITTI-360: 自动驾驶领域的大规模城市场景数据集,包含长距离(公里级)轨迹,用于评估系统在开阔环境下的性能。
- SubT-MRS: 在非常规、挑战性环境下采集的数据集,如喀斯特溶洞和室内外切换场景,用于评估算法的泛化能力。
- Wuhan Urban Dataset: 作者自采的武汉城市数据集,包含复杂的城市道路和动态物体,并带有GNSS信号,用于评估V-I-GNSS融合性能。
-
评估指标 (Evaluation Metrics):
- 相对位姿误差 (Relative Pose Error, RPE):
t_rel(平移误差百分比) 和r_rel(旋转误差,单位:度/100米)。主要用于评估里程计 (Odometry) 的漂移情况。 - 绝对轨迹误差 (Absolute Trajectory Error, ATE): 均方根误差 (RMSE),单位为米。主要用于评估全局SLAM的最终轨迹与真值的差异,衡量全局一致性。
- 相对位姿误差 (Relative Pose Error, RPE):
-
对比基线 (Baselines):
-
经典VIO/SLAM:
VINS-Fusion(优化法VIO),ORB-SLAM3(特征法V-SLAM)。 -
直接法VIO:
DM-VIO。 -
基于学习的VIO:
DBA-Fusion(融合了深度可微BA模块)。 -
纯视觉对比:
MASt3R-SLAM(用于证明多传感器融合的必要性)。 -
感知对比:
Metric3D v2(一个先进的单目度量深度估计模型)。
-
6. 实验结果与分析 (Results & Analysis)
A. KITTI-360 数据集 (大规模城市场景)
图像1: 该图直观展示了MASt3R-Fusion的核心思想。系统利用前馈模型强大的3D先验和密集关联能力,并将其与IMU、GNSS和回环信息融合。右侧的热力图显示了系统检测到的跨时间数据关联(回环),颜色越暖表示视角差异越大,证明了系统处理大视角回环的能力。
-
数据关联能力: 实验展示了前馈模型在长时序跟踪和跨时序匹配(回环)上的强大能力,即使在视角差异超过90度甚至完全相反的情况下,也能建立密集的可靠匹配,这是传统方法难以企及的。
-
VIO性能: 在相对位姿误差(RPE)上,
MASt3R-Fusion显著优于所有对比方法。这得益于前馈模型提供了更强、更密集的视觉约束。与之形成鲜明对比的是,纯视觉的MASt3R-SLAM因严重的尺度漂移而几乎失败,凸显了IMU融合的价值。 -
全局SLAM性能: 激活回环检测后,
MASt3R-Fusion的绝对轨迹误差(ATE)远低于ORB-SLAM3。这归功于其更高的里程计精度和更强大的回环检测能力。 -
3D感知质量:
图像5: 该图对比了不同方法的实时3D感知效果。DBA-Fusion缺乏3D先验,点云较为稀疏且受动态物体影响大。Metric3D V2作为纯推理模型,在某些物体上可能出现尺度错误。MASt3R-Fusion结合了3D先验和多视图几何,生成的点云在结构完整性和稳定性上表现最佳。
B. SubT-MRS 数据集 (非结构化挑战场景)
图像6: 该图展示了系统在SubT-MRS数据集(如溶洞)中的关联性能。即使在纹理微弱、光照条件差的非结构化环境中,前馈模型依然能提供可靠的密集匹配,证明了其强大的泛化能力。
-
泛化能力: 在溶洞等从未见过的场景中,
MASt3R-Fusion的性能依然全面领先于其他方法,无论是实时VIO还是全局SLAM,都取得了最低的误差。这充分验证了结合了IMU的前馈模型方法具有很强的场景泛化性。
图像7: 该图展示了SubT-MRS数据集上的轨迹对比。无论有无回环闭合,MASt3R-Fusion(红线)的轨迹都最接近真值(黑色虚线),表现出卓越的精度和鲁棒性。
C. 武汉城市数据集 (真实城市GNSS挑战场景)
图像8: 该图展示了自采的武汉城市数据集的轨迹和场景。这些场景包含高楼、林荫道等,会对GNSS信号造成遮挡和多径效应,是测试V-I-GNSS紧密融合性能的理想场景。
-
抗尺度漂移能力: 在长直道等视觉退化场景下,传统VIO方法(如
VINS-Fusion)出现显著的尺度漂移。MASt3R-Fusion通过紧密融合和点图对齐约束,能有效抑制尺度漂移。
图像9: 该图对比了不同V-I SLAM方案在武汉数据集上的轨迹。VINS-Fusion(青色)在长距离行驶后出现明显漂移,而MASt3R-Fusion(黄色和红色)的轨迹与真值(蓝色)高度吻合,尤其在加入回环后(红色)几乎完美重合。 -
GNSS融合鲁棒性:
图像10: 该图展示了在真实GNSS RTK数据下的定位误差。GNSS RTK(灰色)存在大量粗差和信号丢失。VINS-Fusion(青色)采用松耦合,在GNSS信号差时误差较大。而MASt3R-Fusion(黄色和红色)由于保留了完整的V-I信息进行紧密融合,能有效抵抗GNSS粗差,保持分米级的定位精度。 -
模拟GNSS中断测试: 实验进一步表明,即使在长达100秒的GNSS信号中断期间,
MASt3R-Fusion的全局优化框架依然能平滑轨迹,保持亚米级的精度,展现了其在GNSS信号不可靠环境下的高可用性。
7. 总结与思考 (Conclusion & Personal Thoughts)
-
结论总结 (Conclusion Summary): 本文成功提出了
MASt3R-Fusion,一个将前沿的前馈视觉模型与经典的多传感器概率融合理论相结合的SLAM框架。其核心贡献在于设计了一套严谨的机制,将视觉模型产生的Sim(3)约束无缝地集成到度量尺度的SE(3)因子图中,实现了视觉、惯性和GNSS信息的紧密耦合。实验证明,该系统在定位精度、建图质量、鲁棒性和泛化性方面均达到了业界领先水平,为高功能性SLAM系统提供了一个全新的、强大的范式。 -
局限性与未来工作 (Limitations & Future Work):
- 潜在局限性:
- 依赖预训练模型: 系统的性能高度依赖于
MASt3R模型的表现。在与训练数据分布差异极大的全新场景中,模型的性能可能会下降。 - 计算复杂度: 前馈模型的推理需要消耗大量GPU资源,虽然论文声称在高端笔记本上可实时运行,但在资源受限的嵌入式平台上部署仍是挑战。
- 动态场景处理: 系统主要通过鲁棒优化来剔除动态物体的影响,并未对动态物体进行显式建模,在高度动态的环境中性能可能受限。
- 依赖预训练模型: 系统的性能高度依赖于
- 未来工作: 作者提出未来的研究方向将聚焦于语义融合和更先进的场景表示(如神经辐射场NeRF或3D高斯溅射3DGS),以支持更高级的具身智能导航任务。
- 潜在局限性:
-
个人启发与批判 (Personal Insights & Critique):
- “两全其美”的典范: 这篇论文是“深度学习”与“经典几何/优化”成功结合的绝佳案例。它没有盲目地追求端到端,而是巧妙地利用深度模型作为强大的“先验提供者”,并将其嵌入到经过数十年验证的、严谨的概率优化框架中,实现了1+1>2的效果。
- 核心技术贡献的价值: Sim(3)到SE(3)的Hessian变换是本文最核心、最优雅的技术贡献。它为如何融合任何基于Sim(3)的单目视觉前端(无论是学习的还是传统的)到度量尺度的SLAM系统中,提供了一个通用的、理论完备的解决方案。
- 工程与理论的平衡: 论文中提出的基于不确定性的回环滤波方法,是一个非常实用且巧妙的工程创新,它解决了在拥有强大匹配能力但召回率不完美的模型下,如何高效进行回环验证的现实问题。
- 系统完整性与实验说服力: 本文的价值不仅在于提出一个新颖的算法,更在于构建了一个功能完备、性能卓越的系统,并通过在多样化、高难度场景下的全面实验,雄辩地证明了其方法的优越性。特别是与传统位姿图优化的对比,清晰地揭示了保留完整传感器信息进行联合优化在应对挑战性环境时的巨大优势。
相似论文推荐
基于向量语义检索推荐的相关论文。