论文状态:已完成

HiMaCon: Discovering Hierarchical Manipulation Concepts from Unlabeled Multi-Modal Data

发表:2025/10/13
原文链接PDF 下载
价格:0.100000
价格:0.100000
已有 2 人读过
本分析由 AI 生成,可能不完全准确,请以原文为准。

TL;DR 精炼摘要

本文提出HiMaCon框架,通过自监督学习从无标注的多模态机器人演示中发现分层操控概念。方法结合跨模态相关网络和多时域未来预测器,有效捕捉不同场景中的感知-运动关系,显著提升模仿学习策略在新环境中的泛化能力。

摘要

Effective generalization in robotic manipulation requires representations that capture invariant patterns of interaction across environments and tasks. We present a self-supervised framework for learning hierarchical manipulation concepts that encode these invariant patterns through cross-modal sensory correlations and multi-level temporal abstractions without requiring human annotation. Our approach combines a cross-modal correlation network that identifies persistent patterns across sensory modalities with a multi-horizon predictor that organizes representations hierarchically across temporal scales. Manipulation concepts learned through this dual structure enable policies to focus on transferable relational patterns while maintaining awareness of both immediate actions and longer-term goals. Empirical evaluation across simulated benchmarks and real-world deployments demonstrates significant performance improvements with our concept-enhanced policies. Analysis reveals that the learned concepts resemble human-interpretable manipulation primitives despite receiving no semantic supervision. This work advances both the understanding of representation learning for manipulation and provides a practical approach to enhancing robotic performance in complex scenarios.

思维导图

论文精读

中文精读

1. 论文基本信息

1.1. 标题

HiMaCon: Discovering Hierarchical Manipulation Concepts from Unlabeled Multi-Modal Data
中文:HiMaCon:从无标注多模态数据中发现层次化操控概念

1.2. 作者

Ruizhe Liu, Pei Zhou, Qian Luo, Li Sun, Jun Cen, Yibing Song, Yanchao Yang
机构:

  • 1 HKU Musketeers Foundation Institute of Data Science, The University of Hong Kong(香港大学火枪手基金数据科学研究所)
  • 2 Department of Electrical and Electronic Engineering, The University of Hong Kong(香港大学电机与电子工程系)
  • 3 DAMO Academy, Alibaba Group(阿里巴巴达摩院)
  • 4 Transcengram

1.3. 发表期刊/会议

预印本 arXiv(arXiv:2510.11321)

1.4. 发表年份

2025(发布时间:2025-10-13 UTC)

1.5. 摘要

论文提出一种自监督框架,从无标注的多模态机器人演示中学习“层次化操控概念”。该框架由两部分组成:

  • 跨模态关联网络(Cross-Modal Correlation Network, CMCN)通过掩码—重建策略最大化条件互信息,学习在不同感知模态(视觉、位姿/力觉等)中持久存在的交互模式;
  • 多时域未来预测器(Multi-Horizon Future Predictor, MHFP)通过阈值化“概念潜变量”的一致性,组织多层次的时间子目标,并训练对这些不同粒度的终止状态进行预测。
    概念被学习后,用于增强模仿学习策略:在主干网络(backbone)上增加“概念预测头(head)”与“动作预测头”,联合预测以正则化动作生成,从而提升泛化。实验在仿真与真实机器人中均取得显著提升,所学概念与人类可解释的操控原语相似,尽管没有语义监督。

1.6. 原文链接

2. 整体概括

2.1. 研究背景与动机

  • 核心问题:机器人操控在复杂多变的环境中难以泛化。传统端到端策略在遇到视觉外观变化、未见障碍或新任务组合时会失败。

  • 重要性与空白:多数表示学习方法要么只做跨模态对齐、忽略时间结构,要么只做时间建模、忽略多模态间的功能关联;此外,标注子目标需要大量人工。

  • 创新思路:提出从多模态演示中自监督地“发现操控概念”并以“层次结构”组织,不依赖人工语义标签。通过跨模态条件互信息最大化,学习可迁移的功能性关联;通过多时域未来预测,诱导概念在不同时间尺度上对应“子目标完成”过程。

    下图(原文 Figure 1)用视觉直观呈现了核心动机——在训练只见“无障碍的杯—容器”场景时,传统策略遇到障碍失败;而“概念增强策略”可适应新障碍:

    Figure 1: Manipulation concepts enhance generalization. Top: Training data with cups and containers without barriers. Middle: Without manipulation concepts, policies fail when encountering barriers. Bottom: With our concept enhancement, policies adapt accordingly. 该图像是示意图,展示了操控概念对机器人泛化能力的增强。顶部部分为训练数据,包含杯子和容器没有障碍的场景;中间部分展示了未使用操控概念的策略在遇到障碍时的失败;底部则表现了使用操控概念的策略在相同场景中如何适应并成功操作。

2.2. 核心贡献/主要发现

  • 自监督的“操控概念发现”框架:
    1. 跨模态关联学习(最大化条件互信息),使概念编码持久的功能关系;
    2. 多时域子目标组织(阈值化一致性+未来终止状态预测),诱导层次结构。
  • 策略增强方式:在模仿学习中联合预测“概念+动作”,让主干表征内生地包含操控知识,兼容多种策略架构(如 ACT、Diffusion Policy)。
  • 实证结论:在 LIBERO 基准与真实机器人(Mobile ALOHA)上,概念增强策略显著提高成功率,尤其在长时序、未见环境与强分布偏移下。
  • 可解释性:无语义监督下学习到的概念与人类“操控原语”(如抓取、放置、打开)高度一致,呈层次化的子过程划分。

3. 预备知识与相关工作

3.1. 基础概念

  • 多模态(multi-modal):机器人同时感知图像(多视角)、本体感知(proprioception:位置、姿态、力/夹爪状态等),不同模态提供互补信息。
  • 概念潜变量(concept latent):时间步 t 的隐藏向量 zitRZz_i^t \in \mathbb{R}^Z,代表“当前正在进行的操控子过程”的抽象编码。
  • 条件互信息(Conditional Mutual Information, CMI):量化在给定变量 Z 条件下,X 与 Y 的统计相关性。
  • 自注意力(self-attention)与 Transformer:能建模时序依赖与全局上下文。
  • 掩码—重建(mask-and-predict):对部分输入模态/时间片进行掩码,仅用其余信息+潜变量去重建原输入。
  • VQ-VAE:向量量化的自编码模型,常用于离散化/嵌入查表。
  • 模仿学习(imitation learning):给定示范轨迹,学习从观测到动作的映射。
  • ACT(Action Chunking Transformer-based CVAE):基于 Transformer 的条件变分自编码器,输出动作片段(chunks)。
  • Diffusion Policy(扩散策略):用扩散模型(噪声去除过程)生成动作序列。
  • 词:
    • 主干网络(backbone):提取共享表征的核心网络。
    • 头(head):在主干表征上接具体任务的输出层。
    • 推演(rollout):在策略或环境中进行序列化模拟/执行以评估或收集数据。

3.2. 前人工作与技术演进

  • 表示学习在机器人中的发展:从单模态(视觉/本体)到多模态联合(视觉+语言、视觉+本体),但多为“对齐”而缺少层次时间结构建模。
  • 时间表示学习:包括时间对比学习、时间掩码自编码、不同时间尺度的状态转移建模等。
  • 概念/技能提取:两模块(先抽象概念再生成动作)与联合预测(概念正则化动作)两类框架。联合预测更灵活,易与现有策略架构集成。

3.3. 差异化分析

  • 与纯对齐方法(如 CLIP/DINOv2/R3M 等)不同:HiMaCon不只是对齐视觉/语言/本体,而是显式最大化“跨模态的条件互信息”,使概念编码功能上的不变关系。
  • 与纯时间建模(如 RPT)不同:HiMaCon用“多时域—子目标终止重建”明确地把潜变量与“子过程完成态”绑定,从而形成层次结构。
  • 与两模块框架不同:HiMaCon采用“联合预测概念+动作”的方式,轻量且兼容多策略,且保留概念的显式可解释性。

4. 方法论

4.1. 方法原理

  • 核心思想:从演示轨迹的多模态感知中,编码“操控概念潜变量”,这些潜变量在不同时间尺度上自然聚类为子目标的子过程(短到长时),并跨模态捕获相同操控概念下的稳定关联。
  • 直觉:
    • 若某概念是“把物体放入容器”,视觉的“容器边界”与本体感的“接触/力反馈”之间会呈现稳定的关联,这种关联与容器外观改变无关(可迁移)。

    • 同一概念在短—长的时间尺度上也连贯:从“对齐抓取”到“运输到容器”再到“放置完成”,为层次化子目标的自然组织。

      下图(原文 Figure 2)展示了两阶段方法:概念学习(左)与策略增强(右):

      Figure 2: The proposed self-supervised manipulation concept discovery and policy enhancement. Stage 1: The concept encoder \(( \\mathcal { E } )\) processes multi-modal robot demonstrations to extract concept latents. These latents are refined through two objectives: (1) the Cross-Modal Correlation Network \(( \\mathcal { C } )\) employs a mask-and-predict strategy to capture persistent patterns across sensing modalities (Sec. 3.2); (2) the Multi-Horizon Future Predictor \(( \\mathcal { F } )\) enables concept latents to organize hierarchically into multi-horizon sub-goals based on coherence thresholds (e) (Sec. 3.3). Stage 2: The learned concepts are integrated into policy learning through a backbone network \(( \\pi _ { h } )\) with concept \(( \\pi _ { z } )\) and action \(( \\pi _ { a } )\) prediction heads, regularizing action generation with structured manipulation knowledge (Eq. 9). 该图像是示意图,展示了自监督操作概念发现与策略增强的过程。图中分为两个阶段:第一阶段通过概念编码器 E\mathcal{E} 从多模态机器人演示中提取概念潜变量,并利用跨模态关联网络 C\mathcal{C} 和多层次未来预测器 F\mathcal{F} 进行潜变量的优化和层次化组织。第二阶段将学习到的概念融入策略学习,通过主干网络 πh\pi_h、概念预测头 πz\pi_z 和行动预测头 πa\pi_a 来规范化动作生成。

4.2. 操控概念编码器与问题设定

给定演示数据集 D={τi}i=1ND = \{\tau_i\}_{i=1}^N,每条轨迹 τi={(oit,ait)}t=1Ti\boldsymbol{\tau}_i = \{(\mathbf{o}_i^t, a_i^t)\}_{t=1}^{T_i},其中观测为多模态: $ \mathbf{o}_i^t = {o_i^{1,t}, o_i^{2,t}, \dots, o_i^{M,t}},\ S \subseteq [M]={1,2,\cdots,M},\ \mathbf{o}_i^{S,t}={o_i^{m,t}\mid m\in S}. $

  • 目标:为每个时间步分配概念潜变量 zitRZz_i^t \in \mathbb{R}^Z

  • 概念编码器(Transformer): ziE(oi;ΘE) \mathbf{z}_i \gets \mathcal{E}(\mathbf{o}_i;\boldsymbol{\Theta}_{\mathcal{E}}) 符号解释:

  • DD: 演示数据集;τi\tau_i: 第 i 条演示轨迹;TiT_i: 轨迹长度;

  • oit\mathbf{o}_i^t: 第 t 步多模态观测;oim,to_i^{m,t}: 第 m 个模态的观测;aita_i^t: 动作;

  • MM: 模态数;SS: 模态子集;

  • E\mathcal{E}ΘE\boldsymbol{\Theta}_{\mathcal{E}}: 概念编码器及其参数;

  • zi\mathbf{z}_i: 对应整条轨迹的概念潜变量序列。

    实现要点(附录 A.1):三模态(两视角128×128 RGB+9D本体)经 MLP 编到 256 维,序列长度截取为 Tcontext=60T_{\mathrm{context}}=60,12 层自注意力,输出单位范数的概念向量。

4.3. 跨模态条件互信息最大化(捕获多模态关联)

  • 目标直觉:让概念潜变量“承载”不同模态之间的持久相关(功能性关系)。

  • 形式化目标(原文 Eq. 2): maxZS[M],SI(OS:O[M]SZ), \max_{\mathbf{Z}} \sum_{S\subseteq [M], S\neq \emptyset} \mathbb{I}\big(\mathbf{O}_S:\mathbf{O}_{[M]\setminus S}\mid \mathbf{Z}\big), 符号解释:

  • I(X:YZ)\mathbb{I}(X:Y|Z):条件互信息;

  • OS\mathbf{O}_S:模态子集 SS 的观测随机变量;O[M]S\mathbf{O}_{[M]\setminus S}:其余模态的观测;

  • Z\mathbf{Z}:概念潜变量随机变量。

  • 掩码—重建实现(原文 Eq. 3):
    Lmm(t,τi)=ESC(0i[M]S,t,zit;Θc)0it, \mathcal{L}_{\mathrm{mm}}(t,\tau_i)=\mathbb{E}_S\left.\mathcal{C}\big(\mathbf{0}_i^{[M]\setminus S,t}, z_i^t; \Theta_c\big)-\mathbf{0}_i^t\right., 符号解释:

  • C\mathcal{C}:跨模态关联网络(CMCN);Θc\Theta_c:其参数;

  • SU(2[M]{})S \sim \mathrm{U}\big(2^{[M]}\setminus\{\emptyset\}\big):均匀采样非空模态子集;

  • 0it\mathbf{0}_i^t(原文体例用粗体“0”,对应观测张量 oit\mathbf{o}_i^t):第 t 步的全模态观测;0i[M]S,t\mathbf{0}_i^{[M]\setminus S,t}:保留未掩码模态的输入;

  • 该“差值”项体现重建误差(原文未显式给范数,遵循原式逐字呈现)。

  • 直观说明:随机掩掉部分模态,让网络仅用“未掩码模态+概念潜变量”去重建全模态,从而逼迫 zitz_i^t 承载跨模态的可重构信息;均匀采样子集避免组合爆炸。

4.4. 多时域子目标表示(层次结构诱导)

  • 概念潜变量的“相似—一致”决定同一子过程的时间跨度;用“球面距离”(原文定义)度量一致性: dist(z,u)=1πarccos(zz2,uu2). \mathrm{dist}(z,u)=\frac{1}{\pi}\arccos\left(\frac{z}{\|z\|_2},\frac{u}{\|u\|_2}\right).

  • 基于一致性阈值 ϵ[0,1]\epsilon\in[0,1] 的子过程分割(原文 Eq. 4): h(zi;ϵ)={[gk,gk+1)  k=1,2,,K(zi;ϵ)},where g1=1,gk+1=maxg{gg(gk,Ti+1]N+t,t[gk,g), dist(zit,zit)<ϵ}. \begin{aligned} &\mathrm{h}(\mathbf{z}_i;\epsilon)=\big\{[g_k,g_{k+1})\ \big|\ k=1,2,\cdots,K(\mathbf{z}_i;\epsilon)\big\},\\ &\text{where } g_1=1,\quad g_{k+1}=\max_{g}\big\{g\mid g\in(g_k, T_i+1]\cap\mathbb{N}^+ \land \forall t,t'\in[g_k,g),\ \mathrm{dist}(z_i^t,z_i^{t'})<\epsilon\big\}. \end{aligned} 符号解释:

  • h(zi;ϵ)\mathrm{h}(\mathbf{z}_i;\epsilon):由阈值 ϵ\epsilon 诱导出的子过程区间集合;

  • [gk,gk+1)[g_k,g_{k+1}):第 k 个子过程的时间区间;K()K(\cdot):子过程数目;

  • 随着 ϵ\epsilon 增大,子过程更“粗”(跨度更长);减小则更“细”。

  • 信息目标(原文 Eq. 5):让“当前观测+当前概念”对“该子过程的终止观测”信息量尽可能大: ϵ, minZ H(Ogoal(ϵ)O,Z), \forall \epsilon,\ \min_{\mathbf{Z}}\ \mathbb{H}\big(\mathbf{O}^{\mathbf{goal}(\epsilon)}\mid \mathbf{O},\mathbf{Z}\big), 符号解释:

  • H()\mathbb{H}(\cdot):条件熵;

  • Ogoal(ϵ)\mathbf{O}^{\mathbf{goal}(\epsilon)}:对应 ϵ\epsilon 下子过程的终止观测(终点状态)。

  • 终止步索引(原文 Eq. 6): g(t;zi,ϵ)=min{Ti,gk+1}, where t[gk,gk+1)h(zi;ϵ). \mathrm{g}(t;\mathbf{z}_i,\epsilon)=\min\{T_i,g_{k+1}\},\ \text{where }t\in[g_k,g_{k+1})\in \mathrm{h}(\mathbf{z}_i;\epsilon).

  • 多时域未来预测损失(原文 Eq. 7): Lmh(t,τi)=EϵF(oit,zit,ϵ;Θf)oig(t;zi,ϵ), \mathcal{L}_{\mathrm{mh}}(t,\tau_i)=\mathbb{E}_{\epsilon}\left.\mathcal{F}\big(\mathbf{o}_i^t, z_i^t,\epsilon;\Theta_f\big)-\mathbf{o}_i^{\mathrm{g}(t;\mathbf{z}_i,\epsilon)}\right., 符号解释:

  • F\mathcal{F}:多时域未来预测器(MHFP);Θf\Theta_f:其参数;

  • ϵU([0,1])\epsilon\sim \mathrm{U}([0,1]):每次迭代均匀采样一个一致性阈值;

  • 用“当前观测+概念+阈值”去“幻化”该子过程的终止观测,从而驱动概念在不同时间尺度上携带“通向终止”的目标信息。

  • 概念学习总目标(原文 Eq. 8): Lz(t,τi)=λmmLmm(t,τi)+λmhLmh(t,τi), \mathcal{L}_{\mathrm{z}}(t,\tau_i)=\lambda_{\mathrm{mm}}\mathcal{L}_{\mathrm{mm}}(t,\tau_i)+\lambda_{\mathrm{mh}}\mathcal{L}_{\mathrm{mh}}(t,\tau_i), 符号解释:

  • λmm,λmh>0\lambda_{\mathrm{mm}},\lambda_{\mathrm{mh}}>0:两损失的权重。

    图示(原文 Figure 3)显示不同一致性阈值 ϵ\epsilon 下的多粒度分解,粗—细层次与人类语义子目标对齐:

    Figure 3: Multi-granular task decomposition through concept latent clustering. Visualization of sub-processes derived by clustering manipulation concept latents at different coherence thresholds (e) for the task "open the top drawer and put the bowl in it." Higher \(\\epsilon\) values (top rows) produce coarser decompositions, while lower values (bottom rows) yield finer-grained segmentation. The emergent sub-processes naturally align with semantic task components, for example, the third segment in row 2 corresponds to "put bowl in drawer," while the second segment in row 4 corresponds to "pull drawer open." This demonstrates our method's ability to discover hierarchical, human-interpretable task structures without explicit supervision. 该图像是一个示意图,展示了任务“打开柜子的顶部抽屉并将碗放入其中”的多层次任务分解。通过对不同一致性阈值下的操控概念潜在值进行聚类,出现的子过程与语义任务组件自然对齐。这展示了该方法在没有明确监督的情况下发现可解释的人类任务结构的能力。

4.5. 用操控概念增强模仿学习(联合预测)

  • 在策略主干中联合预测“概念+动作”,使动作生成被“概念理解”正则化(原文 Sec. 3.4)。

  • 架构与损失(原文 Eq. 9): hit=πh(oit,i;Θπh),z^it=πz(hit;Θπz),a^it=πa(hit;Θπa),Lπ(t,τi,i)=a^itait+λmcz^itzit. \begin{aligned} &h_i^t=\pi_h(\mathbf{o}_i^t,\ell_i;\Theta_\pi^h),\quad \hat{z}_i^t=\pi_z(h_i^t;\Theta_\pi^z),\quad \hat{a}_i^t=\pi_a(h_i^t;\Theta_\pi^a),\\ &\mathcal{L}_\pi(t,\tau_i,\ell_i)=\|\hat{a}_i^t-a_i^t\|+\lambda_{\mathrm{mc}}\|\hat{z}_i^t-z_i^t\|. \end{aligned} 符号解释:

  • πh\pi_h:策略主干网络(backbone),处理观测与任务描述 i\ell_i 以产出共享表征 hith_i^t

  • πz\pi_z:概念预测头(head);πa\pi_a:动作预测头;

  • z^it,a^it\hat{z}_i^t,\hat{a}_i^t:预测概念与预测动作;

  • λmc>0\lambda_{\mathrm{mc}}>0:概念预测正则权重。

    两种策略集成示意(原文 Figure 6):

    Figure 6: Upper: Enhanced ACT (decoder part); lower: Enhanced Diffusion Policy 该图像是示意图,展示了HiMaCon框架的结构,包括Transformer编码器和解码器,以及用于多模态数据处理和层次性操作概念的模块。图中包含了动作序列和操作概念序列的生成过程。

  • 为什么联合预测优于“直接拼接概念作为输入”?作者在表 13 中给出了对比:联合预测改善了“时间对齐”,即在预测未来动作时,策略同时预测“未来阶段的概念”,避免用“过去阶段概念”指导“未来动作”的滞后问题。

4.6. 互信息估计(用于分析)

  • 采用 MINE(Mutual Information Neural Estimation)估计互信息;条件互信息通过分解(附录 A.4 原式): I(X:YZ)=I(X:Y)+I(XY:Z)I(X:Z)I(Y:Z), \mathbb{I}(X:Y\mid Z)=\mathbb{I}(X:Y)+\mathbb{I}(XY:Z)-\mathbb{I}(X:Z)-\mathbb{I}(Y:Z), 符号解释:
  • 右侧各项可用 MINE 分别估计;XY 表示 X,Y 的联合随机变量(向量连接)。

5. 实验设置

5.1. 数据集与环境

  • 仿真平台:LIBERO 基准(基于 Robosuite)
    • LIBERO-90:90 个多样操控任务(概念学习与初始策略训练)
    • LIBERO-LONG:10 个“长时任务”(由两个 LIBERO-90 任务串联)
    • LIBERO-GOAL:10 个“全新环境”任务(概念学习阶段未见)
    • 每任务 50 个专家演示;模态包括:
      • Agentview(第三人称 128×128 RGB)
      • Eye-in-hand(夹爪视角 128×128 RGB)
      • 本体状态 9D(位置、旋转、夹爪状态等)
  • 真实机器人:Mobile ALOHA(双臂移动平台),“清理杯子”任务,训练只见简单配色与布局;测试包含六种更具挑战的变体(详见表 4)。

5.2. 评估指标

  • 成功率(Success Rate, SR):

    • 概念定义:成功完成指定任务/子任务的比例,反映策略在该分布下的有效性与鲁棒性。
    • 数学公式: SR(%)=100×1Nj=1N1{episode j success}, \mathrm{SR}(\%)=100\times \frac{1}{N}\sum_{j=1}^{N}\mathbf{1}\{\text{episode } j\ \text{success}\},
    • 符号解释:NN 为评估回合数;1{}\mathbf{1}\{\cdot\} 为指示函数(成功记 1,否则 0)。
  • 条件互信息(在分析中报告):估计模态两两在给定概念潜变量下的 CMI 值(见表 3)。

5.3. 对比基线与策略

  • 概念发现方法对比:
    • InfoCon(单层级概念,VQ-VAE 类)
    • XSkill(视频对比学习的技能抽取)
    • DecisionNCE(基于语言的偏好/奖励相关表示,含任务描述与“动作标签”两种)
    • RPT(时间与模态掩码自编码)
    • All(只用概念重建全部模态,不做跨模态子集重建;用于消融)
    • Next(未来预测只用相邻一步;用于消融)
    • CLIP(视觉-语言预训练特征)
    • DINOv2(自监督视觉表征)
  • 策略架构:
    • ACT(Action Chunking 的 Transformer CVAE)
    • Diffusion Policy(1D Conv UNet 的扩散动作生成)
    • 两者均加入“概念预测头”,按原式联合优化(Eq. 9)。

5.4. 训练细节(概念学习,附录 A.1 摘要)

  • 概念编码器 E\mathcal{E}:两视觉用 Stable Diffusion VAE 压缩至 16×16×4→1024 维,再经 2 层 MLP 映射,9D 本体经独立 MLP,三者相加得 256 维序列特征;12 层多头注意力;输出单位范数概念;序列长度 Tcontext=60T_{\mathrm{context}}=60
  • CMCN(C\mathcal{C}):与编码器类似,额外接“概念”MLP;4 层自注意力;随机均匀 7 种掩码组合(至少掩 1 模态);视觉用 L2、本体用 L1 重建损失。
  • MHFP(F\mathcal{F}):4 层“因果”自注意力;将 ϵ[0,1]\epsilon\in[0,1] 离散成 1000 bins,用 VQ 向量表嵌入,每层 FFN 连接“注意力输出+epsilon 嵌入”;视觉用 L2、本体用 L1;尾步由一致性分割确定。
  • 优化:AdamW,权重衰减 0.001,学习率 0.001(热身 100 次到 0.001,再余下余弦衰减至 0.0001),批次大小 512,迭代 200k,A800 GPU~1.5 天。

6. 实验结果与分析

6.1. 核心结果与对比(仿真)

以下是原文 Table 1 的结果(成功率,%;四个随机种子的标准差括号内)。三组测试:

  • L90-90:在 LIBERO-90(概念训练域内)评估

  • L90-L:长时任务(两个 L90 任务串联)

  • L90-G:全新环境任务

    L90-90
    PolicyInfoConXSkillRPTAllNextCLIPDINOv2DecisionNCE taskmotionPlainOurs
    ACT66.5 (0.8)73.4 (0.8)68.8 (0.8)64.1 (2.0)68.0 (0.4)63.8 (0.5)71.9 (0.3)69.0 (0.1)66.8 (0.8)46.6 (1.9)74.8 (0.8)
    DP78.2 (0.6)87.7 (0.6)84.3 (0.1)81.5 (0.5)82.6 (0.1)80.7 (0.9)79.4 (0.1)75.7 (0.8)82.7 (0.6)75.1 (0.6)89.6 (0.6)
    L90-L
    PolicyInfoConXSkillRPTAllNextCLIPDINOv2DecisionNCE taskmotionPlainOurs
    ACT55.5 (0.9)55.0 (1.0)59.0 (1.0)55.5 (0.9)55.0 (1.0)51.0 (1.0)55.0 (1.0)53.0 (1.0)49.3 (0.9)54.0 (0.9)63.0 (1.0)
    DP75.0 (1.0)73.0 (1.0)61.3 (0.9)79.3 (0.9)83.0 (1.0)67.0 (1.0)63.0 (1.0)58.7 (0.9)52.7 (0.9)34.1 (1.1)89.0 (1.0)
    L90-G
    PolicyInfoConXSkillRPTAllNextCLIPDINOv2DecisionNCE taskmotionPlainOurs
    ACT67.0 (1.0)77.0 (1.0)75.0 (1.0)69.0 (1.0)71.0 (1.0)77.0 (1.0)77.3 (0.9)70.0 (0.9)75.0 (0.5)57.0 (1.0)81.0 (1.0)
    DP92.7 (0.9)93.0 (1.0)91.5 (0.9)91.0 (1.0)91.3 (0.9)92.0 (0.9)91.0 (0.7)92.0 (0.8)93.0 (1.0)90.7 (0.9)95.7 (0.7)
  • 观察:

    • 在原域(L90-90)与迁移域(L90-L、L90-G),Ours 对 ACT 与 DP 均显著提升,且在最难的长时任务(L90-L)上优势更大(DP:89.0% vs 83.0%/79.3% 等)。
    • 与 Next/All 的对比揭示两模块的必要性:只做“下一步预测”或“概念重建所有模态”均不如“跨模态条件互信息+多时域终止预测”的组合。
    • 无语言监督下超过 DecisionNCE(task/motion),说明自监督目标有效。

6.2. 多模态效应消融

以下是原文 Table 2:不同模态组合对概念学习的影响(A:第三人称视觉,H:夹爪视觉,P:本体)。

Policy Ours -HP A-P AH- --P -H- A--
ACT 74.8±0.8 70.5±1.8 71.3±0.3 70.1±1.2 67.5±0.8 68.7±0.6 69.4±0.4
DP 89.6±0.6 85.8±0.2 85.6±0.3 84.3±0.5 84.8±0.1 83.7±0.1 85.3±0.5
  • 结论:加入更多模态更好;移除本体(--P)降幅最大,验证跨模态关联对“功能理解”的关键作用。

6.3. 条件互信息分析

以下是原文 Table 3(条件互信息,数值越大跨模态在给定概念下关联越强)。A:第三人称视觉,H:夹爪视觉,P:本体。

Ours All
I (oH : oA z) 3.7999
I (oP : oA z) 4.8319
I (oP : oH z) 4.8255
  • 结论:Ours 的 CMI 明显高于 All(不做跨模态子集重建的消融),说明“掩码—重建 + 概念条件”确实让潜变量承载跨模态的功能性关联。

6.4. 真实机器人泛化(Mobile ALOHA)

下图(原文 Figure 5)为真实环境设置与六种测试变体:

Figure 5: Real-world generalization evaluation with Mobile ALOHA robot. Left: Mobile ALOHA robot setup for cup cleaning tasks. Center: Training conditions with simple, consistent cup-container color pairings. Right: Six test variations with increasing complexity: novel placements, altered color combinations, unfamiliar objects, external obstacles, internal barriers, and simultaneous grasping of multiple cups. These variations test the policy's ability to generalize beyond training conditions by systematically introducing new challenges. 该图像是一个示意图,展示了Mobile ALOHA机器人在杯子清洁任务中的训练与测试设置。左侧为真实机器人操作,中央为训练条件,右侧展示了六个测试变化,包括新颖放置、颜色组合、未知物体、障碍物、内部障碍以及同时抓取多个杯子。这些变化旨在考察策略在超出训练条件下的泛化能力。

以下是原文 Table 4:ACT 的成功率(%)。

Place Color Obj. Obst. Barr. Multi
w/o MC 53.3 46.7 40.0 20.0 0.0 0.0
w//MC 73.3 60.0 53.3 33.3 20.0 13.3
  • 结论:在强分布偏移(颜色、未知物体、遮挡、内置障碍、双杯抓取)下,概念增强策略显著提升。
  • 作者解释两机制:
    1. “关系聚焦”:概念让策略关注“可迁移的关系模式”(如“物体在容器内”)而非表面外观;
    2. “层次感知”:失败时更能识别“子目标未完成”(如抓取失败后会重试),体现结构化任务推进。

6.5. 多时域目标预测可视化

下图(原文 Figure 7)展示多阈值 ϵ\epsilon 条件下的终止态预测(BridgeDataV2):

Figure 7: Multi-horizon goal prediction with learned manipulation concepts. Visualization of future states predicted by our Multi-Horizon Goal Predictor (MHGP, Eq. 7) when conditioned on the current observation, a manipulation concept latent `( z )` , and varying coherence thresholds (e). From left to right, as \(\\epsilon\) increases from 0 to 1, predictions extend progressively further into the future, demonstrating how our manipulation concepts encode temporal abstraction at multiple horizons. Note that predictions capture essential functional relationships (robot-object interactions) rather than pixel-perfect reconstructions, facilitating generalization across environments. 该图像是图表,展示了当前观察下的多层次子目标预测,使用了不同的一致性阈值(heta)。从左到右,随着heta从0增加到1,预测逐渐延伸到未来,体现了操作概念在多个时间层级中的抽象能力。

  • ϵ\epsilon 增大,预测更远目标(更粗粒度);预测关注功能关系(臂—物体交互轨迹)而非像素细节,更利于跨场景泛化。

6.6. 更多消融与分析

  • ACT 的联合预测层选择与权重消融(原文 Table 5):

    ACT λmc = 1.0 λmc = 0.1 λmc = 0.01 λmc = 0.001
    L = 2 74.8±0.8 70.6±0.8 69.0±0.1 68.7±0.5
    L = 3 70.0±0.4 69.9±0.2 68.8±1.0 68.7±0.6
    L = 4 72.6±0.5 69.9±0.3 69.6±0.2 67.3±0.5
  • Diffusion Policy 的层选择与权重消融(原文 Table 6):

    DP λmc = 1.0 λmc = 0.1 λmc = 0.01 λmc = 0.001
    L = 0 83.5±0.8 78.9±0.4 78.7±0.3 75.6±0.6
    L = 1 80.0±0.4 89.6±0.6 82.0±0.2 79.9±0.1
  • 阈值采样策略(原文 Table 7):

    Sampling Strategy Description ACT DP
    Uniform (Ours) ~U(0,1) 74.8±0.8 89.6±0.6
    Sparse ~{0.1, 0.2, · …. , 1.0} 67.6±0.5 81.1±0.8
    Biased ∼ U(1,3) 65.6±0.7 78.7±0.4
  • 两个学习组件的贡献(原文 Table 8):

    Method ACT DP
    Cross-modal only 69.1±0.6 82.8±1.0
    Multi-horizon only 71.6±0.4 80.5±0.5
    Ours (Full method) 74.8±0.8 89.6±0.6
  • 数据受限下的表现(原文 Table 9):

    50 demos/task 25 demos/task 10 demos/task
    Ours 89.6 ± 0.6 77.6 ± 0.5 61.2 ± 1.1
    Plain 75.1 ± 0.6 70.1 ± 0.3 59.1 ± 0.9
  • 距离度量(原文 Table 10):

    Cosine Distance Spherical Distance (Ours)
    ACT 67.8±0.5 74.8±0.8
    DP 82.0±0.4 89.6±0.6
  • 子过程约束(原文 Table 11):

    Sequential Constraint Endpoint Constraint
    ACT 74.8±0.8 68.4±0.8
    DP 89.6±0.6 79.8±0.5
  • 其它未来预测策略(原文 Table 12,DP):

    L90-90 Ours Next-n Next-random
    DP 89.6 ± 0.6 83.0±0.3 82.8 ± 0.4
  • 概念使用策略(原文 Table 13):

    Policy Direct Conditioning Joint Prediction (Ours)
    ACT 71.1±0.4 74.8±0.8
    DP 79.3±0.9 89.6±0.6

6.7. 语义与运动对齐的可解释性

下图(原文 Figure 4)展示人类定义的子目标分组与概念潜变量的余弦相似度热图(对角线显著):

Figure 4: Semantic alignment of learned concepts. Cosine similarity between concept latents grouped by human-defined sub-goals. Diagonal patterns demonstrate that our approach discovers concepts that exhibit clustering patterns corresponding to meaningful manipulation primitives. 该图像是热图,展示了通过余弦相似度计算的学习概念的语义对齐。图中显示了根据人定义的子目标对概念潜变量进行分组的相似度,斜对角的模式表明我们的方法发现了与有意义的操控原语相对应的聚类模式。

更多可解释性与分布分析(原文 Figures 9–12):

  • Figure 9:多粒度语义标签下,类内相似度最高;

    Figure 9: Average cosine similarity between pairs of sub-goal categories (defined by human semantics) computed using manipulation concept latents learned by our method (Sec.3). In each heatmap, the value at the \(i\) -th row and \(j\) -th column represents the average cosine similarity between latent vectors from the \(i\) -th and \(j\) -th categories. Three levels of labeling are provided across the heatmaps; please refer to Sec. C.2 for details. 该图像是一个热力图,展示了通过我们的方法学习到的操作概念之间的余弦相似度。每个单元格的值表示不同子目标类别之间的相似度,具体见文献第3节。热力图中标记了三层标签,详细信息请参见C.2节。

  • Figure 10(a):运动方向/夹爪开合的相似性热图;Figure 10(b):90 任务的 t-SNE 聚类,跨任务共享结构显著;

    该图像是示意图,展示了通过热图表示的不同层次的操控概念。图中包含四个方阵,每个方阵的数值表示某种操作的持久性模式,具体操作包括“静止”、“向后”、“向前”、“向左”、“向右”、“向上”、“向下”、“打开”、“关闭”。每个方阵的数值变化反映了不同操作在各自环境中的关系和影响。 该图像是示意图,展示了通过热图表示的不同层次的操控概念。图中包含四个方阵,每个方阵的数值表示某种操作的持久性模式,具体操作包括“静止”、“向后”、“向前”、“向左”、“向右”、“向上”、“向下”、“打开”、“关闭”。每个方阵的数值变化反映了不同操作在各自环境中的关系和影响。

  • Figure 11:DBSCAN 聚类的多方法对比,Ours 在高粒度保持更多簇且随参数变化更平滑(多样性与可分性更好)。

    Figure 11: DBSCAN Clustering Analysis of Manipulation Concept Latents' Diversity and Discrimination. Clustering is performed on manipulation concept latents generated by our method and the baseline methods described in Manipulation Concept Discovery Baselines (Sec. 4.1), across om tas.Tu how h ustai DBSCAN for clustering density \(\\epsilon \\in \[ 0 , 1 \]\) , with no points classified as noise. 该图像是一个图表,展示了不同方法在 DBSCAN 聚类密度下的聚类数量的对数变化。随着 ext{Eps} imes 1000.0 的增大,聚类数量在多个方法间有明显的变化,反映了各种方法对于操控概念的分类能力差异。

6.8. 初步 VLA 集成的数据效率(OpenVLA-OFT)

下图(原文 Figure 8)显示在 LIBERO-10 上用 50% 训练数据时,集成概念可显著提升收敛曲线与峰值成功率:

Figure 8: Data efficiency comparison on LIBERO-10 tasks with \(50 \\%\) training data. Solid lines show best performance up to each epoch for models with and without manipulation concepts. 该图像是图表,展示了在LIBERO-10任务上使用50%训练数据的成功率与训练轮次的关系。图中实线表示使用与不使用操控概念的模型在每个轮次的最佳表现,成功率分别达到90.2%和81.6%。

  • 解释:概念在“高层任务指令—低层动作”间提供了结构化的中间表征,减少 VLA 端到端学习负担。

7. 总结与思考

7.1. 结论总结

  • HiMaCon 从无标注多模态演示中自监督地学习“层次化操控概念”,通过跨模态条件互信息最大化与多时域终止预测两目标,获得既“功能关联”又“层次结构”的潜变量。
  • 在模仿学习中联合预测“概念+动作”,显著提升策略在原域、长时组合任务与未见环境中的成功率,并在真实机器人上表现出更好的关系泛化与层次感知。
  • 学到的概念与人类操控原语对齐,呈现可解释的层次结构。

7.2. 局限性与未来工作(原文 Sec. D)

  • 多模态拓展:当前以视觉+本体为主,未来应系统地引入触觉、声音、深度等,量化不同模态的贡献。
  • 层次结构表达:阈值法尚未明确“树结构”中父—子关系,未来可用显式层次树(如 LOTUS/Bottom-up Skill Discovery)或更优相似性度量。
  • 规模化:受算力约束,尚未在更大多模态数据上验证;未来结合更强的多模态基础模型与跨领域预训练。
  • 更广策略:深入研究与 VLA 的系统集成、以及对先进策略(如 π_0/π_0.5/OpenVLA)的增益。

7.3. 个人启发与批判

  • 启发:
    • 用“条件互信息最大化+多时域终止预测”把概念潜变量同时绑定“跨模态功能关系”和“层次化子目标”,是一条兼顾泛化与可解释性的路径。
    • 联合预测概念与动作,是实现“未来对齐”的关键方式,值得在更多策略与任务上推广。
  • 可迁移性:
    • 可用于非机器人序列任务(如多模态视频理解中的动作分段与目标预测),利用概念潜变量进行跨域迁移。
  • 可能问题与改进:
    • 概念潜变量的维度与归一化、阈值采样策略等超参对结果影响较大,需更系统的自适应学习(如贝叶斯优化或元学习)。

    • 掩码—重建损失在原文公式未显式范数/度量,若实现中采用 L1/L2,则建议在主体方法中统一呈现度量以提高理论—实现一致性;

    • 子过程边界仅依赖概念向量相似性,遇到“相似过程但目标不同”的复杂场景时,或需额外的约束(如动作先验或语言上下文)以避免误分段。

      —— 自检清单已执行:

  • 严格遵循七大章结构与编号规则;
  • 所有核心术语采用领域特定翻译(如策略 policy、主干网络 backbone、头 head、推演 rollout、真实标注 Ground Truth);
  • 所有引用的数学公式均“逐字忠实”呈现,并逐一解释符号;
  • 表格完整转录,含多级表头的使用 HTML;
  • 图片在相关语境处引用,使用系统本地文件名;
  • 方法部分做到“公式—步骤融合讲解”,避免割裂。

相似论文推荐

基于向量语义检索推荐的相关论文。

暂时没有找到相似论文。