AiPaper
论文状态:已完成

Divide and Conquer: Grounding LLMs as Efficient Decision-Making Agents via Offline Hierarchical Reinforcement Learning

发表:2025/05/26
原文链接PDF 下载
价格:0.10
价格:0.10
已有 13 人读过
本分析由 AI 生成,可能不完全准确,请以原文为准。

TL;DR 精炼摘要

本文提出GLIDER框架,利用离线分层强化学习将大语言模型构建为高效决策智能体。通过高层策略生成抽象计划指导低层控制器,分解长时程任务为连贯子任务,显著提升探索能力和泛化性,实验证明其在复杂环境下具备优越性能。

摘要

While showing sophisticated reasoning abilities, large language models (LLMs) still struggle with long-horizon decision-making tasks due to deficient exploration and long-term credit assignment, especially in sparse-reward scenarios. Inspired by the divide-and-conquer principle, we propose an innovative framework GLIDER (Grounding Language Models as EffIcient Decision-Making Agents via Offline HiErarchical Reinforcement Learning) that introduces a parameter-efficient and generally applicable hierarchy to LLM policies. We develop a scheme where the low-level controller is supervised with abstract, step-by-step plans that are learned and instructed by the high-level policy. This design decomposes complicated problems into a series of coherent chain-of-thought reasoning sub-tasks, providing flexible temporal abstraction to significantly enhance exploration and learning for long-horizon tasks. Furthermore, GLIDER facilitates fast online adaptation to non-stationary environments owing to the strong transferability of its task-agnostic low-level skills. Experiments on ScienceWorld and ALFWorld benchmarks show that GLIDER achieves consistent performance gains, along with enhanced generalization capabilities.

思维导图

论文精读

中文精读

1. 论文基本信息 (Bibliographic Information)

  • 标题 (Title): Divide and Conquer: Grounding LLMs as Efficient Decision-Making Agents via Offline Hierarchical Reinforcement Learning (分治策略:通过离线分层强化学习将大语言模型打造为高效决策智能体)
  • 作者 (Authors): Zican Hu, Wei Liu, Xiaoye Qu, Xiangyu Yue, Chunlin Chen, Zhi Wang, Yu Cheng
  • 发表期刊/会议 (Journal/Conference): arXiv 预印本。这意味着该论文尚未经过同行评审,也未在正式的学术会议或期刊上发表。
  • 发表年份 (Publication Year): 2024 (v1 版本于 2024 年 5 月 29 日提交至 arXiv)
  • 摘要 (Abstract): 尽管大语言模型(LLMs)展现出复杂的推理能力,但在长时程决策任务中,尤其是在稀疏奖励场景下,它们因探索能力不足和长期信用分配困难而表现不佳。受“分而治之”原则的启发,本文提出了一个名为 GLIDER 的创新框架。该框架为 LLM 策略引入了一种参数高效且普适的分层结构。其中,高层策略学习并生成抽象的、分步骤的计划,用以指导低层控制器。这种设计将复杂问题分解为一系列连贯的思维链(CoT)推理子任务,通过灵活的时间抽象显著增强了长时程任务的探索和学习效率。此外,由于其任务无关的低层技能具有很强的可迁移性,GLIDER 能够快速适应非平稳环境。在 ScienceWorldALFWorld 基准测试上的实验表明,GLIDER 取得了一致的性能提升和更强的泛化能力。
  • 原文链接 (Source Link):
    • 摘要页: https://arxiv.org/abs/2505.19761

    • PDF: https://arxiv.org/pdf/2505.19761v1.pdf

    • 发布状态: 预印本 (Preprint)


2. 整体概括 (Executive Summary)

  • 研究背景与动机 (Background & Motivation - Why):

    • 核心问题: 现有的大语言模型 (LLMs) 在需要长期规划和多步操作的长时程决策任务 (long-horizon decision-making tasks) 中表现不佳。
    • 重要性与挑战: 构建能够在复杂环境中自主决策的智能体是人工智能的一大目标。然而,现有方法面临三大挑战:
      1. 探索效率低下 (Deficient Exploration): 在巨大的可能性空间中,智能体难以通过试错找到有效的行为序列,尤其是在奖励信号稀疏(即只有在任务最终完成时才有奖励)的情况下。
      2. 长期信用分配 (Long-term Credit Assignment): 当一个任务包含很多步骤时,很难判断早期哪个动作对最终的成功或失败贡献最大。
      3. 现有方法的局限:
        • 提示工程 (Prompt-based methods):ReAct,依赖于不断增长的上下文,在长任务中容易超出输入长度限制。
        • 监督微调 (Supervised Fine-tuning, SFT): 严重依赖昂贵的专家演示数据,且泛化能力和探索能力有限。
        • 标准强化学习 (RL): 虽然能通过试错学习,但通常需要海量的环境交互,样本效率低,且在巨大的文本动作空间中难以稳定训练。
    • 切入点/创新思路: 本文借鉴了人类解决复杂问题时常用的“分而治之” (divide-and-conquer) 思想,提出将一个长时程任务分解为一系列更短、更易于管理的子任务。通过构建一个分层策略 (hierarchical policy),让一个“高层管理者”负责战略规划(制定子目标),一个“低层执行者”负责战术执行(完成子目标)。
  • 核心贡献/主要发现 (Main Contribution/Findings - What):

    • 提出了 GLIDER 框架: 一个创新的离线分层强化学习 (Offline Hierarchical Reinforcement Learning) 框架,专门用于提升 LLM 智能体的决策能力。其核心是引入了一个分层的 actor-critic 结构。

    • 实现了参数高效的层级设计: 高层和低层策略共享同一个 LLM 主干网络和 actor-critic 模型,仅通过不同的提示 (prompt) 来区分层级,极大地节省了模型参数和计算资源。

    • 增强了探索与推理能力: 通过将复杂任务分解为连贯的思维链 (Chain-of-Thought, CoT) 子任务,智能体可以在一个更有意义、更结构化的子目标空间中进行探索,而不是在海量的原子动作空间中盲目试错。

    • 实现了快速的在线适应能力: 框架中的低层技能是任务无关的(例如“拿起一个物体”),具有很强的通用性。在面对新任务时,只需冻结低层技能,在线微调高层策略即可,从而实现对新环境的快速适应。实验证明了其优越的零样本泛化和在线微调性能。


3. 预备知识与相关工作 (Prerequisite Knowledge & Related Work)

  • 基础概念 (Foundational Concepts):

    • 大语言模型智能体 (LLM Agents): 指将 LLM 作为核心“大脑”,使其能够理解指令、感知环境、进行推理规划,并生成动作与环境进行交互,以完成特定任务的智能系统。
    • 强化学习 (Reinforcement Learning, RL): 一种机器学习范式,智能体 (agent) 通过与环境 (environment) 交互来学习。智能体在每个状态 (state) 下执行一个动作 (action),环境会返回一个奖励 (reward) 和下一个状态。智能体的目标是学习一个策略 (policy),以最大化累积奖励。
    • 分层强化学习 (Hierarchical Reinforcement Learning, HRL): RL 的一个分支,旨在解决长时程和稀疏奖励问题。HRL 将决策过程分解为多个层级。高层策略在较长的时间尺度上操作,负责设定抽象的子目标 (sub-goal);低层策略则负责在较短的时间尺度内学习如何完成这些子目标。这提供了时间抽象 (temporal abstraction),极大地简化了学习过程。
    • 离线强化学习 (Offline Reinforcement Learning): 也称为 batch RL。它与传统在线 RL 的核心区别在于,学习过程完全依赖于一个预先收集好的、固定的数据集,训练期间不能与环境进行任何新的交互。这使得 RL 可以在数据收集成本高昂或在线交互风险大的场景中应用,但也带来了分布偏移 (distribution shift) 的核心挑战。
    • 行为克隆 (Behavior Cloning, BC): 监督学习的一种形式,通过模仿专家演示数据(即状态-动作对)来学习一个策略。它简单有效,但其性能上限受限于演示数据的质量和覆盖范围,且通常缺乏探索和泛化能力。
    • LoRA (Low-Rank Adaptation): 一种参数高效微调 (Parameter-Efficient Fine-Tuning, PEFT) 技术。它通过在预训练模型的 Transformer 层中注入可训练的低秩矩阵,来适配下游任务,而无需更新模型的全部参数。这使得在有限的计算资源下微调大型模型成为可能。
  • 前人工作 (Previous Works):

    • 提示工程方法:ReAct 将推理 (Thought) 和行动 (Action) 结合,Reflexion 引入自我反思机制。它们都通过丰富提示内容来提升 LLM 的决策能力,但缺点是受限于 LLM 的上下文窗口长度,难以处理超长任务。
    • 监督微调方法:SwiftSageNAT,通过在高质量的交互轨迹上微调 LLM 来提升其作为智能体的能力。这些方法的性能高度依赖昂贵的专家数据,且探索新行为的能力较弱。
    • 标准 RL 方法:ETO 使用 DPO 算法,其他工作使用 PPO 等。这些方法赋予了智能体探索能力,但通常样本效率低,训练不稳定,尤其在稀疏奖励和长时程任务中。
    • 经典 HRL 方法:OptionsMAX-Q 框架。这些方法虽然强大,但通常需要人类专家手动设计子任务或层级结构,缺乏自动化和通用性。
  • 技术演进 (Technological Evolution): LLM 智能体的研究路径大致经历了:

    1. 零样本/少样本提示 (Prompting): 利用 LLM 的原生能力,不改变模型参数。
    2. 监督微调 (SFT): 在专家数据上模仿学习,使 LLM 适应特定任务格式。
    3. 在线/离线强化学习 (RL): 通过环境反馈进行试错学习,追求超越演示数据的性能。
    4. 分层强化学习 (HRL): 本文所处的位置,通过引入层级结构来解决 RL 在长时程任务中的核心痛点。
  • 差异化分析 (Differentiation): 与之前的工作相比,GLIDER 的核心创新在于:

    • 自动化层级分解: 利用 LLM 强大的推理能力自主地将任务分解为子目标,而不需要人工指定,克服了传统 HRL 的一大局限。

    • 离线学习范式: 采用离线 RL 进行训练,提高了样本效率,避免了在线交互的高昂成本。

    • 参数高效共享架构: 高低层级共享模型,大大降低了训练和部署的资源需求,这在动辄数十亿参数的 LLM 时代尤为重要。


4. 方法论 (Methodology - Core Technology & Implementation Details)

GLIDER 的核心是一个分层的 Actor-Critic 架构,包含一个三阶段的训练流程。

  • 方法原理 (Methodology Principles): 核心思想是分治 (Divide and Conquer)。通过一个两级层次结构,将复杂的长时程任务分解。

    • 高层策略 (High-level Policy) πh\pi^h: 扮演“规划者”角色。它观察环境,并每隔 cc 个时间步生成一个高级的、语言描述的子目标 gtg_t(例如,“go to kitchen”或“pick up apple”)。它的目标是制定一个能成功完成整个任务的计划。

    • 低层控制器 (Low-level Controller) πl\pi^l: 扮演“执行者”角色。它接收高层策略给出的子目标 gtg_t,并生成一连串原始动作 ata_t(例如,“go forward”、“turn left”)来完成这个子目标。它的目标是忠实地执行指令。

      该图像是论文中展示GLIDER框架的示意图,详细说明了层次控制结构、Actor-Critic模型和层次结构的交互关系,其中包含公式\(R_t=\\sum_{t}^{t+c-1}r_t\)。图中涵盖低级和高级策略的协同工作及数据采样流程。 上图 (a) 展示了参数高效的 Actor-Critic 模型架构,(b) 展示了高低层策略的交互流程,(c) 展示了 SFT、ORL 和 O2O 三个训练阶段,(d) 展示了分层的数据结构。

  • 方法步骤与流程 (Steps & Procedures):

    1. 阶段一:通过行为克隆构建基础智能体 (Base Agent Construction via Behavior Cloning)

      • 目标: 为了避免从零开始训练 RL 带来的不稳定性,首先通过监督微调 (SFT) 让模型学会生成有效的动作序列。
      • 过程: 使用预先收集的演示数据集 Dh\mathcal{D}^hDl\mathcal{D}^l,通过最大化模型生成专家动作/子目标的对数似然来进行训练。
      • 细节: 引入了一个长度正则化项,鼓励模型生成简洁的计划和动作,避免冗余输出。
    2. 阶段二:离线分层策略优化 (Offline Hierarchical Policy Refinement)

      • 目标: 在 SFT 的基础上,利用离线强化学习进一步提升策略性能,让智能体学会从奖励信号中学习,而不仅仅是模仿。
      • 高层策略训练:
        • 输入: 任务描述 dd 和当前观测 oto_t
        • 输出: 子目标 gtg_t
        • 奖励: 在低层执行了 cc 步后,高层策略获得这 cc 步内环境奖励的总和 Rt=i=tt+c1riR_t = \sum_{i=t}^{t+c-1} r_i
      • 低层策略训练:
        • 输入: 当前子目标 gtg_t 和当前观测 oto_t
        • 输出: 原始动作 ata_t
        • 奖励: 它获得一个内部奖励 (intrinsic reward) r^\hat{r},当子目标完成时为 1,否则为 0。这个信号可以直接从环境观测中判断,无需人工设计。
      • 训练算法: 采用了一种基于 Actor-Critic 的离线 RL 算法,包含一个用于评估的句子级 Critic 和一个用于生成动作的词元级 Actor
    3. 阶段三:离线到在线的适应 (Offline-to-Online Adaptation)

      • 目标: 使预训练好的智能体能够快速适应新的、未见过的任务或环境。
      • 过程:
        • 冻结低层技能: 由于低层技能(如“拿起”、“打开”)是通用的,因此在适应新任务时将其参数冻结。
        • 微调高层策略: 只需在线微调高层策略,让它学会如何组合这些已有的低层技能来解决新问题。
      • 优势: 这种方法利用了低层技能的强泛化能力,大大提高了对新任务的适应速度和探索效率。
  • 数学公式与关键细节 (Mathematical Formulas & Key Details):

    1. 基础智能体构建 (SFT Loss): LSFT(θ)=E(d,o;g)Dh[logπθh(gd,o)]+λnhE(g,o;a)Dl[logπθl(ag,o)]+λnl, \begin{array} { r } { \mathcal { L } _ { \mathrm { SFT } } ( \theta ) = - \mathbb { E } _ { ( d , o ; g ) \sim \mathcal { D } ^ { h } } \left[ \log \pi _ { \theta } ^ { h } ( g | d , o ) \right] + \lambda \cdot n _ { h } } \\ { - \mathbb { E } _ { ( g , o ; a ) \sim \mathcal { D } ^ { l } } \left[ \log \pi _ { \theta } ^ { l } ( a | g , o ) \right] + \lambda \cdot n _ { l } , } \end{array}

      • 符号解释:
        • LSFT(θ)\mathcal{L}_{\mathrm{SFT}}(\theta): SFT 阶段的总损失函数。
        • πθh(gd,o)\pi_{\theta}^h(g|d,o): 高层策略,在给定任务描述 dd 和观测 oo 的情况下,生成子目标 gg 的概率。
        • πθl(ag,o)\pi_{\theta}^l(a|g,o): 低层策略,在给定子目标 gg 和观测 oo 的情况下,生成动作 aa 的概率。
        • Dh,Dl\mathcal{D}^h, \mathcal{D}^l: 分别为高层和低层的演示数据集。
        • λ\lambda: 长度正则化系数。
        • nh,nln_h, n_l: 分别为高层和低层策略输出的文本长度。
    2. 句子级 Critic 训练:

      • Q-function 损失: LQ(ϕ)=E(s,u,r,s)Dr[(r+γVψˉ(s)Qϕ(s,u))2] \mathcal { L } _ { Q } ( \phi ) = \mathbb { E } _ { ( s , u , r , s ^ { \prime } ) \sim D _ { r } } \left[ \left( r + \gamma V _ { \bar { \psi } } ( s ^ { \prime } ) - Q _ { \phi } ( s , u ) \right) ^ { 2 } \right]

        • 符号解释:
          • Qϕ(s,u)Q_{\phi}(s,u): 状态-动作价值函数 (Q-function),评估在状态 ss 下采取动作 uu 的好坏。
          • Vψˉ(s)V_{\bar{\psi}}(s'): 目标价值函数,用于计算 TD-target,参数 ψˉ\bar{\psi}VV 网络参数的延迟更新版本 (Polyak averaging)。
          • r,γ,sr, \gamma, s': 分别是奖励、折扣因子和下一个状态。
          • s, u: 统一表示状态和动作,对高层是 (d,o), g,对低层是 (g,o), a
      • Value-function 损失 (使用非对称损失): LV(ψ)=EsDr[Euπθ(.s)[L2τ(Qϕˉ(s,u)Vψ(s))]] \mathcal { L } _ { V } ( \psi ) = \mathbb { E } _ { s \sim D _ { r } } \bigl [ \mathbb { E } _ { u \sim \pi _ { \theta } ( . | s ) } \bigl [ L _ { 2 } ^ { \tau } \bigl ( Q _ { \bar { \phi } } ( s , u ) - V _ { \psi } ( s ) \bigr ) \bigr ] \bigr ]

        • 符号解释:
          • Vψ(s)V_{\psi}(s): 状态价值函数,评估状态 ss 的好坏。
          • L2τ(x)=τ1(x<0)x2L_2^{\tau}(x) = |\tau - \mathbb{1}(x<0)|x^2: 非对称 L2 损失 (asymmetric L2 loss),也称为分位数回归损失 (expectile regression loss)
          • τ[0.5,1)\tau \in [0.5, 1): 分位数参数。当 τ\tau 接近 1 时,该损失会更强烈地惩罚 Q<VQ < V 的情况,从而使得 V(s) 学习到的是 Q(s,u) 在策略 π\pi 下的较高分位数,而不是期望。这是一种实现保守价值估计 (conservative value estimation) 的技术,有助于缓解离线 RL 中的分布外 (OOD) 动作过高估计问题。
    3. 词元级 Actor 训练: Lπ(θ)=E(s,u)Dr[exp(1λ(Qϕ(s,u)Vψ(s)))i=1nlogπθ(wis,w1:i1)] \mathcal { L } _ { \pi } ( \theta ) = - \mathbb { E } _ { ( s , u ) \sim D _ { r } } [ \exp ( \frac { 1 } { \lambda } ( Q _ { \phi } ( s , u ) - V _ { \psi } ( s ) ) ) \cdot \displaystyle \sum _ { i = 1 } ^ { n } \log \pi _ { \theta } ( w _ { i } \mid s , w _ { 1 : i - 1 } ) ]

      • 符号解释:
        • Lπ(θ)\mathcal{L}_{\pi}(\theta): Actor 的损失函数。

        • A(s,u)=Qϕ(s,u)Vψ(s)A(s, u) = Q_{\phi}(s, u) - V_{\psi}(s): 优势函数 (Advantage Function),表示动作 uu 相对于在状态 ss 下的平均表现有多好。

        • exp(1λA(s,u))\exp(\frac{1}{\lambda} A(s, u)): 优势加权项。这个形式类似于 AWAC (Advantage-Weighted Actor-Critic) 算法。当优势 A(s,u) 为正且较大时,权重也较大,模型会更倾向于学习这个动作;反之则权重较小。

        • logπθ(wi)\sum \log \pi_{\theta}(w_i | \dots): 动作(一个句子)的对数似然,按词元 (token) 自回归地计算。

        • 核心思想: 这个损失函数本质上是一个加权的监督学习。它强制策略 πθ\pi_{\theta} 模仿数据集中的动作,但模仿的权重由该动作的优势决定。这使得策略能够在不偏离数据分布太远的情况下,向着高回报的方向进行优化,非常适合离线 RL 场景。


5. 实验设置 (Experimental Setup)

  • 数据集 (Datasets):

    • ScienceWorld: 一个基于文本的交互式环境,模拟了小学科学实验。它包含 30 个不同的任务,需要复杂的推理和多步操作(例如,测试物体的导电性)。
    • ALFWorld: 一个模拟家庭环境的基准,包含 6 种类型的家务操作任务(例如,“将一个苹果放入冰箱”)。它要求智能体在环境中导航并与物体互动,奖励是二元的(成功或失败)。
    • 离线数据构成: 实验使用的离线数据集由专家演示数据 (expert demonstrations)中等质量数据 (medium-quality trajectories)1:2 的比例混合而成。中等质量数据是通过在分布内和跨任务泛化采样策略收集的,这增加了数据的多样性,有助于提升模型的泛化能力。
  • 评估指标 (Evaluation Metrics): 论文中主要使用任务成功率或环境提供的分数作为评估指标。

    • 任务成功率/分数 (Task Success Rate / Score)
      1. 概念定义 (Conceptual Definition): 该指标直接衡量智能体完成指定任务的能力。它计算在所有测试回合中,智能体成功达到任务目标的比例(对于二元奖励任务)或获得环境定义的最终分数(对于有过程分的任务)。这是评估决策智能体有效性的最核心和最直观的指标。
      2. 数学公式 (Mathematical Formula): 对于成功率,其计算公式为: Success Rate=Number of Successfully Completed EpisodesTotal Number of Test Episodes×100% \text{Success Rate} = \frac{\text{Number of Successfully Completed Episodes}}{\text{Total Number of Test Episodes}} \times 100\%
      3. 符号解释 (Symbol Explanation):
        • Number of Successfully Completed Episodes: 智能体成功完成任务的回合总数。
        • Total Number of Test Episodes: 用于评估的总测试回合数。
  • 对比基线 (Baselines): 论文选择了多种有代表性的基线模型进行比较,覆盖了提示工程和微调两大类方法。

    • 提示工程方法:
      • ReAct: 将 CoT 推理与动作生成结合的开创性工作。
      • Reflexion: 在 ReAct 基础上增加了自我反思和语言反馈机制。
    • 微调方法:
      • SwiftSage: 结合了行为克隆和提示工程的双流程框架。

      • NAT: 一种通过数据质量控制来从失败轨迹中学习的微调方法。

      • ETO: 一种迭代优化框架,通过收集对比轨迹对并使用 DPO 算法进行微调。


6. 实验结果与分析 (Results & Analysis)

  • 核心结果分析 (Core Results Analysis):

    以下是论文 Table 1 的转录结果,展示了 GLIDER 与各基线在 ScienceWorldALFWorld 上的性能对比。

    Backbone Method ScienceWorld AlfWorld
    Seen Unseen Seen Unseen
    Mistral-7B Φ ReAct 20.72 17.65 7.86 5.22
    Φ Reflexion 21.07 18.11 11.56 6.00
    Φ SwitchSage 48.40 45.25 30.29 26.52
    ● NAT 57.12 50.79 64.43 68.96
    ● ETO 58.17 51.85 66.84 71.43
    ● GLIDER 67.31 (↑ 15.71%) 65.14 (↑ 25.63%) 70.02 (↑ 4.76%) 74.83 (↑ 4.76%)
    Gemma-7B Φ ReAct 3.58 3.51 6.43 2.24
    Φ Reflexion 4.94 3.93 7.14 2.99
    Φ SwitchSage 33.43 30.90 8.23 5.72
    ● NAT 47.63 44.98 67.86 65.88
    ● ETO 50.44 47.84 6.43 68.66
    ● GLIDER 63.67 (↑ 26.23%) 58.50 (↑ 22.28%) 72.12 (↑ 6.28%) 70.88 (↑ 3.23%)
    Llama-3-8B Φ ReAct 24.76 22.66 2.86 3.73
    Φ Reflexion 27.23 25.41 4.29 4.48
    Φ SwitchSage 42.22 40.58 20.39 10.78
    ● NAT 55.24 48.76 60.71 59.70
    ● ETO 57.90 52.33 64.29 64.18
    ● GLIDER 77.43 (↑ 33.73%) 68.34 (↑ 30.59%) 71.56 (↑ 11.31%) 75.38 (↑ 17.45%)
    • 主要发现:
      1. 一致的性能优势: 在所有 LLM 骨干 (Mistral-7B, Gemma-7B, Llama-3-8B) 和两个基准测试 (ScienceWorld, ALFWorld) 上,GLIDER 的性能均显著优于所有基线方法。
      2. 强大的泛化能力: GLIDER 在未见任务 (Unseen tasks) 上的性能提升尤为突出。例如,在 Llama-3-8B 骨干下,GLIDER 在 ScienceWorld 的未见任务上比表现最好的基线 ETO 提升了 30.59%。这证明了其分层结构和可迁移的低层技能带来了强大的泛化能力。
      3. 方法的普适性: 无论使用哪种 LLM 骨干,GLIDER 都能带来稳定的性能增益,验证了其方法的有效性和鲁棒性。
  • 消融实验/参数分析 (Ablation Studies / Parameter Analysis):

    Figure 3: Ablation performance on unseen tasks in ScienceWorld across model architectures. Solid pillars denote hierarchical models and shaded pillars indicate ablating the hierarchy. The purple/yell… 上图比较了在 ScienceWorld 未见任务上,有无层次结构 (w/ Hier vs w/o Hier) 以及不同训练阶段 (SFT, ORL, SFT+ORLSFT+ORL) 的性能。

    • 层次结构的重要性: 无论在哪种训练设置下,包含层次结构的模型(实心柱)总是优于不包含层次结构的扁平模型(阴影柱)。这直接证明了分层设计是 GLIDER 性能提升的关键。
    • 训练阶段的贡献:
      • 完整的 SFT+ORLSFT+ORL 训练流程(绿色柱)性能最好,说明先进行 SFT 提供一个好的起点,再通过 ORL 优化是最高效的策略。
      • 一个有趣的发现是,单独使用 ORL(黄色柱)的性能优于单独使用 SFT(紫色柱)。这表明,即使从头开始,强化学习的探索和从奖励中学习的能力也比单纯模仿专家更具潜力。
    • 模型规模的影响 (Table 2): 实验表明,即使在较小的模型(如 Llama-1B/3B)上,GLIDER 的层次结构依然能带来显著的性能提升。例如,一个 3B 参数的层级化模型性能(61.29)甚至超过了更大的非层级化 8B 模型(53.94),突显了其架构的效率。
  • 泛化能力分析 (Generalization Analysis via Online Fine-tuning):

    Figure 4: Online fine-tuning performance (score/100) of GLIDER against AC and AWAC baselines in ScienceWorld. 上图展示了在 ScienceWorld 的三个未见过的任务上,GLIDER 与传统在线 RL 算法 AC 和离线到在线算法 AWAC 的性能对比。

    • 更高的起点 (Zero-shot Generalization): 在在线微调开始之前(0 步),GLIDER 的初始分数远高于 ACAWAC,表明其预训练模型具有更强的零样本泛化能力。
    • 更快的适应速度 (Faster Adaptation): 在微调过程中,GLIDER 的性能曲线爬升速度明显快于基线,并最终达到了更高的性能水平。这验证了其冻结低层技能、仅微调高层的策略能有效提升对新任务的适应效率。
  • 数据混合比例的影响 (Impact of Data Mixture Ratios):

    Figure 5: Performance on unseen tasks in ScienceWorld with different expert-to-medium data mixture ratios in the offline RL stage with Llama-3-8B as the LLM backbone. 上图显示了在 ScienceWorld 未见任务上,改变专家数据与中等质量数据的混合比例对模型性能的影响。

    • 数据多样性的重要性: 结果表明,仅使用专家数据(Expert:Medium = 1:0)的性能(29.7)反而不如仅使用中等质量数据(0:1)的性能(36.0)。这说明中等质量数据虽然次优,但提供了更丰富的状态-动作空间覆盖和试错经验,这对于提升 RL 智能体的泛化能力至关重要。

    • 最佳混合比例:1:2 的专家与中等数据比例下,模型性能达到最佳(68.3),说明高质量的引导和多样性的探索相结合是构建强大离线 RL 智能体的关键。


7. 总结与思考 (Conclusion & Personal Thoughts)

  • 结论总结 (Conclusion Summary): 本文成功地提出了 GLIDER,一个基于离线分层强化学习的创新框架,用于提升 LLM 智能体在长时程决策任务中的表现。通过将复杂任务分解为子任务,并利用参数高效的共享架构进行训练,GLIDER 在 ScienceWorldALFWorld 基准上取得了显著的性能提升和卓越的泛化能力。该工作证明了“分而治之”的策略是解决 LLM 智能体面临的长时程规划和探索挑战的有效途径。

  • 局限性与未来工作 (Limitations & Future Work):

    • 局限性: 作者坦诚,当前 SFT>ORL>O2OSFT -> ORL -> O2O 的多阶段训练流程相对复杂。
    • 未来工作:
      1. 简化训练流程: 探索更简洁、端到端的训练方法,可能受到 DeepSeek-R1 等近期工作的启发,直接进行强化微调。
      2. 扩展应用领域: 将该分层框架推广到更广泛的领域,如数学推理代码生成。这些任务同样可以被看作是序贯决策问题,分层方法在解决其复杂性方面具有巨大潜力。
  • 个人启发与批判 (Personal Insights & Critique):

    • 启发:
      1. LLM 自主分解任务: 本文最巧妙的设计之一是利用 LLM 自身的语言能力来生成子目标,实现了层级结构的自动化,避免了传统 HRL 中繁琐的人工设计。这是一个非常优雅且可扩展的思路。
      2. 实用主义的架构: 参数高效的设计(共享骨干)和离线学习范式使得该方法在实际应用中更具可行性,降低了对计算资源的苛刻要求。
      3. 技能泛化的价值: 冻结低层通用技能、仅微调高层规划策略的思路,为解决智能体终身学习和快速适应新环境问题提供了一个极具潜力的范本。
    • 潜在问题与改进方向:
      1. 固定的时间抽象尺度 cc: 论文中,高层策略每 cc 步决策一次。这个 cc 是一个固定的超参数。然而,不同子任务的复杂度和所需步数可能差异很大。一个更优的方案是让智能体动态地、自适应地决定何时结束一个子任务并规划下一个,即让 cc 成为一个可学习的变量。
      2. 子目标完成的判断: 论文中提到“子任务的完成可以很容易地从环境观察中获得”,这在 ALFWorld 等环境中可能成立(例如,检查物体是否在手中)。但在更复杂的开放世界中,如何鲁棒地判断一个语言描述的抽象子目标(如“让房间变得更整洁”)是否完成,本身就是一个具有挑战性的研究问题。
      3. 对数据质量的依赖: 如图 5 所示,模型性能对离线数据的构成非常敏感。虽然 RL 能够从次优数据中学习,但如何系统性地、低成本地构建一个高质量且多样化的离线数据集,仍然是该领域的一个核心挑战。

相似论文推荐

基于向量语义检索推荐的相关论文。

暂时没有找到相似论文。