Hierarchy-of-Groups Policy Optimization for Long-Horizon Agentic Tasks
TL;DR 精炼摘要
本文针对长视界智能体任务中的上下文不一致问题,提出层级组策略优化(HGPO)方法。HGPO通过多层级划分步骤并自适应加权多组优势估计,有效平衡偏差与方差,无需额外模型,实现大幅提升策略优化效果,在复杂任务中超越现有方法。
摘要
000 001 002 003 004 005 006 007 008 009 010 011 012 013 014 015 016 017 018 019 020 021 022 023 024 025 026 027 028 029 030 031 032 033 034 035 036 037 038 039 040 041 042 043 044 045 046 047 048 049 050 051 052 053 Under review as a conference paper at ICLR 2026 H IERARCHY - OF -G ROUPS P OLICY O PTIMIZATION FOR L ONG -H ORIZON A GENTIC T ASKS Anonymous authors Paper under double-blind review A BSTRACT Group-based reinforcement learning (RL), such as GRPO, has advanced the capa- bilities of large language models on long-horizon agentic tasks. To enable more fine-grained policy updates, recent research has increasingly shifted toward step- wise group-based policy optimization, which treats each step in a rollout trajectory independently while using a memory module to retain historical context. How- ever, we find a key issue in estimating stepwise relative advantages, namely con- text inconsistency , where steps within the same group may differ in their historical contexts. Empirically, we reveal that this issue can lead to severely biased advan- tage estimation, thereby degrading policy optimization significantly. To address the issue, in this paper, we propose
思维导图
论文精读
中文精读
1. 论文基本信息
1.1. 标题
Hierarchy-of-Groups Policy Optimization for Long-Horizon Agentic Tasks (针对长视界智能体任务的层级组策略优化)
1.2. 作者
匿名作者 (Paper under double-blind review)。通常在 OpenReview 平台上的论文在评审阶段会匿名。
1.3. 发表期刊/会议
该论文发布于 OpenReview 平台,状态为 Paper under double-blind review,表明其正在接受双盲评审,通常是提交给如 ICLR, NeurIPS 等顶级会议的预印本。
1.4. 发表年份
2025年
1.5. 摘要
基于组的强化学习(Reinforcement Learning, RL)方法,如 GRPO,已显著提升了大型语言模型(Large Language Models, LLMs)在长视界(long-horizon)智能体(agentic)任务中的能力。为了实现更细粒度的策略更新,近期研究逐渐转向了步骤级(stepwise)基于组的策略优化(policy optimization),这种方法将轨迹(rollout trajectory)中的每一步独立对待,同时利用记忆模块(memory module)来保留历史上下文(historical context)。然而,我们发现估计步骤级相对优势(stepwise relative advantages)存在一个关键问题,即上下文不一致性(context inconsistency),即同一组中的步骤可能具有不同的历史上下文。经验研究表明,这个问题会导致优势估计(advantage estimation)出现严重偏差,从而显著降低策略优化的效果。
为了解决这个问题,本文提出了针对长视界智能体任务的层级组策略优化(Hierarchy-of-Groups Policy Optimization, HGPO)。具体来说,在一个轨迹组内,HGPO 根据历史上下文的一致性将每个步骤分配到多个层级组中。然后,对于每个步骤,HGPO 在每个层级组内计算不同的优势,并通过自适应加权方案(adaptive weighting scheme)对其进行聚合。通过这种方式,HGPO 能够在步骤级优势估计中实现有利的偏差-方差权衡(bias-variance trade-off),且无需额外的模型或推演(rollouts)。在 ALFWorld 和 WebShop 这两个具有挑战性的智能体任务上,使用 Qwen2.5-1.5B-Instruct 和 Qwen2.5-7B-Instruct 进行的评估表明,HGPO 在相同的计算约束下显著优于现有的智能体强化学习方法。
1.6. 原文链接
https://openreview.net/forum?id=T8Dev99qnz
1.7. PDF 链接
https://openreview.net/pdf?id=T8Dev99qnz
2. 整体概括
2.1. 研究背景与动机
核心问题: 大型语言模型(LLMs)作为通用智能体(versatile agents)在复杂开放环境中表现出强大的感知、推理和行动能力,尤其是在长视界(long-horizon)任务中。强化学习(RL)是提升这些智能体(agents)性能的关键范式。基于组的强化学习方法(group-based RL),如 GRPO、RLOO 等,因其计算效率高且资源需求少,在大规模 RL 训练中展现出优异性能。
现有研究的挑战或空白:
-
传统基于组的 RL 的局限性: 许多现有基于组的 RL 方法最初是为单轮任务设计的,难以直接扩展到多轮长视界任务。
-
轨迹级策略优化的限制: 传统的轨迹级(trajectory-wise)策略优化框架将整个交互历史连接起来,导致上下文长度随交互轮数迅速增长,引发严重的上下文爆炸(context explosion)问题,限制了可扩展性和可行性。
-
步骤级策略优化的新兴问题: 为解决上下文爆炸,研究转向步骤级(stepwise)策略优化,它独立处理每个步骤并使用记忆模块(memory module)保留历史上下文。然而,这种方法在估计步骤级相对优势(stepwise relative advantages)时,遇到了一个关键问题,即上下文不一致性 (context inconsistency)。具体来说,即使是共享相同当前状态的步骤,其记忆模块中可能包含不同的历史上下文,这会导致优势估计出现偏差(biased advantage estimation),从而严重损害策略优化的效果。
-
“Oracle”方法的低效性: 理论上,只使用具有完全一致历史上下文的“Oracle”步骤可以消除偏差。但经验研究发现,“Oracle”步骤在轨迹中非常稀少(利用率低),且其组大小(group size)通常很小,这会增加优势估计的方差(variance),从而破坏 RL 训练的稳定性。
论文的切入点或创新思路: 针对步骤级基于组的 RL 中
上下文不一致性导致的偏差问题以及Oracle方法的低效高方差问题,本文提出了一种新颖的策略优化算法HGPO。其核心思想是,通过构建上下文感知的层级组 (context-aware hierarchical grouping) 来组织步骤,并结合自适应加权优势估计 (adaptive weighting advantage estimation),在降低偏差的同时有效控制方差,从而实现更好的偏差-方差权衡。
2.2. 核心贡献/主要发现
- 揭示上下文不一致性问题: 首次明确指出并经验性地证明了步骤级基于组的强化学习中
上下文不一致性的存在,并揭示了其如何导致优势估计的显著偏差,进而降低策略优化的效果。 - 提出新颖的策略优化算法 HGPO:
- 引入了
上下文感知的层级分组机制,根据历史上下文的一致性将步骤分配到多层级组中。这使得更精细的比较和优势估计成为可能,提高了数据利用率并降低了方差。 - 设计了
自适应加权优势估计方案,结合不同层级组的优势估计,并对历史上下文更一致的组赋予更大的权重,以降低估计偏差。 - 通过上述两点,HGPO 在无需额外模型或推演(rollouts)的情况下,实现了在步骤级优势估计中更好的偏差-方差权衡。
- 引入了
- 取得卓越的经验性能: 在 ALFWorld 和 WebShop 这两个具有挑战性的智能体(agentic)基准测试上,使用 Qwen2.5-1.5B-Instruct 和 Qwen2.5-7B-Instruct 作为基础模型进行评估,HGPO 持续显著优于现有的基线方法,且在相同的计算约束下表现更优,尤其是在
出分布 (out-of-distribution)任务上展现出更好的泛化能力。
3. 预备知识与相关工作
3.1. 基础概念
3.1.1. 大型语言模型(Large Language Models, LLMs)与智能体(Agents)
大型语言模型 (LLMs) 是指具有数亿到数千亿甚至更多参数的深度学习模型,通过在海量文本数据上进行预训练而获得强大的语言理解和生成能力。近年来,LLMs 不仅用于文本生成、问答等传统任务,还被赋予了 感知 (perceive)、推理 (reason) 和 行动 (act) 的能力,从而成为 智能体 (agents)。智能体 (agents) 能够在一个复杂、开放的环境中与环境交互,执行多步骤决策以达成特定目标。
3.1.2. 长视界(Long-Horizon)任务
长视界任务 (long-horizon tasks) 指的是需要智能体(agent)进行多步决策、长期规划和持续交互才能完成的任务。与单步或短视界任务不同,这类任务通常涉及复杂的子目标分解、状态转换和延迟奖励,例如在虚拟环境中导航、完成在线购物或执行软件工程任务等。
3.1.3. 强化学习(Reinforcement Learning, RL)
强化学习 (RL) 是一种机器学习范式,其中一个 智能体 (agent) 通过与环境进行交互来学习最优行为策略。智能体在每个时间步观察环境的 状态 (state),执行一个 动作 (action),然后环境会根据动作给出 奖励 (reward) 并转移到新的状态。智能体的目标是学习一个 策略 (policy),使得长期累积奖励最大化。
3.1.4. 策略优化(Policy Optimization)
策略优化 (policy optimization) 是强化学习中的一类方法,直接优化智能体(agent)的 策略 (policy) 函数。其目标是调整策略的参数,使得智能体在环境中采取的行动能够获得更高的预期累积奖励。常见的策略优化算法包括 PPO (Proximal Policy Optimization)、REINFORCE 等。
3.1.5. 基于组的强化学习(Group-based Reinforcement Learning)
基于组的强化学习 (Group-based RL) 是一类高效的强化学习算法,其特点是不依赖于额外的价值网络(value network) 来估计状态价值或优势。相反,它们通过从一组(或称为“批次”)采集到的 推演 (rollouts) 或 轨迹 (trajectories) 中直接计算 相对优势 (relative advantages) 来进行策略更新。这种方法通常通过比较组内不同轨迹或步骤的奖励来判断某个动作的好坏。例如,GRPO、RLOO 等。这种方法能够显著减少计算资源,提高大规模 RL 训练的效率。
3.1.6. 优势估计(Advantage Estimation)
在强化学习中,优势函数 (advantage function) 用于衡量在给定状态 下,采取特定动作 相对于该状态下平均行动的优劣程度。其中 Q(s, a) 是 动作价值函数 (action-value function),表示在状态 下采取动作 后预期的累积奖励;V(s) 是 状态价值函数 (state-value function),表示在状态 下按照当前策略行动预期的累积奖励。优势估计 (advantage estimation) 是指计算这个优势函数的过程,它对于稳定和加速策略优化至关重要。
3.1.7. 轨迹级与步骤级策略优化(Trajectory-wise vs. Stepwise Policy Optimization)
- 轨迹级策略优化 (Trajectory-wise Policy Optimization): 将智能体(agent)与环境的整个交互历史,即一条完整的
轨迹 (trajectory),视为一个整体进行优化。这意味着在计算优势和更新策略时,会考虑从任务开始到结束的所有状态-动作对。- 优点: 能够捕捉全局依赖关系。
- 缺点: 在长视界任务中,整个轨迹的
上下文长度 (context length)会迅速增长,导致上下文爆炸 (context explosion)问题,使得LLM难以处理,计算成本高昂。
- 步骤级策略优化 (Stepwise Policy Optimization): 将
轨迹 (trajectory)中的每个步骤 (step)独立对待,进行单独的策略优化 (policy optimization)。为了在独立处理步骤的同时保留历史信息,通常会利用记忆模块 (memory module)来存储和管理有限的历史上下文。- 优点: 解决了上下文爆炸问题,使得长视界
RL训练更具可扩展性。 - 缺点 (本文发现): 引入了
上下文不一致性 (context inconsistency)问题,即即使当前状态相同,不同步骤的历史上下文可能不同,导致优势估计偏差。
- 优点: 解决了上下文爆炸问题,使得长视界
3.1.8. 上下文不一致性(Context Inconsistency)
上下文不一致性 (context inconsistency) 是本文提出的在步骤级基于组的强化学习中发现的关键问题。它指的是,在进行优势估计时,属于同一组(例如,共享相同当前状态)的多个步骤,其各自关联的 历史上下文 (historical contexts)(由记忆模块维护)可能并不相同。这种不一致性使得基于这些步骤的组内比较无法准确反映在特定历史上下文下的动作价值,从而导致 优势估计 (advantage estimation) 出现偏差(biased),进而影响 策略 (policy) 的有效学习。
3.2. 前人工作
3.2.1. 基于 LLM 的决策智能体(LLM-based Decision-making Agents)
早期方法主要依赖于预训练 LLM 的能力,通过结构化 提示 (prompting),如 ReAct (Yao et al., 2023) 和 Reflexion (Shinn et al., 2024)。这些方法可能还会通过 记忆 (memory) 和 检索 (retrieval) 机制或 工具集成 (tool integration) 来增强能力。虽然无需额外训练,但它们在特定领域任务上可能受限于基础模型缺乏专业知识。
3.2.2. 用于 LLM 智能体的强化学习(Reinforcement Learning for LLM Agents)
RL 在调整 LLM 智能体以适应动态开放环境方面发挥了核心作用。早期工作将 DQN 应用于文本游戏,随后 PPO 和 AWR 等 基于价值的方法 (value-based methods) 被用于 ALFWorld 等交互式领域。RL 也被整合到 LLM 训练中,如 RLHF (Reinforcement Learning from Human Feedback) 用于模型对齐。基于组的 RL (Group-based RL) 算法,如 GRPO (Shao et al., 2024)、Dr. GRPO、Clip-Cov、GSPO 和 DAPO,作为 PPO 的可扩展替代方案而出现,它们通过估计样本组的优势来避免价值网络。然而,这些方法大多设计用于单轮交互,难以处理长视界任务中的 上下文一致性 问题。
3.2.3. 长视界智能体强化学习(Long-horizon Agentic Reinforcement Learning)
这一领域旨在将 LLM 从单轮生成扩展到多轮决策。RL 为 LLM 提供了 规划 (planning)、推理 (reasoning) 和 记忆 (memory) 能力,以实现在动态环境中的持续交互。应用场景包括代码生成、软件工程和 GUI 交互。近期进展包括:
- 轨迹级策略优化框架 (Trajectory-wise Policy Optimization Frameworks): 如
RAGEN (Wang et al., 2025d)和 ,它们在多轮推演 (rollouts)上进行优化。但这些方法面临上下文爆炸 (context explosion)的挑战。 - 步骤级策略优化方法 (Stepwise Policy Optimization Methods): 如
Feng et al., 2025b(即GiGPO)、Luo et al., 2025c等,它们独立处理每个步骤,通过记忆模块 (memory modules)维持历史信息。然而,这些步骤级方法 (stepwise methods)经常面临上下文不一致性 (context inconsistency)问题,限制了它们在复杂智能体任务中的有效性。
3.3. 技术演进
LLM 智能体的发展经历了从基于 提示 (prompting) 的简单代理,到结合 记忆 (memory) 和 工具使用 (tool use) 的增强代理,再到利用 RL 进行后训练优化的过程。在 RL 方面,从 DQN、PPO 等经典算法,逐步发展到 RLHF 以及更高效的 基于组的 RL 方法。在处理 长视界任务 上,技术从 轨迹级优化 转向 步骤级优化 以缓解 上下文爆炸,但 步骤级优化 自身又带来了 上下文不一致性 这一新的挑战。本文的 HGPO 正是针对 步骤级优化 中的 上下文不一致性 问题,提出了一种更精细、更鲁棒的 优势估计 (advantage estimation) 机制。
3.4. 差异化分析
HGPO 与现有方法的核心区别和创新点在于:
- 与轨迹级 RL 区别:
HGPO采用步骤级策略优化 (stepwise policy optimization)框架,通过记忆模块 (memory module)管理上下文,避免了轨迹级策略优化中因上下文爆炸 (context explosion)导致的可扩展性问题。 - 与传统基于组的 RL (如 GRPO) 区别:
GRPO最初是为单轮任务设计的,当应用于长视界任务的步骤级优化时,其轨迹级优势估计 (trajectory-level advantage estimation)对轨迹内不同步骤一视同仁,无法提供细粒度的信用分配 (credit assignment)。HGPO则通过上下文感知的层级分组 (context-aware hierarchical grouping)和自适应加权 (adaptive weighting)实现细粒度的步骤级优势估计。 - 与 GiGPO 区别:
GiGPO (Feng et al., 2025b)是最接近HGPO的方法,它也进行了步骤级分组 (step-level grouping),并估计了额外步骤级优势 (step-level advantages)。然而,GiGPO忽略了上下文不一致性 (context inconsistency)问题,即共享相同当前状态的步骤可能具有不同的历史上下文。这导致GiGPO的优势估计可能存在严重偏差,尤其是在 值(历史上下文深度)增大时,偏差会更加显著。HGPO的创新在于明确识别并解决了上下文不一致性问题。它通过构建多层级的上下文感知组,并采用自适应加权方案,优先考虑那些历史上下文更一致的组的优势估计,从而有效降低了偏差,并实现了更好的偏差-方差权衡。这使得HGPO在 值增大时(即需要更长历史上下文时)仍能保持性能优势,而GiGPO则可能因偏差增大而受限。
4. 方法论
本节将详细阐述 Hierarchy-of-Groups Policy Optimization (HGPO) 的技术方案,包括其问题设定、核心思想、具体算法组件以及理论分析。
4.1. 方法原理
HGPO 的核心思想是解决 步骤级基于组的强化学习 (stepwise group-based RL) 中存在的 上下文不一致性 (context inconsistency) 问题。当来自不同轨迹的步骤共享相同的当前状态但具有不同的历史上下文时,传统的 步骤级优势估计 (step-level advantage estimation) 会产生偏差。HGPO 通过引入 上下文感知的层级分组 (context-aware hierarchical grouping) 来细化步骤的归类,并使用 自适应加权 (adaptive weighting) 机制聚合来自不同层级组的优势估计,从而在 偏差 (bias) 和 方差 (variance) 之间找到一个有利的权衡点,以获得更准确、更稳定的 优势估计 (advantage estimation)。
4.2. 核心方法详解
4.2.1. 问题设定
在 长视界智能体任务 (long-horizon agentic tasks) 中,一个 大语言模型智能体 (LLM-based agent) (由参数 参数化)在每个时间步 观察 环境状态 (environment state) ,并生成一个 文本动作 (textual action) 。这里, 是 词元词汇表 (token vocabulary), 是最大生成长度。任务通常是 稀疏延迟奖励 (sparse delayed reward) 设置,即环境只在 轨迹 (trajectory) 的最终步骤提供一个标量 奖励 (reward) 。
4.2.2. 轨迹级与步骤级策略优化
为了解决 轨迹级策略优化 (trajectory-wise policy optimization) 中 上下文爆炸 (context explosion) 的问题,步骤级策略优化 (stepwise policy optimization) 被提出。它将 轨迹 (trajectory) 分解为独立的步骤,并通过 记忆模块 (memory module) 维护一个有限的 历史上下文 (historical context) ,从而使 提示长度 (prompt length) 相对稳定,实现可扩展的 RL 训练。
4.2.3. 基于组的强化学习中的优势估计
基于组的强化学习 (Group-based RL) 算法(如 GRPO)不使用额外的价值函数,而是直接从 推演 (rollouts) 样本组 的统计数据中计算优势。
4.2.3.1. 轨迹级优势估计
GRPO 最初设计用于单轮任务,其 轨迹级优势估计 (trajectory-level advantage estimation) 定义如下:
符号解释:
- : 对于
轨迹 (trajectory)的轨迹级优势 (trajectory-level advantage)。 - :
轨迹 (trajectory)的总奖励 (reward)。 - :
轨迹组 (group of trajectories),包含所有采样的轨迹。 - :
轨迹组 (group of trajectories)中轨迹的数量。 - :
轨迹组 (group of trajectories)中所有轨迹的总奖励 (reward)之和。 - :
轨迹组 (group of trajectories)中奖励 (reward)的标准差。 - 该公式计算的是
轨迹 (trajectory)的奖励与其所在组内平均奖励的相对差异,并进行标准化。这个优势值会被分配给轨迹 (trajectory)中的每一个步骤,但这种方式忽略了轨迹内部的细粒度信用分配 (credit assignment)需求。
4.2.3.2. 步骤级优势估计
为了更细粒度地分配信用,可以采用 步骤级组相对优势估计器 (step-level group relative advantage estimator)。它将所有组内轨迹中具有相同 当前状态 (current states) 的步骤聚类成 步骤级组 (step-level groups) ,并计算其优势:
符号解释:
- : 对于
步骤 (step)的步骤级优势 (step-level advantage)。 - :
步骤 (step)的奖励 (reward)。 - : 包含所有
当前状态 (current state)相同的步骤的步骤级组 (step-level group)。 - :
步骤级组 (step-level group)中步骤的数量。 - :
步骤级组 (step-level group)中所有步骤的总奖励 (reward)之和。 - :
步骤级组 (step-level group)中奖励 (reward)的标准差。 步骤级估计器 (step-level estimator)提供了比轨迹级估计器 (trajectory-level estimator)更细粒度的信用分配 (credit assignment)。
4.2.4. 上下文不一致性问题
尽管 步骤级策略优化 (stepwise policy optimization) 解决了 上下文爆炸 (context explosion),但它引入了 上下文不一致性 (context inconsistency) 问题。如图 1(b) 所示,在 步骤级锚定组 (step-level anchor group) 中,共享相同 当前状态 (current state) 的步骤,其 记忆模块 (memory modules) 中可能包含不同的 历史上下文 (historical contexts)。这导致在该 步骤级组 (step-level group) 内估计的优势 有偏差 (biased),无法准确反映在给定 先验上下文 (prior context) 条件下 当前状态 (current states) 和 动作 (actions) 的真实效果。
图 2 的实验结果也表明,轨迹级优势 (trajectory-level advantages) 和 步骤级优势 (step-level advantages) 都存在显著的估计偏差。一个直接的解决方案是只使用 Oracle 步骤(即不仅当前状态相同,历史上下文也完全相同的步骤)进行策略优化。然而,Oracle 步骤在 轨迹 (trajectories) 中非常稀少(图 2(c) 和 2(d) 所示,比例低),使得这种方法效率低下。此外,Oracle 步骤的平均组大小很小,会增加优势估计的 方差 (variance),从而破坏 RL 训练的稳定性。
4.2.5. 层级组策略优化(Hierarchy-of-Groups Policy Optimization, HGPO)
为了解决 上下文不一致性 导致的偏差问题以及 Oracle 方法的低效高方差问题,本文提出了 HGPO,其核心包含 上下文感知层级分组 和 自适应加权优势估计 两个组件。
4.2.5.1. 上下文感知层级分组 (Context-aware Hierarchical Grouping)
上下文感知层级分组 (context-aware hierarchical grouping) 的目的是根据 历史上下文 (historical contexts) 的一致性,将步骤组织成多层级的组。直观上,每个步骤的优势应该相对于不同的历史上下文进行评估,以获得更准确的估计。
-
定义 -步上下文操作符: 对于第 条
轨迹 (trajectory)中的第 个步骤,其 -步上下文由操作符 定义: 符号解释:- : 对于第 条
轨迹 (trajectory)的第 个步骤,其k-步上下文 (k-step context)。 - : 第 条
轨迹 (trajectory)在时间步 的状态 (state)。 - :
上下文深度 (context depth),表示考虑的历史步骤数量,取值范围 ,其中 是最大上下文长度。 - 这个操作符返回当前状态 之前最近的 个历史状态,包括当前状态本身。如果当前步骤 小于 ,则返回从初始状态 到当前状态的所有历史状态。
- : 对于第 条
-
定义 -th 层级组: 基于上述
上下文操作符 (context operator),对于第 条轨迹 (trajectory)中的第 个步骤,其 -th层级组 (hierarchical group)定义为: 符号解释:- : 对于第 条
轨迹 (trajectory)的第 个步骤,其 -th层级组 (hierarchical group)。 (j, n): 表示第 条轨迹 (trajectory)的第 个步骤。- : 所有
轨迹 (trajectory)中所有步骤的索引集合,即 。 - 这个组包含所有与 具有完全相同 -步上下文的步骤。
- : 对于第 条
-
层级组结构:
上下文感知层级分组 (context-aware hierarchical grouping)产生的层级组 (hierarchy-of-groups)结构满足: 解释:- 当 时,
0-步上下文 (0-step context)仅包含当前状态 本身。因此, 对应于所有共享相同当前状态的步骤,这退化为GiGPO中使用的步骤级分组 (step-level grouping)。 - 随着 的增加,对历史上下文一致性的要求越高,因此满足条件的步骤会越来越少,导致组的大小逐渐减小( 递减或保持不变)。
- 包含与 具有最长 -步一致上下文的步骤,这最接近
Oracle组。 - 优点: 这种层级结构:(i) 提高了
步骤利用率 (step utilization),因为即使在长上下文下没有完全一致的组,也可以在较短上下文下找到更大的组;(ii) 减少了估计优势的方差 (variance of estimated advantages),因为在组大小较大时方差较小。 - 该分组过程是完全
离线 (offline)的,仅需对现有推演 (rollouts)进行哈希表查找 (hashmap lookups),无需额外模型或数据采集。
- 当 时,
4.2.5.2. 自适应加权优势估计 (Adaptive Weighting Advantage Estimation)
直观而言,层级 (higher-level) 组(具有更长、更一致的 历史上下文 (historical context))能够提供更准确的优势比较。基于这一洞察,HGPO 引入了 自适应加权方案 (adaptive weighting scheme) 来整合所有层级组的信息。
-
定义 -th 层级组的优势估计: 对于 -th
层级组 (hierarchical group),其优势估计定义为: 符号解释:- : 对于第 条
轨迹 (trajectory)的第 个步骤,其 -th层级组 (hierarchical group)中的优势估计 (advantage estimation)。 - : 步骤 的
逐步奖励 (stepwise reward)。这里,作者指出,每个步骤的逐步奖励 通过从该步骤开始的折扣累积奖励计算得到:,其中 是折扣因子 (discount factor)。 - :
k-th 层级组 (k-th hierarchical group),如方程 (4) 所定义。 - :
k-th 层级组 (k-th hierarchical group)中步骤的数量。 - :
k-th 层级组 (k-th hierarchical group)中所有步骤的逐步奖励 (stepwise reward)之和。 - :
k-th 层级组 (k-th hierarchical group)中逐步奖励 (stepwise reward)的标准差。
- : 对于第 条
-
聚合优势估计: 最终,从 个
层级组 (hierarchical groups)聚合得到的优势 计算为: 符号解释:- : 第 条
轨迹 (trajectory)的第 个步骤的最终聚合优势估计 (advantage estimation)。 - :
自适应权重 (adaptive weight),定义为 ,其中 是一个控制权重锐度的参数。 - 这个公式融合了来自不同
层级组 (hierarchical groups)的优势信息,并通过自适应权重 (adaptive weight)赋予上下文 (context)更一致(即 值更大)的层级组 (higher-level groups)更大的权重。
- : 第 条
4.2.6. 策略优化目标
HGPO 的 策略优化目标 (policy optimization objective) 旨在最大化以下目标函数:
符号解释:
-
:
HGPO的策略优化目标函数 (policy optimization objective function),参数为 。 -
: 期望。
-
:
推演组 (rollout group)中轨迹 (trajectory)的数量。 -
:
轨迹 (trajectory)的最大交互轮数。 -
:
重要性采样比 (importance sampling ratio),衡量新策略 (policy)相对于旧策略 (policy)采取动作 (action)的概率比。 -
: 通过
HGPO方法计算的聚合优势估计 (aggregated advantage estimation)(如方程 (7) 所示)。 -
:
裁剪函数 (clipping function),将重要性采样比 (importance sampling ratio)裁剪到 范围内,以限制策略 (policy)更新的幅度,防止过大的变化,其中 是裁剪参数 (clipping parameter)。 -
:
KL 散度惩罚 (KL penalty)的系数,控制策略 (policy)与参考策略 (reference policy)之间KL 散度 (KL-divergence)的强度。 -
: 新
策略 (policy)与参考策略 (reference policy)之间的KL 散度 (KL-divergence),用于保持策略 (policy)的更新不会偏离原始LLM太远。 -
该目标函数结合了
PPO风格的裁剪目标 (clipped objective)来稳定训练,并加入了KL 散度惩罚 (KL-divergence penalty)来约束策略 (policy)变化,使其不会过度偏离参考策略 (reference policy)。算法的伪代码在附录 A 的 Algorithm 1 中给出,它描述了
HGPO的训练流程:首先更新旧策略,然后进行多步推演 (multi-step rollout)阶段,接着是分组 (grouping)阶段(上下文感知层级分组),再是优势计算 (advantage computation)阶段(自适应加权优势估计),最后是策略更新 (policy update)阶段。
4.2.7. 偏差-方差权衡分析 (Bias-variance Trade-off Analysis)
命题 4.1 (Bias-variance trade-off in HGPO)
令 和 分别表示第 -th 组 (group) 内 估计优势 (estimated advantage) 的 偏差 (bias) 和 方差 (variance)。在以下条件下:
(1) 偏差 (Bias) 单调递减,即 ;
(2) 方差 (Variance) 单调递增且相互独立,即 。
估计器 (estimator) 的 偏差 (bias) 和 方差 (variance) 为:
此外,偏差 (bias) 和 方差 (variance) 满足:
符号解释:
- : 分别表示
轨迹级 (trajectory-level)、步骤级 (step-level)和Oracle 优势 (Oracle advantage)的偏差 (bias)。 - : 分别表示
轨迹级 (trajectory-level)、步骤级 (step-level)和Oracle 优势 (Oracle advantage)的方差 (variance)。 HGPO的优势估计器 (advantage estimator)的偏差 (bias)低于轨迹级 (trajectory-level)和步骤级 (step-level)估计器,并且与Oracle 估计器 (Oracle estimators)进行权衡。其方差 (variance)则根据层级组 (hierarchical groups)的数量 和权重参数 (weight parameter)在步骤级 (step-level)和Oracle 估计器 (Oracle estimators)之间进行权衡。- 前提条件解释:
- 偏差单调递减 (): 组内
历史上下文 (historical context)的一致性越高( 越大),估计偏差 (estimation bias)越小。轨迹级 (trajectory-level)的偏差最大 (),步骤级 (step-level)次之 (),而完全一致的Oracle组 () 偏差最小。 - 方差单调递增且独立 (): 组大小越小,
估计方差 (estimation variance)越大。步骤级组 (step-level group)(仅当前状态一致) 通常最大,因此方差 最小。而Oracle组 (完全上下文一致) 通常很小,因此方差 最大。轨迹级 (trajectory-level)组的方差 一般也很大。方差独立性 (variance independence)指的是不同层级组的优势估计 (advantage estimation)误差是相互独立的。
- 偏差单调递减 (): 组内
- 这个命题表明,
HGPO通过自适应加权 (adaptive weighting)机制,能够系统地利用不同层级组的偏差-方差 (bias-variance)特性,实现整体上更优的优势估计 (advantage estimation)。
5. 实验设置
5.1. 数据集
本文在两个具有挑战性的 智能体 (agentic) 基准测试上训练 LLM 智能体:ALFWorld 和 WebShop。
5.1.1. ALFWorld
- 来源与特点:
ALFWorld (Shridhar et al., 2021)是一个结合文本和具身环境的基准测试,旨在评估LLM智能体在多步骤决策 (multi-step decision-making)方面的能力。 - 任务类型: 包含 4,639 个任务实例,涵盖六大类常见的家庭活动:
Pick & Place (Pick):拾取并放置。Examine in Light (Look):在光线下检查。Clean & Place (Clean):清洁并放置。Heat & Place (Heat):加热并放置。Cool & Place (Cool):冷却并放置。Pick Two & Place (Pick2):拾取两个并放置。
- 任务目标: 在每个
情景 (episode)中,智能体(agent)接收一个文本目标,并通过与环境的多轮交互来完成它。
5.1.2. WebShop
- 来源与特点:
WebShop (Yao et al., 2022)是一个复杂、基于网络的交互式环境,旨在测试LLM智能体在真实在线购物场景中的能力。 - 任务规模: 包含超过 110 万种产品和 12,000 条用户指令,提供了丰富多样的
动作空间 (action space)。 - 任务目标: 智能体(agent)必须与模拟的基于 HTML 的购物网站进行交互,以搜索、导航并最终购买合适的商品。
5.1.3. LLM 基础模型
为了进行公平比较,所有实验都基于 Qwen2.5-1.5B-Instruct 和 Qwen2.5-7B-Instruct (Yang et al., 2024) 作为 基础模型 (base models)。
5.1.4. Prompt Template 示例
LLM 智能体使用的 提示模板 (prompt templates) 如下所示。这些模板通过 Python 风格的字符串格式化构建,其中 {} 包裹的占位符(如 {task_description}、{step_count}、{current_observation})在运行时动态填充。为了丰富智能体的上下文,使用了历史信息,并将历史长度设置为 2。 标签指导智能体进行 逐步推理 (step-by-step reasoning),而 标签用于指示最终的 动作决策 (action decision)。
ALFWorld Prompt Template (Figure 6):
You are an expert agent operating in the ALFRED embodied Environment. Your task is to: {task_description}. Prior to this step, you have already taken {step_count} step(s). Below are the most recent {history_length} observations and the corresponding actions you took: {action_history}. You are now at step {current_step} and your current observation is: {current_observation}. Your admissible actions of the current situation are: [[admissible_actions ]].
Now it's your turn to take an action. You should first reason step-by-step about the current situation. This reasoning process MUST be enclosed within <think> </think> tags. Once you've finished your reasoning, you should choose an admissible action for current step and present it within <action> </action> tags.
WebShop Prompt Template (Figure 7):
You are an expert autonomous agent operating in the WebShop e-commerce environment. Your task is to: {task_description}. Prior to this step, you have already taken {step_count} step(s). Below are the most recent {history_length} observations and the corresponding actions you took: {action_history}. You are now at step {current_step} and your current observation is: {current_observation}. Your admissible actions for the current situation are: [[available_actions ]].
Now it's your turn to take one action for the current step. You should first reason step-bystep about the current situation, then think carefully which admissible action best advances the shopping goal. This reasoning process MUST be enclosed within <think> </think> tags. Once you've finished your reasoning, you should choose an admissible action for current step and present it within <action> </action> tags.
5.2. 评估指标
5.2.1. ALFWorld
- Overall Success Rate (总成功率): 衡量智能体在所有任务中成功完成的比例。
- 概念定义:
总成功率用于量化智能体在给定任务集合中,能够按照任务指令正确执行并达到目标状态的频率。这是一个直接反映智能体任务完成能力的指标。 - 数学公式:
- 符号解释:
Number of Successful Episodes: 智能体成功完成任务的情景(episode)数量。Total Number of Episodes: 智能体尝试完成任务的情景(episode)总数。
- In-Success (In-distribution Success Rate): 在训练数据分布内的任务上的成功率。
- Out-Success (Out-of-distribution Success Rate): 在训练数据分布之外的任务上的成功率,用于评估泛化能力。
- 概念定义:
5.2.2. WebShop
- Average Task Score (平均任务分数): 衡量智能体在每个任务中获得的平均分数。
- 概念定义:
平均任务分数用于量化智能体在WebShop购物场景中完成任务的质量。通常,任务完成度越高、越准确(例如找到完全符合描述的商品),得分就越高。这反映了智能体对任务目标的理解和执行的精确性。 - 数学公式:
- 符号解释:
Total Number of Tasks: 任务的总数量。- : 智能体在第 个任务中获得的具体分数,分数的计算方式由
WebShop环境定义。
- 概念定义:
- Average Task Success Rate (平均任务成功率): 衡量智能体在每个任务中成功完成的比例。
- 概念定义:
平均任务成功率直接衡量智能体能否在WebShop中成功购买到符合要求的商品。这通常是一个二元指标(成功或失败),用于评估智能体的基础任务完成能力。 - 数学公式:
- 符号解释:
Total Number of Tasks: 任务的总数量。- : 指示函数,如果第 个任务成功完成,则为 1,否则为 0。
- 概念定义:
5.2.3. 训练指标 (Training Metrics)
在附录 C.4 中,论文还提供了训练过程中的动态指标:
- Mean Advantages (平均优势):
- 概念定义: 表示所选动作相对于平均动作的优越程度。
- 量化目标: 积极且稳定的值表明智能体通常选择更好的动作,而大幅波动则提示训练不稳定。
- Policy Gradient Loss (策略梯度损失):
- 概念定义: 用于更新策略的主要信号。
- 量化目标: 平滑且逐渐减小的值表明学习稳定。过大或急剧变化表示更新过于激进,可能损害训练稳定性。
- KL Divergence (KL 散度):
- 概念定义: 衡量新策略与旧策略之间的差异。
- 量化目标: 作为约束,防止策略变化过快。适中的
KL值表示稳定学习,过高可能导致发散,过低则可能减缓学习。
- Policy Gradient Clip Fraction (策略梯度裁剪比例):
- 概念定义: 显示优化过程中被裁剪的梯度比例。
- 量化目标: 适中的比例表示稳定训练,过高则意味着许多更新不稳定并受到限制。
- Mean Reward (平均奖励):
- 概念定义: 智能体在每个
情景 (episode)中获得的平均回报。 - 量化目标: 直接衡量进展:奖励越高表示性能越好。平稳增长表示有效学习,突然下降表明不稳定。
- 概念定义: 智能体在每个
- Episode Success Rate (情景成功率):
- 概念定义: 智能体成功完成任务的
情景 (episode)百分比。 - 量化目标: 直观衡量智能体实现目标的程度。上升的成功率表明智能体正在改进,训练有效。
- 概念定义: 智能体成功完成任务的
5.3. 对比基线
本文将 HGPO 与多种具有竞争力的基线方法进行了比较:
- 闭源 LLM (Closed-source LLMs):
- GPT-4o (Achiam et al., 2023): 领先的闭源
LLM,作为多轮智能体任务 (multi-turn agentic tasks)的基线。 - Gemini-2.5-Pro (Team et al., 2023): 另一个与
GPT-4o规模和能力相当的闭源LLM。
- GPT-4o (Achiam et al., 2023): 领先的闭源
- 基于提示的智能体 (Prompting Agents):
- Qwen2.5 (Prompting):
Qwen2.5模型直接通过提示 (prompting)进行任务,不经过RL训练。 - ReAct (Yao et al., 2023): 一种基于
提示 (prompting)的智能体,通过思想链 (chain-of-thought)框架整合推理 (reasoning)和行动 (acting)。 - Reflexion (Shinn et al., 2024): 一种
提示 (prompting)智能体,通过自我反思和迭代改进生成输出。
- Qwen2.5 (Prompting):
- RL 训练方法 (RL Training Methods):
- PPO (with critic) (Schulman et al., 2017):
近端策略优化 (Proximal Policy Optimization),一种经典的RL算法,通常使用一个价值网络 (value network)(critic) 来估计优势。 - RLOO (Kool et al., 2019; Ahmadian et al., 2024):
离线观察强化学习 (Reinforcement Learning with Offline Observations),一种基于组的 RL (group-based RL)方法,无需价值网络 (value networks)即可估计优势。 - GRPO (Shao et al., 2024):
基于组的 RL (Group-based RL),使用轨迹级优势估计 (trajectory-level advantage estimation),旨在扩展RL到多步任务 (multi-step tasks)。 - GiGPO (Feng et al., 2025b):
分组增量 GPO (Grouped Incremental GPO),一种先前的层级 RL (hierarchical RL)方法,为LLM智能体执行组内优势估计 (groupwise advantage estimation)。
- PPO (with critic) (Schulman et al., 2017):
5.4. 实现细节
- 基础模型:
Qwen2.5-1.5B-Instruct和Qwen2.5-7B-Instruct。 - 超参数配置 (所有 RL 训练方法共享):
LLM推演 (rollout)组大小 (group size)。- 每个
推演 (rollout)采样 16 个不同的组,总共 个环境。 PPO则使用 128 个独立环境进行推演 (rollouts)。权重系数 (weighting coefficient)在方程 (7) 中设置为 1。
- ALFWorld 特有超参数:
- 最大
提示长度 (prompt length):2048词元 (tokens)。 - 最大
响应长度 (response length):512词元 (tokens)。 - 每个
情景 (episode)最多 50 个环境步骤。 学习率 (learning rate):actor为 ,critic(仅PPO使用) 为 。奖励 (reward):成功得 10,失败得 0,非法动作罚 -0.1。推演温度 (rollout temperature):1.0。验证温度 (validation temperature):0.4。迷你批次大小 (mini-batch size):256。KL 散度损失系数 (KL-divergence loss coefficient):0.01。折扣因子 (discount factor):0.95。
- 最大
- WebShop 特有超参数:
- 最大
提示长度 (prompt length):4096词元 (tokens)。 - 最大
响应长度 (response length):512词元 (tokens)。 - 每个
情景 (episode)最多 15 个环境步骤。 学习率 (learning rate):actor为 ,critic(仅PPO使用) 为 。奖励 (reward):成功得 10,失败得 0,非法动作罚 -0.1。推演温度 (rollout temperature):1.0。验证温度 (validation temperature):0.4。迷你批次大小 (mini-batch size):64。KL 散度损失系数 (KL-divergence loss coefficient):0.01。折扣因子 (discount factor):0.95。
- 最大
- 计算细节:
Qwen2.5-1.5B-Instruct实验:两块 NVIDIA H100 GPU。Qwen2.5-7B-Instruct实验:四块 NVIDIA H100 GPU。- 每个实验共训练 160 个训练迭代。
- 在计算方程 (7) 中的权重时,会省略
优势 (advantage)为零的组,以避免依赖不可用的估计。 验证数据集 (validation data)大小:ALFWorld为 128,WebShop为 256。
- 评估:
GiGPO和HGPO均使用三个随机种子进行测试,并报告其性能的平均值和标准差。
6. 实验结果与分析
本节将详细解读 HGPO 在 ALFWorld 和 WebShop 两个基准任务上的实验结果,并与其他基线方法进行对比分析。
6.1. 核心结果分析
6.1.1. 整体性能对比
以下是原文 Table 1 的结果:
| Model | Type | Method | ALFWorld | WebShop | ||
|---|---|---|---|---|---|---|
| In-Success | Out-Success | Task Scores | Task Success Rates | |||
| Qwen2.5-1.5B-Instruct | Prompting | GPT-4o | 48.0 | 46.0 | 31.8 | 23.7 |
| Gemini-2.5-Pro | 60.3 | 50.5 | 42.5 | 35.9 | ||
| Qwen2.5 | 4.1 | - | 23.1 | 5.2 | ||
| ReAct | 12.8 | - | 40.1 | 11.3 | ||
| Reflexion | 21.8 | - | 55.8 | 21.9 | ||
| RL Training | PPO (with critic) | - | ||||
| RLOO | ||||||
| GRPO | ||||||
| GiGPO | ||||||
| HGPO | ||||||
| GiGPO | ||||||
| HGPO | ||||||
| Qwen2.5-7B-Instruct | Prompting | Qwen2.5 | 14.8 | - | 26.4 | 7.8 |
| ReAct | 31.2 | - | 46.2 | 19.5 | ||
| Reflexion | 42.7 | - | 58.1 | 28.8 | ||
| RL Training | PPO (with critic) | |||||
| RLOO | ||||||
| GRPO | ||||||
| GiGPO | ||||||
| HGPO | ||||||
| GiGPO | ||||||
| HGPO | ||||||
分析:
- RL 训练方法的优越性: 无论是
Qwen2.5-1.5B-Instruct还是Qwen2.5-7B-Instruct,所有RL训练方法都显著优于基于提示 (prompting-based)的方法(包括GPT-4o和Gemini-2.5-Pro等闭源模型),这表明RL训练在增强LLM智能体 (agentic)推理能力方面具有巨大潜力。 - HGPO 的最佳性能: 在所有设置下,
HGPO始终表现出最佳性能。无论是在ALFWorld的In-Success和Out-Success指标,还是WebShop的Task Scores和Task Success Rates指标上,HGPO都取得了最高分,这充分验证了其有效性。 - 模型规模的影响:
Qwen2.5-7B-Instruct作为基础模型 (base model)时,整体性能优于Qwen2.5-1.5B-Instruct,这符合LLM规模越大性能越强的普遍规律。HGPO在两种规模的模型上都保持了领先地位。
6.1.2. HGPO 性能随 值的提升
分析:
- HGPO 显著受益于更大的 : 当
历史上下文深度 (context depth)从 2 增加到 4 时,HGPO的性能提升更为显著。例如,在使用Qwen2.5-1.5B-Instruct在ALFWorld上,HGPO的In-Success从 89.58% 提高到 92.45%;在Qwen2.5-7B-Instruct上,In-Success从 91.15% 提高到 94.79%。 - GiGPO 性能提升有限: 相比之下,
GiGPO随着 值的增加,性能提升幅度有限,甚至在某些情况下略有下降(如Qwen2.5-1.5B-Instruct在ALFWorld上,GiGPOIn-Success从 85.42 略降至 85.15)。 - 原因解释: 较大的 值意味着需要考虑更长的
历史上下文 (historical contexts)。这会加剧提示不一致性 (prompt inconsistency)问题,使得GiGPO的步骤级优势估计 (step-level advantage estimates)更加有偏差 (biased),从而限制其性能提升。HGPO则通过其层级组优势计算 (hierarchical group advantage computation)机制,有效缓解了这种提示不一致性,专注于具有一致提示 (prompts)的步骤,从而降低了估计偏差 (estimation bias),使其能够更好地利用长上下文信息。
6.1.3. 泛化能力分析 (Out-of-distribution Tasks)
分析:
- 基线方法泛化能力差: 所有基线方法在
ALFWorld的出分布任务 (out-of-distribution tasks)上性能显著下降。这表明上下文不一致性会严重损害策略优化 (policy optimization)和泛化能力 (generalization)。 - HGPO 保持优越泛化性能:
HGPO在ALFWorld的Out-Success指标上表现出更优越的性能,且性能下降幅度较小。例如,在使用Qwen2.5-1.5B-Instruct时, 的Out-Success达到 89.06%,远高于 的 80.98%。这表明HGPO的层级分组机制 (hierarchical grouping mechanism)提供了更鲁棒 (robust)和稳定 (stable)的优势估计 (advantage estimation),使其能够更好地泛化到未见过的任务。
6.2. 进一步分析
6.2.1. 训练动态
以下是原文 Figure 4 和 Figure 8 (附录 D.3) 的图像: ALFWorld Training Dynamics (Qwen2.5-1.5B-Instruct, Figure 4):
WebShop Training Dynamics (Qwen2.5-1.5B-Instruct, Figure 8):

分析:
- 整体稳定性与效率:
HGPO(红色曲线)在所有指标上都表现出更稳定和高效的策略优化 (policy optimization)过程。 - 策略梯度裁剪比例 (Policy Gradient Clip Fraction):
HGPO维持在一个适度的水平,表明训练稳定。而GiGPO和GRPO的裁剪比例更高,反映出训练存在一定的不稳定性,需要更频繁的梯度裁剪来限制更新幅度。 - KL 散度损失 (KL Loss):
GRPO的KL损失曲线过低,可能暗示学习过程过于缓慢或保守。GiGPO的KL损失相对较高,可能表示学习过程过于激进,策略变化过大。HGPO的KL损失轨迹则保持在一个平衡的水平,表明其策略学习 (policy learning)过程稳健且稳定。 - 平均优势 (Mean Advantages) 和平均奖励 (Mean Reward):
HGPO通常能更快达到更高的平均奖励和优势,并保持更小的波动,这与其更准确的优势估计 (advantage estimation)相关。 - 情景成功率 (Episode Success Rate):
HGPO的成功率通常上升更快,并最终达到更高水平,再次印证了其方法的优越性。
6.2.2. 层级组大小分布 (Distribution of Hierarchical Group Sizes)
以下是原文 Figure 5 和 Figure 9 (附录 D.4) 的图像: Hierarchical Group Sizes (K=2, ALFWorld & WebShop, Qwen2.5-1.5B-Instruct, Figure 5):
Hierarchical Group Sizes (K=4, ALFWorld & WebShop, Qwen2.5-1.5B-Instruct, Figure 9):

分析:
- 0-Context 组的特点:
0-context组(即只要求当前状态一致,忽略历史上下文的组)倾向于拥有较高比例的大组大小 (large group sizes)。这是因为对上下文一致性的要求最低,更多的步骤可以被归入同一组。 - 随着 增大,组大小减小: 随着
上下文深度 (context depth)的增加(例如从0-context到1-context再到2-context),组大小的分布会向更小的组倾斜。即,大组 (large groups)的比例减少,小组 (smaller groups)变得更常见。 - Oracle 步骤的稀缺性与高方差: 这一现象证实了
Oracle步骤(对应于 值最大时且完全一致的组)的稀缺性,它们通常形成小组 (smaller groups)。根据偏差-方差权衡 (bias-variance trade-off)理论,小组会导致优势估计 (advantage estimation)的方差 (variance)增加,从而可能破坏RL训练的稳定性。这也进一步印证了HGPO兼顾偏差和方差的必要性。
6.2.3. 步骤利用率 (Step Utilization Ratio)
以下是原文 Table 5 的结果:
| Dataset | 0-Context | 1-Context | 2-Context | 3-Context | 4-Context |
|---|---|---|---|---|---|
| ALFWorld | 0.97 | 0.75 | 0.52 | - | - |
| ALFWorld | 0.98 | 0.77 | 0.54 | 0.34 | 0.19 |
| WebShop | 0.92 | 0.64 | 0.44 | - | - |
| WebShop | 0.90 | 0.59 | 0.4 | 0.21 | 0.09 |
分析:
- 0-Context 组的高利用率: 几乎所有步骤都落入
0-context组(即仅当前状态相同的组),其利用率 (utilization ratio)非常高(例如ALFWorld为 0.97-0.98,WebShop为 0.90-0.92)。这表明,在不考虑历史上下文的情况下,大量步骤可以被分组。 - 高上下文组的利用率下降: 随着
历史上下文 (historical contexts)数量(即 值)的增加,步骤利用率 (step utilization ratio)稳步下降。这意味着,只有越来越少的步骤能够被聚合成更高层级的组(具有更长、更一致上下文的组)。例如,在 中,4-context组的利用率仅为 0.19。 - Oracle 步骤的稀缺挑战: 这一发现凸显了
Oracle步骤(完全上下文一致的步骤)的稀缺性带来的挑战。如果仅依赖这些稀有的Oracle步骤进行策略优化 (policy optimization),将导致数据利用率极低,从而效率低下且不稳定。HGPO通过层级分组 (hierarchical grouping)能够有效利用不同一致性级别的步骤,缓解了这一问题。
6.2.4. 参数分析 ()
以下是原文 Table 4 的结果:
| Parameter | |||
|---|---|---|---|
| ALFWolrd | |||
| WebShop |
分析:
权重系数 (weighting coefficient)在方程 (7) 中控制权重分布 (weight distribution)的锐度。- 的性能下降: 当 时,所有
层级组 (hierarchical groups)的权重变为均匀分布(即 相同),此时性能最差。这是因为均匀加权忽略了高层级组(上下文更一致)更准确的优势信息 (advantage information),从而引入了更大的偏差 (bias)。 - 的最佳性能: 当 时,性能最佳。这表明
HGPO的自适应加权 (adaptive weighting)机制能够通过赋予高层级组更大的权重来有效降低估计偏差 (estimation bias),同时保持较低的方差 (variance)。 - 性能略有下降: 当 时,性能与 相当或略有下降。这可能意味着过高的 值会过度强调高层级组,导致其
小组大小 (small group sizes)带来的高方差 (high variance)问题开始显现,或者使得低层级组的信息被过度忽略。 - 不需大量参数调优: 这一结果表明
HGPO对参数 (parameter)不敏感,且 是一个稳定且有效的选择,无需进行大量的参数调优。
6.3. 消融实验
以下是原文 Table 2 的结果:
| Ablation | ALFWorld(%) | WebShop(%) |
|---|---|---|
| HGPO | ||
| W/o HoG-1 | `13.50_{40.58}` | `10.13_{41.42}` |
| W/o HoG-2 | `86.47_{41.89}` | `57.94_{41.02}` |
| W/o Ada. Weighting | `87.23_{41.80}` | `68.48_{40.45}` |
分析:
-
“W/o HoG-1” (无层级分组,仅使用 Oracle 步骤): 这种设置下,
策略学习 (policy learning)几乎完全失败(ALFWorld13.50%,WebShop10.13%)。这强烈证实了Oracle步骤的稀缺性(利用率低),导致数据不足以进行有效的策略优化 (policy optimization)。这验证了层级分组 (hierarchical grouping)在提高数据利用率 (data utilization)方面的必要性。 -
“W/o HoG-2” (无层级分组,Oracle 步骤使用 Oracle 优势,其余使用步骤级优势): 这种设置导致性能显著下降(
ALFWorld从 89.58% 降至 86.47%,WebShop从 72.66% 降至 57.94%)。虽然Oracle步骤的优势估计 (advantage estimation)偏差最小,但其小组大小 (small group sizes)导致高方差 (high variance)。当这些高方差的Oracle 优势 (Oracle advantages)与其他步骤的步骤级优势 (step-level advantages)混合使用时,整体优化 (optimization)过程变得不稳定。这验证了层级分组 (hierarchical grouping)在降低方差 (variance)和稳定优化 (optimization)方面的必要性。 -
“W/o Ada. Weighting” (无自适应加权,使用均匀权重): 这种设置通过将方程 (7) 中的 设为 0 来实现,即所有
层级组 (hierarchical groups)获得相同的权重。性能有所下降(ALFWorld从 89.58% 降至 87.23%,WebShop从 72.66% 降至 68.48%)。这表明均匀加权 (uniform weighting)放弃了从高层级组(上下文更一致)获得的更准确优势信息 (advantage information),从而引入了更大的估计偏差 (estimation bias)。自适应加权 (adaptive weighting)通过优先考虑更一致的组,实现了更好的偏差-方差权衡 (bias-variance trade-off)。总结: 消融实验有力地证明了
HGPO的每个核心组件——上下文感知层级分组 (context-aware hierarchical grouping)和自适应加权优势估计 (adaptive weighting advantage estimation)——对于实现高性能和稳定策略优化 (policy optimization)都是至关重要的。
7. 总结与思考
7.1. 结论总结
本文提出了 层级组策略优化 (Hierarchy-of-Groups Policy Optimization, HGPO),这是一种新颖的 基于组的强化学习 (group-based RL) 算法,旨在解决 长视界大型语言模型 (LLM) 智能体 (agent) 训练中普遍存在的 上下文不一致性 (context inconsistency) 问题。HGPO 的核心创新在于引入了 上下文感知层级优势估计 (context-aware hierarchical advantage estimation) 机制。它通过根据 历史上下文 (historical context) 的一致性将步骤组织成多层级组,并采用 自适应加权方案 (adaptive weighting scheme) 来聚合这些层级组的优势,从而实现了细粒度的每步 信用分配 (credit assignment)。这种方法在 优势估计 (advantage estimation) 中取得了有利的 偏差-方差权衡 (bias-variance trade-off)。
在 ALFWorld 和 WebShop 这两个复杂的 智能体 (agentic) 环境上的广泛实验表明,HGPO 显著优于现有的 基于提示 (prompt-based) 和 RL 方法,并且在 出分布 (out-of-distribution) 任务上展现出更强的 泛化能力 (generalization)。HGPO 在不增加额外模型或 推演 (rollouts) 的情况下,以最小的额外时间成本实现了 最先进的 (state-of-the-art) 性能。
7.2. 局限性与未来工作
作者在论文中指出,未来的一个有趣方向是探索处理 上下文不一致性 (context inconsistency) 的其他策略。例如,在 推演 (rollout) 阶段 有条件地控制轨迹 (conditionally controlling trajectories)。这意味着除了在 优势估计 (advantage estimation) 阶段进行处理,也可以在数据生成阶段就尝试减少 上下文不一致性 的发生,例如通过设计更严格的 推演 (rollout) 机制来确保收集到的 轨迹 (trajectories) 具有更高的一致性。
7.3. 个人启发与批判
7.3.1. 个人启发
- 细粒度上下文的价值: 这篇论文深刻揭示了在
长视界 LLM 智能体 (long-horizon LLM agents)中,历史上下文 (historical context)的一致性对于优势估计 (advantage estimation)的关键作用。以往的步骤级优化 (stepwise optimization)仅关注当前状态,而忽略了历史上下文的差异,这本身就是一个值得深思的盲点。HGPO通过多层级上下文感知分组 (context-aware grouping),为LLM智能体 (agent)学习更精细、更准确的信用分配 (credit assignment)提供了可能。 - 偏差-方差权衡的实践范例:
HGPO提供了一个优秀的偏差-方差权衡 (bias-variance trade-off)实践案例。Oracle组虽然偏差最小,但方差巨大且利用率低;0-context组方差小但偏差大。HGPO巧妙地通过自适应加权 (adaptive weighting)聚合不同一致性层级 (consistency levels)的组,使得整体估计在偏差和方差之间达到了一个理想的平衡点。这种思想可以推广到其他需要处理异构数据 (heterogeneous data)并进行统计估计 (statistical estimation)的场景。 - 计算效率的考量:
HGPO在不引入额外模型或推演 (rollouts)的前提下提高了性能,这对于LLM训练来说至关重要,因为它意味着可以在现有计算预算下获得显著的性能提升。离线分组 (offline grouping)和哈希表查找 (hashmap lookups)确保了其高效性。 - 对泛化能力的贡献:
上下文不一致性不仅影响训练,更损害智能体 (agent)的泛化能力 (generalization)。HGPO提升了出分布任务 (out-of-distribution tasks)上的表现,这表明其学习到的策略 (policy)更具鲁棒性和通用性,能更好地适应未见过的环境条件。
7.3.2. 批判
- 上下文定义与粒度: 论文中对
k-步上下文 (k-step context)的定义是基于状态 (states)的序列。然而,在LLM智能体中,完整的上下文可能还包括动作 (actions)、观察 (observations)和思考 (thoughts)的序列。虽然论文提到了记忆模块 (memory module)维护上下文,但k-步上下文操作符 (k-step context operator)仅明确使用状态 (states)。更全面的上下文定义可能会进一步提高组 (groups)的质量,但也可能导致组 (group)更小,增加方差 (variance)。 - 参数 的敏感性: 尽管论文声称 是一个稳定且有效的选择,但其
参数分析 (parameter analysis)仅在 之间进行。更广泛的超参数搜索可能会发现更优的值,或者揭示在不同任务和基础模型 (base models)下 的敏感性。 - 对“独立性”的假设: 在
偏差-方差权衡 (bias-variance trade-off)的理论分析中,论文假设不同层级组 (hierarchical groups)的优势估计 (advantage estimation)是独立的。然而,由于这些组是嵌套的 (),它们之间存在共享的步骤 (steps),这可能导致估计 (estimates)之间存在一定的相关性。如果这种相关性很强,则方差 (variance)的计算可能会受到影响。 - 计算开销: 尽管
HGPO声称没有额外模型或推演 (rollouts),但上下文感知层级分组 (context-aware hierarchical grouping)过程涉及到对所有推演 (rollouts)中的所有步骤进行哈希表查找 (hashmap lookups),这在轨迹 (trajectory)数量和长度非常大时,可能会带来显著的内存和计算开销,尤其是在进行 次不同上下文深度的查找时。 - 未来工作方向的限制: 作者提出的未来工作方向是
有条件地控制轨迹 (conditionally controlling trajectories)。这固然是一个有前景的方向,但如何在实际LLM智能体推演 (rollout)过程中有效且高效地实现条件控制 (conditional control)以确保上下文一致性,本身就是一个复杂的挑战。这可能需要更复杂的采样策略 (sampling strategies)或环境交互协议 (environment interaction protocols)。
相似论文推荐
基于向量语义检索推荐的相关论文。