论文状态:已完成

RecGPT-V2 Technical Report

发表:2025/12/16
原文链接PDF 下载
价格:0.100000
价格:0.100000
已有 4 人读过
本分析由 AI 生成,可能不完全准确,请以原文为准。

TL;DR 精炼摘要

RecGPT-V2 通过四项创新解决了 RecGPT-V1 的局限。实施分层多智能体系统提升了意图推理的多样性,压缩用户行为背景的混合表示推理减少了 60% 的 GPU 消耗,新增的元提示框架和约束强化学习显著提升了模型的泛化能力和评估一致性。在线测试表明其在点击率、浏览量等多项指标上均有明显提升,展示了基于 LLM 的推荐系统在工业应用中的潜力。

摘要

Large language models (LLMs) have demonstrated remarkable potential in transforming recommender systems from implicit behavioral pattern matching to explicit intent reasoning. While RecGPT-V1 successfully pioneered this paradigm by integrating LLM-based reasoning into user interest mining and item tag prediction, it suffers from four fundamental limitations: (1) computational inefficiency and cognitive redundancy across multiple reasoning routes; (2) insufficient explanation diversity in fixed-template generation; (3) limited generalization under supervised learning paradigms; and (4) simplistic outcome-focused evaluation that fails to match human standards. To address these challenges, we present RecGPT-V2 with four key innovations. First, a Hierarchical Multi-Agent System restructures intent reasoning through coordinated collaboration, eliminating cognitive duplication while enabling diverse intent coverage. Combined with Hybrid Representation Inference that compresses user-behavior contexts, our framework reduces GPU consumption by 60% and improves exclusive recall from 9.39% to 10.99%. Second, a Meta-Prompting framework dynamically generates contextually adaptive prompts, improving explanation diversity by +7.3%. Third, constrained reinforcement learning mitigates multi-reward conflicts, achieving +24.1% improvement in tag prediction and +13.0% in explanation acceptance. Fourth, an Agent-as-a-Judge framework decomposes assessment into multi-step reasoning, improving human preference alignment. Online A/B tests on Taobao demonstrate significant improvements: +2.98% CTR, +3.71% IPV, +2.19% TV, and +11.46% NER. RecGPT-V2 establishes both the technical feasibility and commercial viability of deploying LLM-powered intent reasoning at scale, bridging the gap between cognitive exploration and industrial utility.

思维导图

论文精读

中文精读

1. 论文基本信息

1.1. 标题

RecGPT-V2 技术报告 (RecGPT-V2 Technical Report)

1.2. 作者

RecGPT 团队 (RecGPT Team)。根据附录 A 贡献者列表,核心贡献者包括 Chao Yi、Dian Chen、Gaoyang Guo、Jiakai Tang、Jian Wu、Jing Yu、Mao Zhang、Wen Chen、Wenjun Yang、Yujie Luo、Yuning Jiang、Zhujin Gao 等。

1.3. 发表期刊/会议

该论文以预印本 (arXiv preprint) 形式发布在 arXiv 平台,状态为技术报告。

1.4. 发表年份

2025 年。具体发布时间为 2025-12-16T15:40:44.000Z。

1.5. 摘要

大型语言模型 (LLMs) 在将推荐系统从隐式行为模式匹配转变为显式意图推理方面展现出卓越潜力。RecGPT-V1 成功开创了这一范式,将基于 LLM 的推理集成到用户兴趣挖掘和物品标签预测中,但它存在四个基本限制:(1) 跨多个推理路径的计算效率低下和认知冗余;(2) 固定模板生成中解释多样性不足;(3) 监督学习范式下泛化能力有限;(4) 过于简化的、以结果为导向的评估未能达到人类标准。

为解决这些挑战,我们提出了 RecGPT-V2,包含四项关键创新。首先,一个分层多智能体系统 (Hierarchical Multi-Agent System) 通过协调协作重构了意图推理,消除了认知重复,同时实现了多样化的意图覆盖。结合混合表示推理 (Hybrid Representation Inference) 压缩用户行为上下文,我们的框架将 GPU 消耗降低了 60%,并将专属召回率从 9.39% 提高到 10.99%。其次,一个元提示 (Meta-Prompting) 框架动态生成上下文自适应提示,将解释多样性提高了 +7.3%。第三,约束强化学习 (constrained reinforcement learning) 缓解了多奖励冲突,在标签预测方面实现了 +24.1% 的改进,在解释接受度方面实现了 +13.0% 的改进。第四,一个代理即评判员 (Agent-as-a-Judge) 框架将评估分解为多步推理,提高了与人类偏好的一致性。在淘宝进行的在线 A/B 测试表明,各项指标均有显著提升:点击率 (CTR) +2.98%,物品页面浏览量 (IPV) +3.71%,交易量 (TV) +2.19%,新颖性曝光率 (NER) +11.46%。RecGPT-V2 确立了大规模部署基于 LLM 的意图推理的技术可行性和商业价值,弥合了认知探索和工业应用之间的鸿沟。

1.6. 原文链接

原文链接: https://arxiv.org/abs/2512.14503 PDF 链接: https://arxiv.org/pdf/2512.14503v1.pdf

2. 整体概括

2.1. 研究背景与动机

推荐系统 (Recommender Systems) 在过去二十年中取得了显著发展,从协同过滤 (Collaborative Filtering) 和矩阵分解 (Matrix Factorization) 发展到深度神经网络 (Deep Neural Networks)。然而,现有的工业推荐系统主要依赖于历史行为模式匹配和日志拟合目标,优化的是行为模式匹配而非显式推理用户潜在的意图 (User Intent)。这种基于模式匹配的方法在捕捉复杂、动态的用户需求和提供可解释的推荐方面存在局限性。

RecGPT-V1 作为先驱,试图通过将大型语言模型 (LLMs) 引入用户兴趣挖掘 (User Interest Mining) 和物品标签预测 (Item Tag Prediction) 等关键阶段,将推荐范式从隐式行为模式匹配提升到显式意图推理。它将复杂的推荐任务分解为可解释和模块化的阶段,实现了从用户意图理解到物品相关性预测的透明且可控的映射。尽管 RecGPT-V1 在工业部署中展现出良好性能,但它仍面临以下四个核心挑战,这些挑战阻碍了其可扩展性、效率和有效性:

  1. 计算效率低下和认知冗余 (Computational Inefficiency and Cognitive Redundancy): RecGPT-V1 的多路径架构中,多个 LLM 推理路径独立分析用户意图,导致重复编码用户行为序列和产生重叠的推荐候选。

  2. 解释多样性不足 (Insufficient Explanation Diversity): 固定模板的解释生成方式导致输出同质化,无法适应实时上下文和多维度的用户需求。

  3. 泛化能力受限 (Limited Generalization): 依赖静态数据上的监督学习 (Supervised Learning) 使得模型难以捕捉动态演变的用户需求和多目标、多约束的生成任务。

  4. 评估方式过于简化 (Simplistic Evaluation): 以结果为导向的 LLM-as-a-Judge 评估方法缺乏对人类评估者多步骤推理过程的模拟,导致与人类偏好对齐度不足。

    RecGPT-V2 的研究动机正是为了系统性地解决 RecGPT-V1 中暴露出的这些根本性限制,从而推动 LLM 驱动的推荐系统在工业级规模部署中的实用性和性能。

2.2. 核心贡献/主要发现

RecGPT-V2 针对 RecGPT-V1 的四大限制,提出了四项关键创新,并取得了显著的性能提升:

  1. 代理式意图推理 (Agentic Intent Reasoning) 克服计算效率与冗余:

    • 创新点: 引入了分层多智能体系统 (Hierarchical Multi-Agent System, HMAS) 和混合表示推理 (Hybrid Representation Inference)。HMAS 通过全局规划器 (Global Planner)、分布式专家 (Distributed Experts) 和决策仲裁器 (Decision Arbiter) 协同工作,消除认知重复。混合表示推理通过原子化实体压缩 (Atomized Entity Compression) 将用户行为上下文从 32K 词元 (token) 压缩到 11K 词元,并结合基础设施工程优化。
    • 主要发现: GPU 消耗降低 60%,专属召回率 (exclusive recall) 从 9.39% 提高到 10.99%。模型浮点运算单元利用率 (MFU) 提高了 53.11%,预填充 (prefill) 阶段每秒查询数 (QPS) 显著提升,解码 (decode) 阶段每秒词元数 (TPS) 提高了 7.35 倍。
  2. 动态解释生成 (Dynamic Explanation Generation) 提升解释多样性:

    • 创新点: 采用元提示 (Meta-Prompting) 框架,通过两阶段生成(风格合成和风格条件解释生成)动态生成上下文自适应的解释提示。结合偏好感知强化学习 (Preference-Aware Reinforcement Learning) 进行优化。
    • 主要发现: 解释多样性提高 +7.3%,解释质量接受率提高 +4.7%。
  3. 约束强化优化 (Constrained Reinforcement Optimization) 增强泛化能力:

    • 创新点: 设计了一种约束奖励塑形 (Constrained Reward Shaping, CRS) 机制,将次要奖励 (secondary rewards) 视为硬性约束,以稳定优化主要奖励 (primary reward),有效缓解多奖励冲突。
    • 主要发现: 在物品标签预测任务中,命中率 (Hit Rate) @30 提高了 24.1%;在解释生成任务中,人类评估的解释接受率提高了 13.0%。
  4. 代理即评判员框架 (Agentic Judge Framework) 改进评估对齐:

    • 创新点: 提出了代理即评判员 (Agent-as-a-Judge) 框架,将评估分解为多维度子评估器 (Multi-Dimension Sub-Evaluators) 和三层判断 (Three-Tier Judgment) 的高级评审员 (Senior Reviewer)。并引入评判员即奖励 (Judge-as-a-Reward) 机制,将代理判断蒸馏为轻量级奖励模型,提供密集优化信号。
    • 主要发现: 在物品标签预测和解释生成任务上,与人类偏好对齐度显著提升,在某些场景下 F1 分数提升高达 +5.20 pp,接近人类评估准确性。

在线 A/B 测试结果: 在淘宝平台的在线 A/B 测试中,RecGPT-V2 相较于 RecGPT-V1 取得了显著的商业指标提升:点击率 (CTR) +2.98%,物品页面浏览量 (IPV) +3.71%,交易量 (TV) +2.19%,新颖性曝光率 (NER) +11.46%。这些结果证明了 RecGPT-V2 在技术可行性和商业价值方面的双重成功。

3. 预备知识与相关工作

3.1. 基础概念

为了理解 RecGPT-V2 的创新点,需要掌握以下核心概念:

  • 推荐系统 (Recommender Systems): 一类信息过滤系统,旨在预测用户对物品的“评分”或“偏好”,并向用户推荐他们可能感兴趣的物品。传统推荐系统多基于协同过滤 (Collaborative Filtering)、矩阵分解 (Matrix Factorization) 或深度神经网络 (Deep Neural Networks)。
  • 大型语言模型 (Large Language Models, LLMs): 具有数亿到数万亿参数的深度学习模型,通过在海量文本数据上进行预训练而获得强大的语言理解和生成能力。它们能够执行文本生成、问答、摘要等多种任务。
  • Transformer 架构: LLMs 的核心架构,由编码器 (Encoder) 和解码器 (Decoder) 组成,或仅包含解码器。其关键组成部分是自注意力机制 (Self-Attention Mechanism),它允许模型在处理序列时对输入序列的不同部分赋予不同的权重,从而捕捉长距离依赖关系。
    • 注意力机制 (Attention Mechanism): 假设我们有一个查询 (Query) QQ 和一组键值对 (Key-Value pairs) (K, V)。注意力机制通过计算查询与所有键的相似度来获得注意力分数,然后用这些分数对值进行加权求和,从而得到输出。 Attention(Q,K,V)=softmax(QKTdk)V \mathrm{Attention}(Q, K, V) = \mathrm{softmax}\left(\frac{QK^T}{\sqrt{d_k}}\right)V 其中,QRLQ×dkQ \in \mathbb{R}^{L_Q \times d_k} 是查询矩阵,KRLK×dkK \in \mathbb{R}^{L_K \times d_k} 是键矩阵,VRLK×dvV \in \mathbb{R}^{L_K \times d_v} 是值矩阵,LQL_QLKL_K 分别是查询和键(或值)序列的长度,dkd_k 是键和查询的维度,dvd_v 是值的维度。dk\sqrt{d_k} 是缩放因子,用于防止点积过大,导致 softmax 函数进入梯度饱和区。
  • 强化学习 (Reinforcement Learning, RL): 一种机器学习范式,智能体 (Agent) 通过与环境的交互学习最优策略 (Policy)。智能体根据环境的反馈(奖励信号)调整其行为,以最大化长期累积奖励。
  • 监督学习 (Supervised Learning): 一种机器学习范式,模型通过带有标签的训练数据进行学习,目标是学习一个从输入到输出的映射函数。
  • 监督微调 (Supervised Fine-Tuning, SFT): 在预训练的大型模型基础上,使用特定任务的标记数据进行进一步训练,以使模型适应特定下游任务。
  • A/B 测试 (A/B Testing): 一种统计实验方法,通过将用户随机分成两组(A 组和 B 组),分别接触两种不同版本的系统或功能,然后比较两组的关键指标,以确定哪个版本效果更好。
  • 上下文学习 (In-Context Learning, ICL): LLMs 在不更新模型参数的情况下,通过少量示例 (few-shot examples) 或说明性提示 (instructional prompts) 来学习新任务的能力。模型通过识别提示中的模式来泛化到新的输入。
  • 奖励模型 (Reward Model, RM): 在强化学习中,特别是在人类反馈强化学习 (Reinforcement Learning from Human Feedback, RLHF) 中,奖励模型用于预测给定文本序列的质量分数。它通常通过学习人类的偏好数据来训练,从而提供比稀疏任务奖励更密集的反馈信号。

3.2. 前人工作

RecGPT-V2 建立在 RecGPT-V1 的基础上,并引用了其他多个相关工作:

  • RecGPT-V1 (Yi et al., 2025): 作为将 LLM 引入推荐系统的先驱,RecGPT-V1 将用户意图理解和物品标签预测作为核心任务,实现了从隐式模式匹配到显式意图推理的范式转变。它通过多路径的 LLM 渠道独立分析用户意图,但因此也带来了计算冗余和效率低下的问题。
  • 其他基于 LLM 的推荐系统 (e.g., OneRec-Think (Liu et al., 2025), LC-Rec (Zheng et al., 2024), CoLLM (Zhang et al., 2025b)): 这些工作探索了不同的方法将 LLM 集成到推荐任务中,例如通过在文本中进行推理 (in-text reasoning) 或整合协同语义 (collaborative semantics)。RecGPT-V2 在表示压缩方面与这些方法有所不同,它通过适配器网络 (adaptor network) 将实体嵌入投射到 LLM 的语言空间,而不是直接修改 LLM 词汇表。
  • 大型语言模型本身 (e.g., GPT-4 (Achiam et al., 2023), Qwen3-Embedding (Zhang et al., 2025c), DeepSeek-R1 (Guo et al., 2025)): 这些是 RecGPT-V2 中用于生成 QA 对、作为基础模型 (base model) 或用于评估的强大 LLM。
  • 注意力机制优化 (e.g., FlashInfer, XQA kernel): 这些是用于优化 Transformer 模型中注意力计算效率的技术,RecGPT-V2 采用了 XQA 内核来提升其基础设施效率。
  • 多智能体系统与评估 (e.g., Gou et al., 2025; Zhang et al., 2025a; Zhuge et al., 2024): 这些工作探索了使用智能体 (Agent) 进行评估的范式,RecGPT-V2 的代理即评判员 (Agent-as-a-Judge) 框架借鉴了这些思想,将其应用于推荐生成任务的精细化评估。

3.3. 技术演进

推荐系统领域的演进经历了几个主要阶段:

  1. 早期阶段 (Matrix Factorization, e.g., Koren et al., 2009): 主要通过数学模型分解用户-物品交互矩阵,发现潜在因子来预测用户偏好。
  2. 深度学习时代 (Deep Neural Networks, e.g., Tang et al., 2025): 引入深度学习模型,能够捕捉更复杂的非线性关系,处理多模态数据,但仍然主要依赖于行为模式匹配。
  3. LLM 驱动的意图推理时代 (LLM-powered Intent Reasoning): RecGPT-V1 及其后续工作 RecGPT-V2 标志着这一新阶段。LLMs 的强大语言理解、推理和生成能力被用于显式地理解用户意图,生成解释,并进行更具认知深度的推荐。这使得推荐系统能够从仅仅匹配行为模式转向理解用户“为什么”喜欢某个物品。

3.4. 差异化分析

RecGPT-V2 与 RecGPT-V1 及其他相关工作的主要区别和创新点在于:

  • 计算效率和认知冗余:

    • RecGPT-V1: 采用独立的并行多路径 LLM 推理,导致重复编码用户行为序列(平均 32K 词元)和认知冗余(13.46% 的重叠预测)。
    • RecGPT-V2: 引入混合表示推理 (Hybrid Representation Inference) 进行原子化实体压缩 (Atomized Entity Compression),将长达 32K 词元的用户行为上下文压缩至 11K 词元,并结合分层多智能体系统 (Hierarchical Multi-Agent System) 替代独立的并行路径。HMAS 通过全局规划器 (Global Planner) 进行意图分解,分布式专家 (Distributed Experts) 进行专业化预测,决策仲裁器 (Decision Arbiter) 整合结果,从而实现协同推理,避免冗余。这与 OneRec-Think 等直接将新词元插入 LLM 词汇表的方法不同,RecGPT-V2 使用轻量级适配器网络 (adaptor network) 进行投射,保持 LLM 主干模型冻结,提高了参数效率和泛化能力。
  • 解释多样性:

    • RecGPT-V1: 使用固定的提示模板生成解释,导致解释同质化、缺乏上下文适应性和实时性。
    • RecGPT-V2: 引入元提示 (Meta-Prompting) 框架,通过两阶段生成(风格合成和风格条件解释生成)动态生成上下文自适应的提示模板,从而生成多样化且情境化的解释。
  • 泛化能力和多目标优化:

    • RecGPT-V1: 主要依赖静态数据上的监督微调 (SFT),难以处理动态变化的用户需求和多目标、多约束的生成任务。
    • RecGPT-V2: 引入约束强化学习 (Constrained Reinforcement Learning),特别是约束奖励塑形 (Constrained Reward Shaping, CRS) 机制,将次要奖励(如多样性)作为硬性约束来指导主要奖励(如准确性)的优化。这避免了传统加权求和方法中多奖励冲突导致的次优解,实现了更稳定的多目标优化。
  • 评估对齐人类偏好:

    • RecGPT-V1: 采用 LLM-as-a-Judge 进行单次结果评估 (one-shot outcome evaluation),缺乏对人类多步骤推理过程的模拟,评估的细致度和与人类偏好对齐度不足。

    • RecGPT-V2: 提出了代理即评判员 (Agent-as-a-Judge) 框架,将抽象评估分解为多维度子评估器 (Multi-Dimension Sub-Evaluators) 的过程导向多步推理,并通过高级评审员 (Senior Reviewer) 进行三层判断 (S-A-B)。此外,引入评判员即奖励 (Judge-as-a-Reward) 机制,将离散的代理判断蒸馏为连续的奖励信号,用于强化学习优化,形成自强化飞轮效应 (Self-Improving Flywheel Effect)。

      通过这些创新,RecGPT-V2 在计算效率、解释质量、多目标优化和评估准确性方面全面超越了 RecGPT-V1,并为 LLM 驱动的推荐系统的大规模工业部署奠定了基础。

4. 方法论

RecGPT-V2 旨在解决 RecGPT-V1 的四大核心限制:计算效率低下和认知冗余、解释多样性不足、泛化能力有限以及评估不匹配人类标准。为此,它提出了四大关键创新:代理式意图推理、动态解释生成、约束强化学习以及代理式评判框架。本节将详细拆解这些方法的核心原理和技术细节。

RecGPT-V2 的整体架构如 Figure 2 所示。系统流程包括:终身用户行为被压缩成混合上下文表示(§4.1.1),然后输入到分层多智能体系统进行意图分解和物品标签预测(§4.1.2)。预测的标签通过下游推荐器匹配语料库中的物品,并辅以个性化解释(§4.2)。为了确保生成质量和持续改进,引入了代理即评判员评估框架(§4.3.1)来评估生成任务,并结合评判员即奖励蒸馏方法(§4.3.2)将智能体判断转换为优化奖励信号。

4.1. 代理式意图推理 (Agentic Intent Reasoning)

为了解决 RecGPT-V1 中多路径架构导致的计算效率低下和认知冗余问题,RecGPT-V2 提出了一个统一的代理式框架,通过混合表示推理 (Hybrid Representation Inference)分层多智能体系统 (Hierarchical Multi-Agent System, HMAS) 共同提升表示紧凑性和认知协调性。

4.1.1. 混合表示推理 (Hybrid Representation Inference)

Transformer 架构的 LLM 在预填充 (prefill) 阶段的计算复杂度为 O(Lin2)O(L_{\mathrm{in}}^2),在解码 (decoding) 阶段为 O(Lin×Lout)O(L_{\mathrm{in}} \times L_{\mathrm{out}}),其中 LinL_{\mathrm{in}}LoutL_{\mathrm{out}} 分别表示输入/提示和输出/响应的长度。在 RecGPT-V1 中,用户终身行为占据了约 95.89% 的输入词元 (token),导致严重的计算和内存瓶颈。RecGPT-V2 通过以下两点解决此问题:(1) 原子化实体压缩 (Atomized Entity Compression) 将行为表示蒸馏为紧凑的原子单元,大幅减少词元长度;(2) 基础设施工程优化 (Infrastructure Engineering Optimization),通过预填充-解码分离和内核运算符升级来满足工业级延迟要求。

4.1.1.1. 原子化实体压缩 (Atomized Entity Compression)

核心原理是将实体信息(包括物品描述和用户查询历史)压缩成原子表示单元,从而大幅减少上下文存储和计算开销。这通过两阶段过程实现:原子表示编码和混合表示适应。

阶段 1: 原子表示编码 (Atomic Representation Encoding) 该阶段使用预训练的嵌入模型 (embedding models) 将实体信息编码成密集向量表示。

  1. 嵌入表示 (Embedding Representation): 给定一个实体 ee 及其文本描述 x=[w1,w2,,wn]\mathbf{x} = [w_1, w_2, \ldots, w_n](由 nn 个词元组成),首先通过嵌入函数 fembed()f_{\mathrm{embed}}(\cdot) 获取其嵌入表示: h=fembed(x)Rdemb \mathbf{h} = f_{\mathrm{embed}}(\mathbf{x}) \in \mathbb{R}^{d_{\mathrm{emb}}}

    • h\mathbf{h}: 实体的嵌入向量。
    • fembed()f_{\mathrm{embed}}(\cdot): 将可变长度序列映射到固定维度密集向量的嵌入函数。示例模型包括 BGE (Xiao et al., 2023)、Qwen3-Embedding (Zhang et al., 2025c)、TBstars-Embedding。
    • x\mathbf{x}: 实体的文本描述,由词元序列构成。
    • dembd_{\mathrm{emb}}: 嵌入维度。
  2. 适配器网络 (Adaptor Network): 为了弥合嵌入空间和 LLM 语言空间之间的鸿沟,引入一个轻量级适配器网络 fadapt()f_{\mathrm{adapt}}(\cdot),将嵌入 h\mathbf{h} 投影到一个与 LLM 输入兼容的原子表示 z\mathbf{z}z=fadapt(h)=W2ReLU(W1h+b1)+b2RdLLM \begin{array} { r } { \mathbf{z} = f_{\mathrm{adapt}}(\mathbf{h}) = \mathbf{W}_2 \cdot \mathrm{ReLU}(\mathbf{W}_1 \mathbf{h} + \mathbf{b}_1) + \mathbf{b}_2 \in \mathbb{R}^{d_{\mathrm{LLM}}} } \end{array}

    • z\mathbf{z}: 原子表示,在上下文中表示为 [entity]。它取代了原始的多词元文本描述。

    • fadapt()f_{\mathrm{adapt}}(\cdot): 适配器网络函数。

    • W1Rdhidden×demb\mathbf{W}_1 \in \mathbb{R}^{d_{\mathrm{hidden}} \times d_{\mathrm{emb}}}W2RdLLM×dhidden\mathbf{W}_2 \in \mathbb{R}^{d_{\mathrm{LLM}} \times d_{\mathrm{hidden}}}: 投影矩阵。

    • b1\mathbf{b}_1, b2\mathbf{b}_2: 偏置项。

    • dhiddend_{\mathrm{hidden}}: 适配器网络中的隐藏层维度。

    • dLLMd_{\mathrm{LLM}}: 与 LLM 的隐藏维度匹配。

    • ReLU()\mathrm{ReLU}(\cdot): 修正线性单元激活函数。

      这种原子单元 [entity] 将原始多词元文本描述(例如,包含 12 个词元的中文产品标题)压缩成单个原子表示,实现了高达 12:1 的压缩比。

适配器投影的优势 (Advantages of Adaptor-Based Projection):

  • 参数效率 (Parameter Efficiency): 仅优化适配器参数,保持 LLM 主干模型冻结,显著降低训练成本和内存占用。

  • 卓越泛化能力 (Superior Generalization): 保持 LLM 参数冻结可保留模型原始的语言理解能力。适配器学习将实体投影到语义空间,而不是强迫模型识别全新词元。

  • 增强模块化 (Enhanced Modularity): 解耦设计允许与不同嵌入模型和 LLM 架构无缝集成,无需修改基础模型。

    这种压缩方法也适用于完整的用户行为序列。例如,一个包含 21,349 个词元的用户档案可以压缩到 5,158 个词元(词元减少率 76%),通过用原子表示替换物品描述和查询文本,同时保留用户属性和时间元数据等自然语言信息,从而在紧凑性和上下文丰富性之间取得平衡。

阶段 2: 混合表示适应 (Hybrid Representation Adaptation) 为了使 LLM 能够无缝理解自然语言词元和压缩实体表示交错的混合上下文,设计了一个两层训练策略:自感知任务 (Self-Perception Tasks) 和生产导向对齐 (Production-Oriented Alignment)。在适应阶段,LLM 主干模型保持冻结,仅训练适配器参数。

  1. 自感知任务 (Self-Perception Tasks): 采用“它是什么”的理念,培养细粒度的实体理解。不依赖简单的标题重建,而是利用强大的 LLM(如 GPT-4)自动生成多样化的、以属性为重点的问题,以探测原子表示的语义完整性。这种动态问题生成方法遵循上下文学习 (In-Context Learning, ICL) 提示策略。Prompt 1 展示了用于动态问答对生成的元提示设计: Prompt 1: Meta-Prompt for Dynamic QA Pair Generation SystemInstruction:Foragivenproducttitle,Iwanttoverifywhethertheembeddingmodelprovidescompleterepresentationalinformation.Pleasedesigncorrespondingquestionsandanswerstoconfirminformationcompleteness.Allquestionsmustbeanswerablefromtheinputtextalone.OutputtheresultdirectlyinJSONformatwithoutanyadditionaltext.ExampleInput:CouplesIndoorOutdoorWearableNonSlipPlushThermalCottonSlippersExampleOutput:["Q":"Whatisthematerialof<entity>","A":"Cotton","Q":"Whatseasonis<entity>suitablefor?","A":"Winter",(...)]ActualInput:AustralianimportedmerinowoolhalfzipsweaterGeneratedOutput:(ModeldynamicallygeneratesdiverseattributefocusedQApairs) System Instruction: For a given product title, I want to verify whether the embedding model provides complete representational information. Please design corresponding questions and answers to confirm information completeness. All questions must be answerable from the input text alone. Output the result directly in JSON format without any additional text. Example Input: Couples' Indoor-Outdoor Wearable Non-Slip Plush Thermal Cotton Slippers Example Output: [ {"Q": "What is the material of <entity>", "A": "Cotton"}, {"Q": "What season is <entity> suitable for?", "A": "Winter"}, (...)] Actual Input: Australian imported merino wool half-zip sweater Generated Output: (Model dynamically generates diverse attribute-focused QA pairs) 形式上,给定实体 ee 及其原始文本 x\mathbf{x},LLM 自动生成多样化的、以属性为重点的问答对: {(qi,ai)}i=1K=LLM(x) \left\{ (\mathbf{q}_i, \mathbf{a}_i) \right\}_{i=1}^K = \mathrm{LLM}(\mathbf{x})

    • KK: 生成的问答对数量。
    • qi\mathbf{q}_i: 探测特定实体属性的问题。
    • ai\mathbf{a}_i: 直接从 x\mathbf{x} 中提取的答案。
  2. 生产导向对齐 (Production-Oriented Alignment): 为了验证实际适用性并强化适配器将实体表示投射到 LLM 输入空间中语义有意义区域的能力,将压缩的原子单元集成到 RecGPT-V1 的两个核心推荐生成任务中:用户兴趣挖掘 (User Interest Mining) 和物品标签预测 (Item Tag Prediction)。

    • 用户兴趣挖掘 (User Interest Mining): 从交互历史中推断用户兴趣画像,捕捉长期偏好和短期行为趋势。
    • 物品标签预测 (Item Tag Prediction): 基于推断的兴趣和历史行为预测相关物品标签,从而预测用户意图。 对于每个任务,首先使用完整的文本表示构建参考样本。给定包含完整实体描述的提示,从冻结的 LLM 获取真实响应,作为适配器训练的监督信号。

统一训练公式 (Unified Training Formulation): 自感知 QA 任务和生产导向任务共享相同的优化范式。核心思想是训练适配器,使得混合提示(包含压缩实体)能够重现完整文本提示生成的相同响应。 形式上,给定任意包含完整文本提示 Pfull\mathcal{P}_{\mathrm{full}} 及其对应响应 y\mathbf{y}^* 的参考样本,通过用适配器投影的表示替换所有实体文本来构建其压缩对应项。混合提示定义为: Phybrid=ϕ(Pfull),where ϕ(xe)=fadapt(fembed(xe)),eE \begin{array} { r } { \mathcal{P}_{\mathrm{hybrid}} = \phi(\mathcal{P}_{\mathrm{full}}), \quad \mathrm{where} \ \phi(\mathbf{x}_e) = f_{\mathrm{adapt}}(f_{\mathrm{embed}}(\mathbf{x}_e)), \forall e \in \mathcal{E} } \end{array}

  • Phybrid\mathcal{P}_{\mathrm{hybrid}}: 混合提示。

  • Pfull\mathcal{P}_{\mathrm{full}}: 完整文本提示。

  • ϕ()\phi(\cdot): 执行实体到原子替换的函数。

  • xe\mathbf{x}_e: 实体 ee 的原始文本。

  • E\mathcal{E}: Pfull\mathcal{P}_{\mathrm{full}} 中包含的所有实体。

    通过最小化模型在压缩输入上的预测与参考响应之间的交叉熵损失 (cross-entropy loss) 来优化适配器: L(θadapt)=t=1ylogp(ytPhybrid,y<t) \mathcal{L}(\theta_{\mathrm{adapt}}) = - \sum_{t=1}^{|\mathbf{y}^*|} \log p\left(y_t^* \mid \mathcal{P}_{\mathrm{hybrid}}, \mathbf{y}_{<t}^*\right)

  • L(θadapt)\mathcal{L}(\theta_{\mathrm{adapt}}): 适配器参数 θadapt\theta_{\mathrm{adapt}} 的损失函数。

  • y|\mathbf{y}^*|: 参考响应的长度。

  • p()p(\cdot): 冻结 LLM 的输出分布。

  • yty_t^*: 参考响应中的第 tt 个词元。

  • y<t\mathbf{y}_{<t}^*: 参考响应中 tt 之前的词元序列。 该目标确保适配器学习语义保留的投影,从而在不同的推理任务中保持压缩表示和完整文本表示之间的功能等价性。训练语料库结合了自感知 QA 对和生产任务样本。通过对这些异构监督信号的联合优化,适配器在保留任务性能的同时实现了 7 倍压缩比。

4.1.1.2. 基础设施工程优化 (Infrastructure Engineering Optimization)

为了满足工业规模部署严格的延迟要求,引入了两个互补的基础设施优化:(1) 分解式预填充-解码服务架构 (Disaggregated Prefill-Decode Serving Architecture),根据阶段特定特性战略性地分配计算资源;(2) 集成 XQA 运算符的高级内核 (Advanced Kernel Integration with XQA Operators),利用 FP8 精度加速 H20 GPU 上的注意力计算。

  1. 分解式预填充-解码服务架构 (Disaggregated Prefill-Decode Architecture): 推荐生成任务表现出独特的非对称输入-输出特性:用户行为和上下文信息通常跨越 Γ10K\Gamma \sim 10\mathrm{K} 词元,而输出通常只有数百个词元。这导致输入-输出长度比极端,在传统的单体服务架构中,预填充和解码阶段在相同的 GPU 资源上执行,导致模型浮点运算单元利用率 (Model FLOPs Utilization, MFU) 次优和吞吐量可扩展性有限。

    • 预填充阶段 (Prefill phase): 计算密集型,通过复杂度为 O(Lin2)O(L_{\mathrm{in}}^2) 的并行注意力机制处理大量输入。一旦 KV 缓存 (KV cache) 计算完成,它不需要在预填充工作器中持久存储,可以传输到解码工作器。
    • 解码阶段 (Decode phase): 内存密集型,具有复杂度为 O(Lin×Lout)O(L_{\mathrm{in}} \times L_{\mathrm{out}}) 的自回归生成和频繁的 KV 缓存访问。不确定的输出长度和顺序依赖性使其本质上适合基于缓存的优化。 为了提高资源利用率和计算效率,RecGPT-V2 采用分解式服务架构,根据阶段特定的计算需求战略性地划分 GPU 资源。为预填充操作分配更大的 GPU 池,以最大化长上下文处理的并行吞吐量,同时为主要受益于高效内存访问模式的解码操作分配更少的资源。两个阶段通过优化的 KV 缓存传输机制进行通信,使每个阶段都能在其最佳资源配置下运行。
  2. XQA 内核集成 (XQA Kernel Integration): 为了进一步优化注意力计算,用 XQA 内核替换了之前的 FlashInfer 内核,以利用 H20 GPU 上的 FP8 精度推理。虽然 FlashInfer 主要为 BF16 精度优化,但 XQA 内核为 FP8 量化模型提供卓越性能,实现更快的注意力计算和更低的内存带宽要求。

性能影响 (Performance Impact): 这些基础设施优化共同将整体 MFU 从 RecGPT-V1 的 11.56% 提高到 17.04%。结合原子化实体压缩和分层多智能体系统的协调推理架构,RecGPT-V2 的 MFU 相较于 RecGPT-V1 提高了 53.11%。此外,系统在预填充阶段实现了显著的 QPS 吞吐量提升,在解码阶段实现了 7.35 倍的 TPS 吞吐量提升,从而以经济高效的方式扩展到工业流量规模。Figure 4 展示了计算效率对比。

Figure 4 | Computational efficiency comparison. 该图像是一个图表,展示了RecGPT-V1与RecGPT-V2在MFU%、QPS (Prefill)和 TPS (Decode)方面的计算效率比较。RecGPT-V2在MFU%达到了17.70%,而RecGPT-V1为11.56%;在QPS (Prefill)上,RecGPT-V2的值为69.30,RecGPT-V1为1;在TPS (Decode)上,RecGPT-V2的值为7.35,RecGPT-V1为1。此图表显示了RecGPT-V2在计算效率上的显著提升。

Figure 4 | 计算效率对比。

4.1.2. 分层多智能体系统 (Hierarchical Multi-Agent System)

在通过原子化实体压缩和基础设施优化实现高效表示推理之后,RecGPT-V2 接着解决了 RecGPT-V1 孤立多路径架构中存在的效率低下问题。RecGPT-V1 的并行推理路径独立编码相同的用户上下文并执行冗余认知过程,导致重复的全序列编码造成的计算开销和重叠预测造成的认知冗余(13.46% 的路径间重复率)。

为了共同消除这些双重低效问题,RecGPT-V2 提出了一个分层多智能体系统 (Hierarchical Multi-Agent System, HMAS),将基于 LLM 的意图推理重构为一个协调的三层架构:规划器-专家-仲裁器 (Planner-Experts-Arbiter)

Figure 5 对比了 RecGPT-V1 的孤立多路径推理和 RecGPT-V2 的分层多智能体系统。

Figure 5 | Architectural comparison between RecGPT-V1's isolated multi-route reasoning and RecGPTV2's Hierarchical Multi-Agent System (Global Planner Distributed Experts Decision Arbiter), demonstrating reduced cognitive redundancy through coordinated intent decomposition. 该图像是一个示意图,展示了RecGPT-V1与RecGPT-V2的架构对比。左侧为RecGPT-V1的孤立多路推理,右侧为RecGPT-V2的层次多智能体系统,强调通过协调的意图分解减少认知冗余。

Figure 5 | RecGPT-V1 孤立多路径推理与 RecGPT-V2 分层多智能体系统(全局规划器-分布式专家-决策仲裁器)的架构对比,展示了通过协调意图分解减少认知冗余。

4.1.2.1. 全局规划器 (Global Planner)

全局规划器 (Global Planner) 作为 HMAS 中的顶层协调器,负责将复杂的用户意图分解为一组专门的角色 (personas),以指导下游的专家推理。与 RecGPT-V1 的独立并行路径(独立处理相同上下文)不同,全局规划器通过综合丰富的上下文信号进行整体意图分析,形成连贯的战略计划。

上下文表示 (Context Representation): 全局规划器接收包含三个互补信息源的综合上下文表示 CC

  • 用户行为历史 B={(ai,ei,ti)}i=1N\mathcal{B} = \{ (a_i, e_i, t_i) \}_{i=1}^N: 按照时间顺序排列的用户交互序列,每次交互由动作类型 ai{click,purchase,search,}a_i \in \{\mathrm{click}, \mathrm{purchase}, \mathrm{search}, \dots\}、实体 eie_i(物品或查询)和时间戳 tit_i 组成。这些行为实体通过原子压缩表示,提供了紧凑而信息丰富的用户参与模式表示。

  • 用户档案 U={Uattr,Uint}\mathcal{U} = \{ \mathcal{U}_{\mathrm{attr}}, \mathcal{U}_{\mathrm{int}} \}: 包含两个组件:

    • 静态属性 Uattr\mathcal{U}_{\mathrm{attr}}: 包括年龄、性别、位置和其他稳定特征的人口统计信息。
    • 动态兴趣 Uint\mathcal{U}_{\mathrm{int}}: 从历史参与中派生出的行为模式,例如“骑行爱好者”、“动漫迷”、“科技迷”等。
  • 环境上下文 E\mathcal{E}: 实时多源上下文信号,包括天气条件、季节因素和流行事件。这些信号为情境意图挖掘提供了时间基础(例如,雨天、冬季、节日促销等)。

    这些组件共同构成了捕捉长期偏好和实时情境需求的丰富混合上下文,形式化为: C={B,U,E} C = \{ \mathcal{B}, \mathcal{U}, \mathcal{E} \} 其中,B\mathcal{B} 中的行为实体通过原子压缩表示,而用户属性和环境信号保留自然语言编码以保持语义丰富性。

意图分解 (Intent Decomposition): 给定混合上下文 CC,全局规划器进行深度推理,揭示潜在的用户需求,并将其分解为 KK 个专门的角色 {p1,p2,,pK}\left\{ p_1, p_2, \ldots, p_K \right\},每个角色代表用户意图的一个独特方面。规划器通过考虑时间趋势、情境适应和行为一致性等多维度推理来分析 CC,生成互补的角色以避免认知重叠。 形式上,角色生成过程可以表示为: {p1,p2,,pK}=fplanner(C) \{ p_1, p_2, \ldots, p_K \} = f_{\mathrm{planner}}(C)

  • fplanner()f_{\mathrm{planner}}(\cdot): 规划器的推理函数。

  • pkp_k: 第 kk 个角色,代表用户意图的一个特定方面。

    这种设计实现了两个关键目标:

  • 通过对压缩上下文进行一次意图分解,而不是让每个专家独立处理原始序列,从而消除计算冗余

  • 通过明确协调互补的推理视角,防止专家冗余探索重叠的语义空间,从而确保认知协调。 生成的角色 {p1,,pK}\{p_1, \ldots, p_K\} 随后分发给专家集合(§4.1.2.2),每个专家智能体采纳其分配的角色并进行专业化的物品标签预测。

4.1.2.2. 分布式专家 (Distributed Experts)

在从全局规划器接收到专门的角色 {p1,,pK}\{ p_1, \ldots, p_K \} 后,分布式专家集合执行并行但互补的物品标签预测任务。每个专家智能体在其分配的角色下操作,生成一组反映用户意图独特方面的物品标签。 形式上,专家预测过程可以表示为: Tk=fexpert(pk) \begin{array} { r } { \mathcal{T}_k = f_{\mathrm{expert}}(p_k) } \end{array}

  • Tk={t1k,t2k,,tMkk}\mathcal{T}_k = \{ t_1^k, t_2^k, \ldots, t_{M_k}^k \}:为角色 pkp_k 预测的物品标签集合。

  • MkM_k: 生成的标签数量。

  • fexpert()f_{\mathrm{expert}}(\cdot): 专家智能体的预测函数。

    为了增强专家能力并满足工业推荐场景中的多目标要求,进一步引入了结合监督微调 (Supervised Fine-Tuning, SFT)强化学习 (Reinforcement Learning, RL) 优化的两阶段训练策略。

阶段 1: 监督微调 (Supervised Fine-Tuning) 为了建立专家基础能力,使用 SFT 对与角色对齐的训练样本进行训练。 给定一个角色 pkp_k,从用户后续交互中构建监督信号。具体来说,利用 GPT-4 识别用户下一次交互(保留的下一个行为)中的哪些物品类别在语义上与角色的意图焦点对齐: Ckrel={cCnextfGPT4(c,pk)=True} C_k^{\mathrm{rel}} = \{ c \in C_{\mathrm{next}} \mid f_{\mathrm{GPT-4}}(c, p_k) = \mathrm{True} \}

  • CnextC_{\mathrm{next}}: 用户后续交互中的所有物品类别。
  • fGPT4()f_{\mathrm{GPT-4}}(\cdot): 一个二元分类器,确定类别 cc 是否与角色 pkp_k 在语义上相关。 从 CkrelC_k^{\mathrm{rel}} 中提取一个包含 15 个元素的标签集合 CktargetC_k^{\mathrm{target}}。如果 Ckrel<15|C_k^{\mathrm{rel}}| < 15,则使用 GPT-4 生成的合成标签进行扩充;如果 Ckrel>15|C_k^{\mathrm{rel}}| > 15,则随机采样 15 个标签。 对于每个角色-目标对 (pk,Cktarget)(p_k, C_k^{\mathrm{target}}),通过最小化交叉熵损失 (cross-entropy loss) 进行词元预测训练: LSFT(θexpert)=E(pk,Cktarget)[logpθexpert(Cktargetpk)] \begin{array} { r } { \mathcal{L}_{\mathrm{SFT}}(\theta_{\mathrm{expert}}) = - \mathbb{E}_{(p_k, C_k^{\mathrm{target}})} \left[ \log p_{\theta_{\mathrm{expert}}} \left(C_k^{\mathrm{target}} \mid p_k\right) \right] } \end{array}
  • LSFT(θexpert)\mathcal{L}_{\mathrm{SFT}}(\theta_{\mathrm{expert}}): 专家模型参数 θexpert\theta_{\mathrm{expert}} 的 SFT 损失函数。
  • pθexpert()p_{\theta_{\mathrm{expert}}}(\cdot): 专家模型的输出分布。 这种监督对齐确保专家智能体学习生成与其分配角色焦点一致的标签。

训练数据组成 (Training Data Composition): 为了平衡领域特定知识和通用语言能力,将与角色对齐的推荐数据与通用语料库混合。推荐数据包括多样的上下文场景:纯行为模式 (32.17%)、流行事件 (6.97%)、天气相关上下文 (1.19%) 和其他上下文信号 (7.36%)。为了保留模型的基础语言和推理能力,融入了通用指令遵循数据 (52.31%),确保专家模型保持足够的通用性和鲁棒性。Table 1 总结了完整的训练数据组成。 以下是原文 Table 1 的结果:

Data TypeProportion (%)
Recommendation Task
Pure Behavior Patterns32.17
Trending Topics & Events6.97
Weather-Related Contexts •1.19
Other Situational Signals •7.36
General Language Modeling52.31

Table 1 | 监督微调的数据源分布。

阶段 2: 约束强化优化 (Constrained Reinforcement Optimization) 在监督微调奠定的基础上,进一步引入强化学习优化,以增强专家在多目标(例如多样性、相关性、准确性)方面的性能。此外,为了解决多奖励优化中固有的冲突,设计了一个简单而有效的约束奖励塑形 (Constrained Reward Shaping, CRS) 机制,平衡相互竞争的目标并提高整体性能。

策略优化框架 (Policy Optimization Framework): 对于每个输入样本,采用群组相对策略优化 (Group Relative Policy Optimization, GRPO) 算法 (Liu et al., 2024; Shao et al., 2024) 来优化专家策略 (expert policy)。具体来说,给定输入上下文 xx,从旧策略 πθold\pi_{\theta_{\mathrm{old}}} 中采样一组 GG 个输出 yy,并通过最小化以下目标来优化新策略 πθ\pi_{\theta}LGRPO(θ)=E(x,y)πθold[min(r(θ)A^(x,y),clip(r(θ),1ϵ,1+ϵ)A^(x,y))βDKL(πθπref)]DKL(πθπref)=πref(yx)πθ(yx)logπref(yx)πθ(yx)1 \begin{array}{c} { \mathcal{L}_{\mathrm{GRPO}}(\theta) = - \mathbb{E}_{(x, y) \sim \pi_{\theta_{\mathrm{old}}}} \left[ \min \left( r(\theta) \hat{A}(x, y), \mathrm{clip} \left( r(\theta), 1-\epsilon, 1+\epsilon \right) \hat{A}(x, y) \right) - \beta \cdot \mathbb{D}_{\mathbb{KL}} \left( \pi_{\theta} \| \pi_{\mathrm{ref}} \right) \right] } \\ { \mathbb{D}_{\mathbb{KL}} \left( \pi_{\theta} \| \pi_{\mathrm{ref}} \right) = \frac{\pi_{\mathrm{ref}} (y | x)}{\pi_{\theta} (y | x)} - \log \frac{\pi_{\mathrm{ref}} (y | x)}{\pi_{\theta} (y | x)} - 1 } \end{array} 其中:

  • r(θ)=πθ(yx)πθold(yx)r(\theta) = \frac{\pi_{\theta}(y | x)}{\pi_{\theta_{\mathrm{old}}}(y | x)}: 新旧策略生成给定输出 yy 的概率比值。

  • \hat{A}(x, y) = R(x, y) - \frac{1}{G} \sum_{i=1}^G R(x, y_i): 群组归一化优势函数 (group-normalized advantage)。

  • R(x, y): 奖励函数。

  • ϵ\epsilon: 裁剪参数 (clipping parameter)。

  • πref\pi_{\mathrm{ref}}: 参考策略(即 SFT 基础模型)。

  • β\beta: 控制 KL 散度 (KL divergence) 惩罚强度的系数。

    KL 散度项 DKL\mathbb{D}_{\mathbb{KL}} 防止策略偏离参考模型太远,确保训练稳定性并缓解奖励作弊 (reward hacking) 问题。

多奖励建模 (Multi-Reward Modeling): 为了有效指导模型的学习方向,设计了一个包含四个互补组件的多目标奖励函数:

  1. 准确性奖励 RaccR_{\mathrm{acc}} (Accuracy Reward): 鼓励专家预测与在线用户行为一致的标签,通过衡量与真实交互的召回率 (recall) 来实现。 Racc=1CgtcCgtI[cftag2cat(Tk)] R_{\mathrm{acc}} = \frac{1}{|C_{\mathrm{gt}}|} \sum_{c \in C_{\mathrm{gt}}} \mathbb{I} \left[ c \in f_{\mathrm{tag2cat}} (\mathcal{T}_k) \right]

    • Tk={t1,,tM}\mathcal{T}_k = \{ t_1, \ldots, t_M \}: 预测的标签。
    • Cgt={c1,,cN}C_{\mathrm{gt}} = \{ c_1, \ldots, c_N \}: 交互的物品类别。
    • ftag2cat()f_{\mathrm{tag2cat}}(\cdot): 将预测标签映射到物品类别的函数。
    • I[]\mathbb{I}[\cdot]: 指示函数。 此指标量化了预测标签覆盖用户实际兴趣的程度。
  2. 对齐奖励 RalignR_{\mathrm{align}} (Alignment Reward): 为确保预测标签符合人类质量标准和分配角色的意图,引入基于人类偏好学习的对齐奖励。使用 RecGPT-V1 的质量标准构建偏好对来训练一个专门的奖励模型 fRM()f_{\mathrm{RM}}(\cdot)Ralign=1Mki=1MkfRM(ti,pk) R_{\mathrm{align}} = \frac{1}{M_k} \sum_{i=1}^{M_k} f_{\mathrm{RM}}(t_i, p_k)

    • fRM()f_{\mathrm{RM}}(\cdot): 奖励模型,根据既定质量标准标记的正负偏好对进行训练,捕捉标签与角色的语义相关性以及人类判断的输出质量。 最终对齐奖励是所有预测标签的平均分数,值越高表示与给定角色的人类期望对齐越好。
  3. 多样性奖励 RdivR_{\mathrm{div}} (Diversity Reward): 为了鼓励专家在其分配的角色中探索不同的用户兴趣,设计了一个多样性奖励,衡量预测标签的语义丰富性。使用 BGE 嵌入模型 (Xiao et al., 2023) 对标签进行编码,并计算标签表示之间的平均余弦距离 (cosine distance): Rdiv=12Mk(Mk1)i=1Mk1j=i+1Mkeiejeiej R_{\mathrm{div}} = 1 - \frac{2}{M_k (M_k - 1)} \sum_{i=1}^{M_k - 1} \sum_{j=i+1}^{M_k} \frac{\mathbf{e}_i \cdot \mathbf{e}_j}{\|\mathbf{e}_i\| \|\mathbf{e}_j\|}

    • ei=fBGE(ti)\mathbf{e}_i = f_{\mathrm{BGE}}(t_i): 标签 tit_i 的嵌入向量。 更高的多样性分数鼓励更广泛的意图覆盖,同时避免冗余预测。
  4. 长度奖励 RlenR_{\mathrm{len}} (Length Reward): 为促进信息量和检索效率平衡的适当标签长度,设计了一个基于长度的奖励。 对于每个词数为 ll 的预测标签 tt,奖励定义为: Rlen(t)={1.0,if 6l11,0.5,if 4l<6 or 11<l13,0.0,otherwise. R_{\mathrm{len}}(t) = \left\{ \begin{array}{ll} 1.0, & \mathrm{if} \ 6 \leq l \leq 11, \\ 0.5, & \mathrm{if} \ 4 \leq l < 6 \ \mathrm{or} \ 11 < l \leq 13, \\ 0.0, & \mathrm{otherwise}. \end{array} \right. 总长度奖励是所有标签的平均值: Rlen=1Mi=1MRlen(ti) \begin{array}{r} { R_{\mathrm{len}} = \frac{1}{M} \sum_{i=1}^M R_{\mathrm{len}}(t_i) } \end{array} 这避免了缺乏表达力的过短标签和妨碍检索多样性的过长标签。

约束奖励塑形 (Constrained Reward Shaping, CRS): 与直接求和个体奖励的传统多目标强化学习方法(表示为 SUM)不同,RecGPT-V2 观察到这种朴素的聚合常常导致严重的多奖励冲突。Figure 6(a) 显示,加权求和策略混合了不同奖励维度上的冲突梯度,导致优化轨迹漂移到次优解。

Figure 6 | Comparison of reward shaping strategies. (a) Sum-based aggregation suffers from multireward conflicts. (b) Our constrained reward shaping treats secondary rewards (e.g., diversity) as conditional constraints, enabling stable optimization of the primary reward (i.e., accuracy). 该图像是比较奖励塑形策略的图表。左侧(a)的和为基础奖励塑形显示出多奖励冲突的问题,而右侧(b)的约束奖励塑形将次级奖励(如多样性)视为条件约束,从而实现对主要奖励(即准确性)的稳定优化。

Figure 6 | 奖励塑形策略的比较。(a) 基于求和的聚合存在多奖励冲突。(b) 我们的约束奖励塑形将次要奖励(例如多样性)视为条件约束,从而实现主要奖励(即准确性)的稳定优化。

为了缓解这些冲突,提出了一个约束奖励塑形 (Constrained Reward Shaping, CRS) 机制,将某些奖励视为硬性约束,以指导主要准确性目标的优化。Figure 6(b) 显示,该方法强制执行两阶段优化过程:模型首先满足次要约束(从 P0P_0 移动到 PINTP_{\mathrm{INT}},跨越可行性边界),然后才开始优化主要准确性奖励(从 PINTP_{\mathrm{INT}} 进展到 PCRSP_{\mathrm{CRS}})。这种设计通过将约束满足与目标优化解耦,避免了梯度干扰。 形式上,将复合奖励定义为条件指示符的乘积: Rtotal=RaccI[Ralignτalign]I[Rdivτdiv]I[Rlenτlen] R_{\mathrm{total}} = R_{\mathrm{acc}} \cdot \mathbb{I} \big[ R_{\mathrm{align}} \ge \tau_{\mathrm{align}} \big] \cdot \mathbb{I} \big[ R_{\mathrm{div}} \ge \tau_{\mathrm{div}} \big] \cdot \mathbb{I} \big[ R_{\mathrm{len}} \ge \tau_{\mathrm{len}} \big]

  • I[]\mathbb{I}[\cdot]: 指示函数。
  • τalign,τdiv,τlen\tau_{\mathrm{align}}, \tau_{\mathrm{div}}, \tau_{\mathrm{len}}: 分别为对齐、多样性和长度奖励的预定义阈值。 这种乘法形式确保只有当所有次要目标都满足其最低要求时,准确性奖励才会被传播。如果任何约束被违反(即任何指示符返回 0),总奖励变为零,从而有效缓解冲突的梯度信号。

4.1.2.3. 决策仲裁器 (Decision Arbiter)

在分布式专家集合生成互补的标签预测 {T1,T2,,TK}\{ \mathcal{T}_1, \mathcal{T}_2, \ldots, \mathcal{T}_K \} 后,决策仲裁器 (Decision Arbiter) 执行最终的候选选择,生成一组精炼的物品标签用于下游检索。 给定来自专家智能体的聚合标签池 Tall=k=1KTk\mathcal{T}_{\mathrm{all}} = \bigcup_{k=1}^K \mathcal{T}_k,仲裁器识别与用户实时行为信号最匹配的标签。具体来说,仲裁器利用混合上下文 C={B,U,E}C = \{ \mathcal{B}, \mathcal{U}, \mathcal{E} \} 整体评估 Tall\mathcal{T}_{\mathrm{all}} 中的所有候选标签,从多个质量维度(详细标准在附录 B 提供)进行评估。仲裁器对整个候选池进行联合推理,以识别前 NN 个标签,这些标签共同最大化行为相关性、档案一致性、内容特异性和有效性: Tfinal=farbiter(Tall,C) \mathcal{T}_{\mathrm{final}} = f_{\mathrm{arbiter}} (\mathcal{T}_{\mathrm{all}}, C)

  • Tfinal\mathcal{T}_{\mathrm{final}}: 最终精炼的物品标签集合。
  • farbiter()f_{\mathrm{arbiter}}(\cdot): 决策仲裁器的推理函数。 这个联合评估过程使仲裁器能够考虑标签间的互补性并避免冗余,有效地将分布式专家输出整合为一种平衡探索广度与聚焦用户个性化的连贯推荐策略。

在线物品推荐 (Online Item Recommendation): 获得精炼标签后,进一步通过多兴趣用户编码 (Multi-Interest User Encoding) 和流量分配优化 (Traffic Allocation Optimization) 进行在线物品推荐。

  • 多兴趣用户编码 (Multi-Interest User Encoding): 在 RecGPT-V1 用户-物品-标签三塔架构的基础上,扩展用户编码器以捕捉多个兴趣方面。遵循 Poly-Encoder (Humeau etal., 2019),引入 KK 个可学习的上下文代码,通过注意力机制将用户行为嵌入聚合为多个兴趣向量 {u1,,uK}\{ \mathbf{u}_1, \dots, \mathbf{u}_K \},每个向量代表用户偏好的一个独特方面。在在线服务期间,精炼标签 Tfinal\mathcal{T}_{\mathrm{final}} 首先通过标签塔编码以获得标签表示,然后通过物品塔与物品进行匹配。多兴趣用户表示通过点积相似度与候选物品进行评分,实现跨多样用户意图的细粒度匹配。
  • 流量分配通过二次规划 (Traffic Allocation via Quadratic Programming): 为了在有限的曝光预算下平衡探索(即认知渠道)和利用(即现有效用渠道),将流量分配建模为二次规划问题。此优化框架动态调整推荐列表中认知检索物品的比例,最大化整体系统收益,同时确保探索性推荐在不损害短期业务指标的情况下增强长期用户参与度。详细解决方案在附录 C 提供。

4.2. 动态解释生成 (Dynamic Explanation Generation)

RecGPT-V2 沿用了 RecGPT-V1 的解释生成模块,提供个性化解释以增强用户对曝光物品的参与度。然而,RecGPT-V1 在扩展在线部署中暴露出三个关键缺陷:(1) 信息密度低,解释频繁重复通用短语,缺乏实质性见解;(2) 时间适应性弱,无法响应季节趋势、当前事件或上下文信号;(3) 表达同质化,单调的风格输出削弱了用户参与度。这些缺陷归因于两个基本限制:约束生成灵活性的静态提示模板和忽视关键质量维度的不完整评估框架。 为解决这些挑战,本节介绍了 RecGPT-V2 的两项关键创新:元提示 (Meta-Prompting) 用于动态解释生成(§4.2.1)和偏好感知强化学习 (Preference-Aware Reinforcement Learning)(§4.2.2),通过人类对齐的多奖励建模优化生成质量。

4.2.1. 元提示 (Meta-Prompting)

与 RecGPT-V1 直接从固定模板一步生成解释不同,RecGPT-V2 引入了一个元提示 (Meta-Prompting) 框架,将生成过程分解为两阶段:风格合成 (style synthesis)风格条件解释生成 (style-conditioned explanation generation)。这种分层设计通过首先生成多样化、上下文自适应的风格指导,然后生成符合这些动态规范的解释,从而释放了模型的创造能力。

扩展评估维度 (Expanded Evaluation Dimensions): 首先将 RecGPT-V1 的评估框架从四个维度(相关性、事实性、清晰度、安全性)扩展到七个维度,增加了三个新的标准以提供更好的用户体验:

  • 及时性 (Timeliness): 衡量与当前趋势、季节性上下文或时间敏感事件的对齐程度。
  • 信息量 (Informativeness): 量化除了通用描述之外所传达的实质性见解。
  • 吸引力 (Attractiveness): 评估解释通过引人入胜的内容激发用户好奇心和参与度的能力。 这些扩展的维度提供了对解释质量更全面的评估,指导元提示生成和后续评估。Table 8 中列出了详细的维度。

两阶段生成框架 (Two-Stage Generation Framework): 给定用户兴趣、物品属性和上下文信号(例如季节趋势),元提示框架按以下方式操作:

  1. 阶段 1: 风格合成 (Style Synthesis): 模型首先生成一个风格指导 gg,指定所需的语气、修辞手法、目标受众和情感共鸣。 例如,给定一个儿童玩具物品、假期期间的家长用户档案,元提示可能会生成:“编写一个俏皮、轻松、视觉感强的短标题,能引起家长共鸣。使用天真或温柔的语气来建立情感联系。” 形式上,风格合成过程可以表示为: g=fmeta(U,I,S) g = f_{\mathrm{meta}} (\mathcal{U}, \mathcal{I}, S)

    • gg: 生成的风格指导。
    • fmeta()f_{\mathrm{meta}}(\cdot): 风格合成函数。
    • U\mathcal{U}: 用户兴趣。
    • I\mathcal{I}: 物品属性。
    • SS: 情境信号。
  2. 阶段 2: 风格条件解释生成 (Style-Conditioned Explanation Generation): 在风格指导 gg 的条件下,模型生成符合指定风格约束的最终解释 eee=fexp(g,U,I,S) e = f_{\mathrm{exp}}(g, \mathcal{U}, \mathcal{I}, S)

    • ee: 生成的解释。
    • fexp()f_{\mathrm{exp}}(\cdot): 解释生成函数。 例如,遵循上述风格指导,模型可能会生成:“像蓝色蝴蝶一样在空中飞舞。” 这种两阶段分解提供了一个灵活的框架,通过允许模型扮演不同的风格角色,释放了其创造力,为用户提供新颖且上下文自适应的解释。

4.2.2. 偏好感知强化学习 (Preference-Aware Reinforcement Learning)

在 RecGPT-V1 监督微调的基础上,引入约束强化学习以进一步提高解释质量,遵循 §4.1.2.2 中的优化框架。设计了一个结合基于规则的多样性奖励和基于模型的对齐奖励的混合奖励框架,并在约束奖励塑形 (CRS) 机制下进行统一。

策略优化框架 (Policy Optimization Framework): 类似于 §4.1.2.2,采用 GRPO 算法来优化解释生成策略。优化目标与公式 (10) 保持一致,奖励函数替换为下面定义的解释特定复合奖励。

混合奖励建模 (Hybrid Reward Modeling): 为了在多个质量维度上指导解释生成,设计了一个包含两个互补组件的混合奖励函数:

  1. 基于规则的多样性奖励 RdivR_{\mathrm{div}} (Rule-Based Diversity Reward): 为了鼓励多样的语言表达并避免重复模式,设计了一个基于逆文档频率 (IDF) 的多样性奖励。维护一个大小为 160 的内存缓冲区 MM,以词元化形式存储最近生成的解释,并以先进先出 (FIFO) 方式更新。 对于每个新生成的解释 e={w1,w2,,wL}e = \{w_1, w_2, \ldots, w_L\},多样性分数计算为: Rdiv=1Li=1LlogM{eM:wie}+1 R_{\mathrm{div}} = \frac{1}{L} \sum_{i=1}^L \log \frac{| \mathcal{M} |}{| \{ e' \in \mathcal{M} : w_i \in e' \} | + 1}

    • M|\mathcal{M}|: 缓冲区大小。
    • {eM:wie}| \{ e' \in \mathcal{M} : w_i \in e' \} |: 包含词元 wiw_i 的已存储解释数量。 对数项对稀有词元赋予更高的奖励,从而增强词汇多样性,其中 +1+1 平滑项防止除以零。
  2. 基于模型的对齐奖励 RalignR_{\mathrm{align}} (Model-Based Alignment Reward): 为了捕捉主观质量维度(例如信息量),使用列表式比较 (listwise comparisons) 的偏好数据训练了一个奖励模型 fRM()f_{\mathrm{RM}}(\cdot)(详见 §4.3.2)。 给定生成的解释 ee,对齐奖励计算为: Ralign=fRM(e,U,I,S) R_{\mathrm{align}} = f_{\mathrm{RM}}(e, \mathcal{U}, \mathcal{I}, \mathcal{S})

    • fRM()f_{\mathrm{RM}}(\cdot): 奖励模型。
    • U\mathcal{U}: 用户兴趣。
    • I\mathcal{I}: 物品属性。
    • S\mathcal{S}: 情境信号。

约束奖励塑形 (Constrained Reward Shaping): 与 §4.1.2.2 一致,采用 CRS 来缓解多奖励冲突。在这里,解释生成将人类偏好对齐作为主要奖励,多样性作为次要约束。因此,总奖励形式化为: Rtotal=RalignI[Rdivτdiv] R_{\mathrm{total}} = R_{\mathrm{align}} \cdot \mathbb{I} \left[ R_{\mathrm{div}} \geq \tau_{\mathrm{div}} \right]

  • τdiv\tau_{\mathrm{div}}: 多样性阈值。 通过将多样性视为门控条件,CRS 消除了梯度干扰,并实现了向人类对齐且多样化解释的稳定优化。

4.3. 代理式评判框架 (Agentic Judge Framework)

为了评估推荐生成任务,RecGPT-V1 引入了 LLM-as-a-Judge 方法来降低人工标注的低效性和高成本。然而,这种以结果为导向的方法直接预测质量分数,没有将评估分解为中间推理步骤,限制了其捕捉多维度细微质量差异的能力。这种塌缩的评估范式忽视了人类评估者采用的多步审议过程,导致与人类判断标准对齐度次优。

为了进一步提高评估质量,RecGPT-V2 引入了一种新颖的评估范式,包括两项创新:代理即评判员 (Agent-as-a-Judge)(§4.3.1),它将复杂的质量评估分解为多维度的渐进推理;以及评判员即奖励 (Judge-as-a-Reward)(§4.3.2),它将智能体判断蒸馏为密集的奖励信号,用于强化学习优化。这些设计共同建立了一个自我强化的飞轮效应 (Flywheel Effect):策略模型生成多样化输出,代理式评估提供多维度质量反馈,奖励蒸馏将评估转换为强化学习的优化信号。

4.3.1. 代理即评判员 (Agent-as-a-Judge)

与 RecGPT-V1 的端到端 LLM-as-a-Judge 评估不同,RecGPT-V2 引入了一个代理即评判员 (Agent-as-a-Judge) 框架,通过分层多智能体推理模拟人类认知评估。这种设计将整体质量评估分解为细粒度、维度特定的子评估器,然后进行多级评审,从而实现更准确和可解释的质量判断。Figure 8 展示了 Agent-as-a-Judge 框架。

Figure 8 | Agent-as-a-Judge framework mimicking human process-oriented fine-grained evaluation. Multi-dimension sub-evaluators independently assess specialized quality dimensions, and Senior Reviewer aggregates feedback into three-tier judgments (Superior/Average/Bad). 该图像是示意图,展示了 Agent-as-a-Judge 框架用于细致的评价过程。图中包括多维度子评估者独立评估标签预测和说明生成的专业质量维度,以及高级评审员将反馈汇总为三层判断(优越/平均/差)。

Figure 8 | 代理即评判员框架模拟人类过程导向的细粒度评估。多维度子评估器独立评估专业质量维度,高级评审员将反馈汇总为三层判断(优越/平均/差)。

多维度子评估器 (Multi-Dimension Sub-Evaluators): 对于涉及多个评估维度(详见附录 B)的推荐生成任务,为每个维度实例化一个专门的子评估器。每个子评估器 Ei\mathcal{E}_i 沿其分配的维度 did_i 评估生成内容 yysi=Ei(y,di) s_i = \mathcal{E}_i (y, d_i)

  • sis_i: 维度特定的评估结果。
  • Ei\mathcal{E}_i: 第 ii 个子评估器。
  • yy: 生成的内容。
  • did_i: 第 ii 个评估维度。 这种分解将复杂的、多目标评估转化为可管理的单目标子任务,使每个评估器都能专注于捕捉细微的质量方面。

三层判断 (Three-Tier Judgment): 为了得出最终的整体质量判断,引入了一个高级评审员智能体 (Senior Reviewer Agent),它聚合所有子评估器 {s1,,sD}\{ s_1, \ldots, s_D \} 的输出。高级评审员使用三层 S-A-B 方案生成最终决策:

  • 优越 (Superior, S): 输出在所有或大多数维度上表现出色。
  • 平均 (Average, A): 输出在各维度上达到最低标准。
  • 差 (Bad, B): 输出在至少一个关键维度上未能满足基本要求。 聚合过程通过两阶段决策操作: (a) 缺陷检测 (Defect Detection): 如果任何维度收到负面或不满意信号,则整体结果被归类为 B。 (b) 卓越提升 (Excellence Elevation): 如果未检测到关键缺陷,高级评审员根据所有维度中正面反馈的比例或模式,使用阈值 τ\tau 来区分 S 和 A,以控制高质量分类的严格性。

通过监督微调进行模型适应 (Model Adaptation through Supervised Fine-Tuning): 为了使评估智能体适应领域特定的质量标准,构建了一个训练语料库,结合模型生成的样本和强大 LLM(例如 DeepSeek-R1 (Guo et al., 2025)、Qwen3-235B (Yang et al., 2025))的输出。为确保对差质量样本的充分覆盖,采用混合标注策略:(1) 对于相关性等维度,通过随机打乱批次内样本,将输出与不匹配的用户上下文进行配对,自动构建训练样本;(2) 对于需要细致判断的维度,由人类标注员对所有评估维度进行标注,包括维度特定的评估 {s1,,sD}\{ s_1, \ldots, s_D \} 和整体 S-A-B 判断。在该混合训练数据上使用 SFT 训练范式微调了一个轻量级 Qwen3-32B-Instruct 模型。

4.3.2. 评判员即奖励 (Judge-as-a-Reward)

虽然代理即评判员提供了准确的质量评估,但直接将其应用于强化学习优化面临两个挑战:(1) 离散分类标签缺乏细粒度,不足以进行精确的策略梯度估计;(2) 多步评估在在线 RL 训练期间会产生高计算开销。为解决这些问题,引入了评判员即奖励 (Judge-as-a-Reward) 框架,这是一个蒸馏框架,将智能体评估能力转化为轻量级奖励模型,以提供密集的优化信号。

奖励模型架构 (Reward Model Architecture): 奖励模型从代理评判员的检查点初始化,并额外添加一个标量值头 (scalar value head): r=fRM(y,U,I,S) r = f_{\mathrm{RM}}(y, \mathcal{U}, \mathcal{I}, S)

  • rRr \in \mathbb{R}: 预测的奖励分数。
  • fRM()f_{\mathrm{RM}}(\cdot): 奖励模型。
  • yy: 生成的内容。
  • U\mathcal{U}: 用户兴趣。
  • I\mathcal{I}: 物品属性。
  • SS: 情境信号。 值头应用 sigmoid 激活函数将输出限制在 [0, 1] 范围内,促进稳定的梯度流。

通过列表式排序学习进行奖励模型训练 (Reward Model Training via Listwise Learning-to-Rank): 为了保留高级评审员三层标签的细粒度质量区分,采用列表式排序学习 (listwise learning-to-rank) 方法。对于每个训练批次,样本按其分配的质量级别(S、A、B)分组。对于任何质量级别 gg,级别为 gg 的样本作为正例,而所有较低级别(如 g<gg'<g)的样本构成负例集。奖励模型通过以下统一的对比损失公式进行训练,以对更高质量的样本赋予更高的分数: LRM=g{S,A}ygYglogexp(fRM(yg))exp(fRM(yg))+g<gygYgexp(fRM(yg)) \mathcal{L}_{\mathrm{RM}} = - \sum_{g \in \{\mathrm{S}, \mathrm{A}\}} \sum_{y_g \in \mathcal{Y}_g} \log \frac{\exp(f_{\mathrm{RM}}(y_g))}{\exp(f_{\mathrm{RM}}(y_g)) + \sum_{g'<g} \sum_{y_{g'} \in \mathcal{Y}_{g'}} \exp(f_{\mathrm{RM}}(y_{g'}))}

  • LRM\mathcal{L}_{\mathrm{RM}}: 奖励模型的损失函数。
  • g{S,A}g \in \{\mathrm{S}, \mathrm{A}\}: 表示只对 S 级别和 A 级别进行损失计算,因为 B 级别是最低级别,没有比它更低的负例。
  • ygYgy_g \in \mathcal{Y}_g: 级别 gg 的样本。
  • g<gg' < g: 表示所有低于 gg 的质量级别(例如,对于 g=Sg=\mathrm{S},负例包括 A 和 B;对于 g=Ag=\mathrm{A},负例只包括 B)。 这种公式隐式捕捉了所有成对关系(S 对比 AB,A 对比 B),使奖励模型能够从标注数据中学习完整的层次偏好排序。

通过前缀共享加速工程 (Engineering Acceleration via Prefix Sharing): 为了加速训练,利用观察到的事实:每个对比组内的样本共享相同的上下文提示,仅在生成的内容上有所不同。通过一次性计算共享前缀表示并在所有候选者中重用,可以实现并行推理并显著减少冗余计算。

自我强化的飞轮效应 (Self-Improving Flywheel Effect): 代理即评判员和评判员即奖励的协同集成建立了一个自我强化的优化循环,能够在不产生重复人工标注成本的情况下持续提高质量:

  1. 策略生成 (Policy Generation): 策略模型通过监督微调和强化学习探索输出空间,生成不同质量水平的多样化响应。

  2. 代理评估 (Agentic Evaluation): 代理即评判员框架将每个生成的样本分解为维度特定的质量评估,并通过高级评审员的审议过程将这些评估合成为整体的 S-A-B 层级判断。

  3. 奖励蒸馏 (Reward Distillation): 评判员即奖励模型通过列表式对比训练学习底层偏好结构,将离散的代理判断蒸馏成连续的、可微分的、信息更丰富的奖励信号。

  4. 策略优化 (Policy Optimization): 蒸馏后的奖励信号通过 GRPO (§4.1.2.2) 指导策略精炼,更新模型参数以最大化预期的与人类对齐的偏好。

    这种闭环架构产生了飞轮效应:随着策略生成更高质量的输出,智能体评估器积累更丰富的训练信号,从而改善奖励模型校准并实现更有效的策略优化。关键是,这个循环在初始人工标注后自动运行,逐步使模型行为与人类质量标准对齐。奖励蒸馏确保了计算效率以实现快速迭代,而多维度评估则保证了所有标准而非狭隘指标的质量改进。

5. 实验设置

为了验证 RecGPT-V2 在实际工业应用中的有效性,我们在淘宝平台进行了长期在线实验。

5.1. 数据集

实验主要基于淘宝 (Taobao) 平台进行,具体在淘宝首页的“猜你喜欢”场景。通过在线 A/B 测试,系统直接在真实用户流量上进行评估,因此实验数据来源于淘宝的实际用户行为和物品数据。论文中没有提供具体的公开数据集名称,而是直接在淘宝的生产环境进行测试。

数据集中的具体样本示例: 尽管论文未给出完整的原始数据集样本,但在方法论中提供了原子化实体压缩的示例,这有助于理解数据形态:

Case 1: Entity Compression Example Original Text: Couples' Indoor-Outdoor Wearable Non-Slip Plush Thermal Cotton Slippers Tokenized Sequence: 1T Token IDs: 73245 49477 2382 8123 4153 11369 9144 44785 79318 28525 29441 18067 Compressed Atomic Representation: [entity] (Compression Ratio is 12:1)

Case 2: Complete User Behavioral Sequence Compression Original Full-Text Context (21,349 tokens): User Attributes:28,/ 28-year-old female resident of Beijing; Astrological signs: Gemini (Western), Ox (Chinese zodiac) User Behavioral History: 3 / Purchased 3 years ago Women's autumn-winter knee-high boots Topstitched satin-textured dress 2 / Searched 2 years ago Premium aesthetic outerwearRetro Bluetooth mini speaker 1 ‡ Clicked 1 year ago 04 Korean-style loose-fit sweater Pure cotton 4-piece bedding set : (numerous additional interactions omitted due to space)

Atomized Entity Compression Hybrid Representation Context (5,158 tokens): User Attributes:28,/28-year-old female resident of Beijing; Astrological signs: Gemini (Western), Ox (Chinese zodiac) User Behavioral History: 3/ Purchased 3 years ago [entity] [entity] 2/ Searched 2 years ago [entity] [entity] 1/ Clicked 1 year ago [entity] [entity] : (all other interactions similarly compressed) (Token Reduction: 76%)

这些示例展示了用户档案中包含的结构化属性、时间戳、行为类型、原始物品描述和查询文本,以及经过压缩后的 [entity] 替代。

5.2. 评估指标

为了全面评估系统性能,测量了短期参与度 (Short-Term Engagement) 和长期留存率 (Long-Term Retention) 指标。此外,还包括了生成任务(标签预测和解释生成)的特定指标。

5.2.1. 在线 A/B 测试指标

短期参与度指标 (Short-Term Metrics):

  1. 物品页面浏览量 (IPV, Item Page Views):

    • 概念定义: IPV 衡量用户在推荐系统曝光后,点击并访问物品详情页面的次数。它直接反映了用户对推荐物品的兴趣和好奇心,是衡量推荐系统吸引力的重要指标。
    • 数学公式: IPV=用户访问物品详情页面的总次数 \mathrm{IPV} = \text{用户访问物品详情页面的总次数}
    • 符号解释:
      • 用户访问物品详情页面的总次数\text{用户访问物品详情页面的总次数}: 在给定时间段内,用户通过点击推荐物品而进入物品详情页面的总和。
  2. 点击率 (CTR, Click-Through Rate):

    • 概念定义: CTR 是点击量与曝光量之比,衡量推荐物品被用户点击的频率。它是衡量推荐系统相关性和吸引力的最常用指标之一。
    • 数学公式: CTR=点击量曝光量×100% \mathrm{CTR} = \frac{\text{点击量}}{\text{曝光量}} \times 100\%
    • 符号解释:
      • 点击量\text{点击量}: 用户点击推荐物品的总次数。
      • 曝光量\text{曝光量}: 推荐物品被展示给用户的总次数。
  3. 交易量 (TV, Transaction Volume):

    • 概念定义: TV 衡量用户通过推荐系统完成购买的商品总数量或订单总数量。它反映了推荐系统对用户购买行为的直接促进作用。
    • 数学公式: (论文未给出具体公式,通常指) TV=通过推荐购买的商品总数量通过推荐产生的订单总数量 \mathrm{TV} = \text{通过推荐购买的商品总数量} \quad \text{或} \quad \text{通过推荐产生的订单总数量}
    • 符号解释:
      • 通过推荐购买的商品总数量\text{通过推荐购买的商品总数量}: 通过推荐系统引导的点击或曝光,最终用户购买的商品总件数。
      • 通过推荐产生的订单总数量\text{通过推荐产生的订单总数量}: 通过推荐系统引导的点击或曝光,最终用户完成的订单总数。
  4. 商品交易总额 (GMV, Gross Merchandise Value):

    • 概念定义: GMV 是通过推荐系统产生的销售额总和,包括已下单和可能退货的商品价值。它是衡量推荐系统商业价值的最重要指标之一。
    • 数学公式: (论文未给出具体公式,通常指) GMV=订单订单金额 \mathrm{GMV} = \sum_{\text{订单}} \text{订单金额}
    • 符号解释:
      • 订单金额\text{订单金额}: 通过推荐系统产生的每个订单的金额。
  5. 加入购物车 (ATC, Add-to-Cart):

    • 概念定义: ATC 衡量用户将推荐物品加入购物车的次数,反映了用户的购买意图和推荐系统在引导用户潜在购买行为方面的效果。
    • 数学公式: ATC=用户将推荐物品加入购物车的总次数 \mathrm{ATC} = \text{用户将推荐物品加入购物车的总次数}
    • 符号解释:
      • 用户将推荐物品加入购物车的总次数\text{用户将推荐物品加入购物车的总次数}: 在给定时间段内,用户通过点击推荐物品,将其添加到购物车的总次数。

长期留存指标 (Long-Term Metrics):

  1. 新颖性曝光率 (NER, Novelty Exposure Rate):

    • 概念定义: NER 衡量推荐给用户的物品中,用户此前从未与之互动过的物品所占的百分比。它反映了推荐系统在探索用户新兴趣和避免“过滤气泡”效应方面的能力。
    • 数学公式: NER=推荐给用户的新颖物品数量推荐给用户的物品总数量×100% \mathrm{NER} = \frac{\text{推荐给用户的新颖物品数量}}{\text{推荐给用户的物品总数量}} \times 100\%
    • 符号解释:
      • 推荐给用户的新颖物品数量\text{推荐给用户的新颖物品数量}: 推荐列表中用户未曾交互过的物品数量。
      • 推荐给用户的物品总数量\text{推荐给用户的物品总数量}: 推荐列表中的物品总数量。
  2. 14 日留存率 (LT-14) / 30 日留存率 (LT-30):

    • 概念定义: LT-14 和 LT-30 分别衡量用户在推荐系统使用后 14 天和 30 天的留存情况。这些指标量化了长期用户参与度和推荐系统维持用户粘性的能力。
    • 数学公式: (论文未给出具体公式,通常指) LTX=X 日后仍活跃的用户数初始用户总数×100% \mathrm{LT-X} = \frac{\text{X 日后仍活跃的用户数}}{\text{初始用户总数}} \times 100\%
    • 符号解释:
      • X\mathrm{X}: 留存天数,如 14 或 30。
      • X 日后仍活跃的用户数\text{X 日后仍活跃的用户数}: 在初始使用群体中,经过 X 天后仍有活跃行为的用户数量。
      • 初始用户总数\text{初始用户总数}: 在开始评估时,接触推荐系统的用户总数。

5.2.2. 生成任务评估指标

  1. 命中率 (HR@30, Hit Rate at top-30 predictions):

    • 概念定义: 对于物品标签预测任务,HR@30 衡量预测的物品标签(在通过预训练的标签到类别模型映射到物品类别后)是否成功匹配用户实际交互的类别。它评估了模型预测用户兴趣的准确性。
    • 数学公式: (论文未给出具体公式,但其定义与标准 HR 类似) HR@K=成功命中用户实际交互类别的预测标签数量总预测标签数量 \mathrm{HR@K} = \frac{\text{成功命中用户实际交互类别的预测标签数量}}{\text{总预测标签数量}}
    • 符号解释:
      • 成功命中用户实际交互类别的预测标签数量\text{成功命中用户实际交互类别的预测标签数量}: 在模型预测的前 K 个标签中,有多少个与用户实际交互的物品类别相匹配。
      • 总预测标签数量\text{总预测标签数量}: 模型为每个用户预测的标签总数。
      • K: 在此为 30。
  2. 解释多样性 (Explanation Diversity):

    • 概念定义: 衡量为每个物品生成解释集内部的配对不相似度。较高的分数表示生成的解释在词汇上更具多样性。
    • 数学公式: 对于每个物品 ii 及其生成的解释集 {e1i,e2i,,eKi}\{ e_1^i, e_2^i, \ldots, e_K^i \},多样性分数计算为: Diversityi=12K(K1)j=1K1k=j+1KROUGE.L(eji,eki) \mathrm{Diversity}_i = 1 - \frac{2}{K (K - 1)} \sum_{j=1}^{K - 1} \sum_{k=j+1}^{K} \mathrm{ROUGE.L}(e_j^i, e_k^i)
    • 符号解释:
      • Diversityi\mathrm{Diversity}_i: 物品 ii 的解释多样性分数。
      • KK: 为物品 ii 生成的解释数量。
      • ROUGE.L(eji,eki)\mathrm{ROUGE.L}(e_j^i, e_k^i): 衡量解释 ejie_j^iekie_k^i 之间最长公共子序列相似度的 ROUGE-L 指标。
  3. 解释质量 (Explanation Quality) / 解释接受率 (Explanation Acceptance):

    • 概念定义: 通过人类标注来评估解释质量。标注者根据七个评估维度(相关性、事实性、清晰度、安全性、及时性、信息量、吸引力)判断解释是否为高质量。质量接受率衡量被标注为高质量的解释的百分比。
    • 数学公式: (论文未给出具体公式,通常指) Quality Acceptance Rate=被人类标注为高质量的解释数量总评估解释数量×100% \text{Quality Acceptance Rate} = \frac{\text{被人类标注为高质量的解释数量}}{\text{总评估解释数量}} \times 100\%
    • 符号解释:
      • 被人类标注为高质量的解释数量\text{被人类标注为高质量的解释数量}: 满足所有评估维度标准的解释数量。
      • 总评估解释数量\text{总评估解释数量}: 参与人类评估的解释总数量。

5.2.3. 评判员框架评估指标

  1. 人类-评判员一致性 (Human-Judge Agreement):
    • 概念定义: 衡量代理即评判员 (Agent-as-a-Judge) 在识别“优越 (Superior, S)”质量样本方面与人类评判员的一致性,使用准确率 (Accuracy) 和 F1 分数进行评估。
    • 数学公式:
      • 准确率 (Accuracy): Accuracy=正确判断的数量总判断数量 \mathrm{Accuracy} = \frac{\text{正确判断的数量}}{\text{总判断数量}} 其中,“正确判断”指代理评判员的判断与人类标注的“优越 (S)”标签一致。
      • F1 分数 (F1 Score): F1=2×Precision×RecallPrecision+Recall \mathrm{F1} = 2 \times \frac{\mathrm{Precision} \times \mathrm{Recall}}{\mathrm{Precision} + \mathrm{Recall}} 其中,Precision=真正例 (TP)真正例 (TP)+假正例 (FP)\mathrm{Precision} = \frac{\text{真正例 (TP)}}{\text{真正例 (TP)} + \text{假正例 (FP)}}Recall=真正例 (TP)真正例 (TP)+假反例 (FN)\mathrm{Recall} = \frac{\text{真正例 (TP)}}{\text{真正例 (TP)} + \text{假反例 (FN)}}。这里,TP 是代理将“优越”样本判断为“优越”;FP 是代理将非“优越”样本判断为“优越”;FN 是代理将“优越”样本判断为非“优越”。
    • 符号解释:
      • 正确判断的数量\text{正确判断的数量}: 代理评判员判断结果与人类标注结果一致的样本数量。
      • 总判断数量\text{总判断数量}: 所有被代理评判员评估的样本数量。
      • TP (True Positive): 代理正确识别为“优越”的样本数量。
      • FP (False Positive): 代理错误地将非“优越”样本识别为“优越”的数量。
      • FN (False Negative): 代理错误地将“优越”样本识别为非“优越”的数量。

5.3. 对比基线

RecGPT-V2 的实验主要将其自身与以下基线模型进行比较:

  • RecGPT-V1: 作为主要对照组,用于在线 A/B 测试,直接评估 RecGPT-V2 相较于其前身在工业部署中的提升。
  • 不同训练策略的 RecGPT-V2 变体:
    • Base (基础模型): 指未经任何领域特定微调或优化的 Qwen-14B 基础模型,用于验证领域适应的必要性。
    • SFT (监督微调): 仅在与角色对齐的监督数据上进行微调的 RecGPT-V2 变体,用于建立专家能力的基础。
    • GRPO (SUM) (群组相对策略优化,求和奖励): 使用 GRPO 算法进行强化学习优化,但奖励函数采用简单加权求和方式聚合多目标奖励。
    • GRPO (CRS) (群组相对策略优化,约束奖励塑形): RecGPT-V2 的完整强化学习优化策略,采用约束奖励塑形机制。
  • LLM-as-a-Judge (RecGPT-V1 的评估方法): 在评估人类-评判员一致性时,将 RecGPT-V2 的 Agent-as-a-Judge 框架与 RecGPT-V1 的 LLM-as-a-Judge 方法进行比较。
  • 不同奖励模型训练策略的 RecGPT-V2 变体:
    • RecGPT-V2 (Point-wise RM) (逐点奖励模型): 采用逐点方式训练奖励模型。
    • RecGPT-V2 (List-wise RM) (列表式奖励模型): 采用列表式排序学习方式训练奖励模型,这是 RecGPT-V2 推荐的方法。

6. 实验结果与分析

6.1. 核心结果分析

RecGPT-V2 在多个方面验证了其有效性,包括计算效率、生成任务性能(标签预测和解释生成)以及在线 A/B 测试效果。

6.1.1. 计算效率提升

RecGPT-V2 通过混合表示推理 (Hybrid Representation Inference)基础设施工程优化 (Infrastructure Engineering Optimization) 实现了显著的计算效率提升。

以下是原文 Figure 4 的结果:

Figure 4 | Computational efficiency comparison. 该图像是一个图表,展示了RecGPT-V1与RecGPT-V2在MFU%、QPS (Prefill)和 TPS (Decode)方面的计算效率比较。RecGPT-V2在MFU%达到了17.70%,而RecGPT-V1为11.56%;在QPS (Prefill)上,RecGPT-V2的值为69.30,RecGPT-V1为1;在TPS (Decode)上,RecGPT-V2的值为7.35,RecGPT-V1为1。此图表显示了RecGPT-V2在计算效率上的显著提升。

Figure 4 | 计算效率对比。

  • 模型浮点运算单元利用率 (MFU, Model FLOPs Utilization): RecGPT-V2 将整体 MFU 从 RecGPT-V1 的 11.56% 提高到 17.04%,相较于 RecGPT-V1 提高了 53.11%。这意味着 RecGPT-V2 能更有效地利用 GPU 的计算能力。
  • 吞吐量 (Throughput): 在预填充 (prefill) 阶段,QPS (每秒查询数) 显著提升,达到 RecGPT-V1 的 69.30 倍。在解码 (decode) 阶段,TPS (每秒词元数) 提高到 RecGPT-V1 的 7.35 倍。这些数据表明 RecGPT-V2 在处理大量请求和生成长序列方面具有更高的效率,对于工业级部署至关重要。

6.1.2. 物品标签预测性能

通过分层多智能体系统 (Hierarchical Multi-Agent System)约束强化优化 (Constrained Reinforcement Optimization),RecGPT-V2 在物品标签预测任务上取得了显著进展。

以下是原文 Table 2 的结果:

MetricRecGPT-V1RecGPT-V2
BaseSFTGRPO (SUM)GRPO (CRS)
HR@3026.29%23.08%29.20%27.38%32.60%

Table 2 | 不同训练策略下标签预测准确性比较。RecGPT-V1 和 RecGPT-V2 变体均基于 Qwen-14B 作为基础模型。

  • 领域适应的必要性: Base 模型(未经 SFT 的 Qwen-14B)的 HR@30 为 23.08%,低于 RecGPT-V1 的 26.29%,这验证了领域适应对于推荐任务的重要性。

  • 监督微调 (SFT) 的有效性: SFT 模型在 HR@30 上达到 29.20%,相较于 Base 模型提高了 6.12%,相较于 RecGPT-V1 提高了 2.91%,表明与角色对齐的监督学习能有效提升专家推理能力。

  • 多奖励冲突的挑战: GRPO (SUM) 模型在 HR@30 上为 27.38%,低于 SFT 模型,这表明简单地将多个奖励相加会导致梯度冲突,反而损害性能。

  • 约束奖励塑形 (CRS) 的优越性: GRPO (CRS) 模型在 HR@30 上达到最高的 32.60%,超过 SFT 3.40%,并超过 RecGPT-V1 6.31%。这有力地证明了将次要目标视为硬性约束的策略,能够有效缓解多奖励冲突,实现稳定的强化学习优化。从 Figure 7 也可以看出 CRS 保持了更低的梯度范数和 KL 散度,并实现了各目标的同时优化。

    Figure 7 | Training dynamics comparison between sum-based and constrained reward shaping. (a) Gradient norm. (b) KL divergence from reference model. (c) Accuracy reward. (d) Diversity reward. CRS maintains stable optimization across all metrics, while SUM suffers from multi-reward conflicts. 该图像是图表,展示了基于和约束奖励塑形的训练动态比较。(a) 梯度范数。(b) KL 散度。(c) 准确性奖励。(d) 多样性奖励。CRS 在各指标上保持稳定优化,而 SUM 存在多重奖励冲突。

Figure 7 | 基于求和与约束奖励塑形的训练动态比较。(a) 梯度范数。(b) KL 散度。(c) 准确性奖励。(d) 多样性奖励。CRS 在所有指标上均保持稳定优化,而 SUM 则受到多奖励冲突的影响。

6.1.3. 动态解释生成性能

RecGPT-V2 通过元提示 (Meta-Prompting)偏好感知强化学习 (Preference-Aware Reinforcement Learning) 显著提高了解释的多样性和质量。

以下是原文 Table 3 的结果:

MethodDiversityQuality (%)
RecGPT-V10.63136.03
RecGPT-V20.67740.73

Table 3 | 解释性能比较。

  • 多样性 (Diversity): RecGPT-V2 的解释多样性从 RecGPT-V1 的 0.631 提高到 0.677,提升了 +7.30%。这表明元提示机制能够生成上下文自适应的风格指导,从而产生更多样化的解释。
  • 质量 (Quality): RecGPT-V2 的解释质量接受率从 RecGPT-V1 的 36.03% 提高到 40.73%,提升了 +4.7%。这证明了元提示结合偏好感知强化学习的有效性,能同时提升解释的多样性和人类评估的质量。

6.1.4. 评判员框架的评估一致性

代理即评判员 (Agent-as-a-Judge) 框架与人类判断的一致性优于传统的 LLM-as-a-Judge 方法。

以下是原文 Table 4 的结果:

TaskModelAccuracyF1
V1V2V1V2
Item Tag PredictionGPT5-mini0.76940.77040.74990.7535
Qwen3-Base0.78440.78640.79910.8051
Qwen3-SFT0.82100.82480.80950.8228
Explanation GenerationGPT5-mini0.44810.45480.56730.5424
Qwen3-Base0.34230.27640.08980.0904
Qwen3-SFT0.68850.70060.67870.7307

Table 4 | LLM-as-a-Judge (RecGPT-V1) 和 Agent-as-a-Judge (RecGPT-V2) 在识别优越 (S) 质量方面的人类-评判员一致性比较,其中人类标注作为真实标注数据。最佳结果以粗体显示。

  • 物品标签预测任务: Agent-as-a-Judge (V2) 在所有三个模型(GPT5-mini, Qwen3-Base, Qwen3-SFT)上都取得了更高的准确率(+0.10 pp, +0.20 pp, +0.38 pp)和 F1 分数(+0.36 pp, +0.60 pp, +1.33 pp)。这表明分解评估任务能够提高判断的准确性和召回率。
  • 解释生成任务: RecGPT-V2 在 GPT5-mini 和 Qwen3-SFT 模型上保持了优越的准确率(+0.67 pp, +1.21 pp),尤其是在 Qwen3-SFT 上 F1 分数提升最为显著(+5.20 pp)。Qwen3-Base 在 RecGPT-V2 下的准确率略有下降,但 F1 值基本持平。整体而言,Agent-as-a-Judge 通过模拟人类的多步推理过程,提高了评估的可靠性。

6.1.5. 奖励模型训练策略的影响

评判员即奖励 (Judge-as-a-Reward) 机制,特别是列表式排序学习,对强化学习性能有显著提升。

以下是原文 Table 5 的结果:

MethodHR@30 (Tag)Quality (Explanation)
RecGPT-V126.29%36.03%
RecGPT-V2 (Point-wise RM)31.24%37.64%
RecGPT-V2 (List-wise RM)32.60%40.73%

Table 5 | 奖励模型训练策略的性能比较。HR@30 表示物品标签预测的命中率(前 30 名)。质量衡量人类评估的解释优越率。

  • 标签预测 (HR@30): RecGPT-V2 (List-wise RM) 在 HR@30 上达到 32.60%,相较于 RecGPT-V1 提升了 +24.1%,相较于 RecGPT-V2 (Point-wise RM) 提升了 +4.4%。
  • 解释质量 (Quality): RecGPT-V2 (List-wise RM) 在解释质量上达到 40.73%,相较于 RecGPT-V1 提升了 +13.0%,相较于 RecGPT-V2 (Point-wise RM) 提升了 +8.2%。 这些结果表明,列表式排序学习通过建模层次偏好排序(S 优于 A,A 优于 B),提供了更具判别性的优化信号,从而更好地指导策略学习达到人类对齐的质量标准。相比之下,逐点训练独立处理样本,失去了对有效策略梯度估计至关重要的相对偏好结构。

6.1.6. 在线 A/B 测试结果

RecGPT-V2 在淘宝的在线 A/B 测试中表现出色,各项指标均有显著提升。

以下是原文 Table 6 的结果:

ScenarioShort-Term EngagementLong-Term Retention
IPVCTRTVGMVATCNERLT-14LT-30
Item+3.64+3.01+2.11+3.39+3.47+11.46
Feed+1.29+1.50+0.34+1.53+0.99+4.49+0.04+0.05

Table 6 | 在线 A/B 测试结果比较 RecGPT-V2 与 RecGPT-V1 基线在物品和信息流场景中的表现。所有指标均显示相对百分比改进(% 已省略)。 注:空白表示该指标不适用于物品场景。

  • 短期参与度指标:
    • 物品场景 (Item Scenario): IPV (+3.64%), CTR (+3.01%), TV (+2.11%), GMV (+3.39%), ATC (+3.47%) 均有显著提升。这表明增强的意图理解直接转化为用户互动和交易价值的增加。
    • 信息流场景 (Feed Scenario): CTR (+1.50%) 和 GMV (+1.53%) 也有提升,表明推荐相关性得到改善。
  • 长期留存指标:
    • 新颖性曝光率 (NER): 在物品场景中提高了 +11.46%,在信息流场景中提高了 +4.49%。这表明 RecGPT-V2 显著改善了推荐多样性和新颖性,验证了多智能体协调和环境信号集成能够有效缓解过滤气泡效应。
    • 用户留存率 (LT-14, LT-30): 在信息流场景中,LT-14 提升 +0.04%,LT-30 提升 +0.05%。尽管绝对值看似微小,但在用户留存方面,这些增益代表了持续用户参与度的有意义的进步,这对于平台健康至关重要。

6.1.7. 案例研究 (Case Study)

Figure 9 展示了一个真实世界的案例,突出了 RecGPT-V2 在动态意图理解和上下文感知推荐生成方面的优势。

Figure 9 | Case study. 该图像是一个示意图,展示了多个商品及其描述,包括毛衣、儿童产品和哑铃等,具有丰富的视觉信息和信息组织。图中的决策仲裁者图标也突出了智能推荐系统的特点。

Figure 9 | 案例研究。

案例中:

  • 用户档案: 35 岁女性,居住在天津,有压缩行为历史。

  • 环境上下文: 当前日期 2025 年 9 月 30 日,天气逐渐变凉,即将迎来中秋节和万圣节。

  • 全局规划器 (Global Planner): 将这些上下文信号分解为三个互补的角色:Ladies' Fashion Expert (女士时尚专家)、Kids' Products Expert (儿童产品专家) 和 Health Expert (健康专家)。

  • 分布式专家 (Distributed Experts):

    • 女士时尚专家: 预测“羊毛混纺开衫”,响应天气转凉的需求。
    • 儿童产品专家: 生成“儿童保湿乳液”(应对秋季干燥气候)和“儿童万圣节服装”(预示即将到来的节日),展示了时间适应性。
    • 健康专家: 推荐“可调节哑铃套装”,将天气驱动的健康需求与历史健身兴趣对齐。
  • 决策仲裁器 (Decision Arbiter): 综合专家预测,选择三个最终物品,每个物品都配有由元提示框架生成的上下文自适应解释,例如“包裹在秋日阳光中”(强调季节性舒适)、“滋润宝宝肌肤”(突出儿童秋季护肤)和“你只需要哑铃”(推广便捷的居家健身)。

    此案例验证了 RecGPT-V2 的核心能力:通过将实时环境信号整合到分层多智能体推理中,系统实现了多样化的意图覆盖和精确的情境适应,从静态行为模式匹配转向动态、上下文感知的推荐生成。

6.2. 数据呈现 (表格)

以下是原文 Table 1 的结果:

Data TypeProportion (%)
Recommendation Task
Pure Behavior Patterns32.17
Trending Topics & Events6.97
Weather-Related Contexts •1.19
Other Situational Signals •7.36
General Language Modeling52.31

Table 1 | 监督微调的数据源分布。

以下是原文 Table 2 的结果:

MetricRecGPT-V1RecGPT-V2
BaseSFTGRPO (SUM)GRPO (CRS)
HR@3026.29%23.08%29.20%27.38%32.60%

Table 2 | 不同训练策略下标签预测准确性比较。RecGPT-V1 和 RecGPT-V2 变体均基于 Qwen-14B 作为基础模型。

以下是原文 Table 3 的结果:

MethodDiversityQuality (%)
RecGPT-V10.63136.03
RecGPT-V20.67740.73

Table 3 | 解释性能比较。

以下是原文 Table 4 的结果:

TaskModelAccuracyF1
V1V2V1V2
Item Tag PredictionGPT5-mini0.76940.77040.74990.7535
Qwen3-Base0.78440.78640.79910.8051
Qwen3-SFT0.82100.82480.80950.8228
Explanation GenerationGPT5-mini0.44810.45480.56730.5424
Qwen3-Base0.34230.27640.08980.0904
Qwen3-SFT0.68850.70060.67870.7307

Table 4 | LLM-as-a-Judge (RecGPT-V1) 和 Agent-as-a-Judge (RecGPT-V2) 在识别优越 (S) 质量方面的人类-评判员一致性比较,其中人类标注作为真实标注数据。最佳结果以粗体显示。

以下是原文 Table 5 的结果:

MethodHR@30 (Tag)Quality (Explanation)
RecGPT-V126.29%36.03%
RecGPT-V2 (Point-wise RM)31.24%37.64%
RecGPT-V2 (List-wise RM)32.60%40.73%

Table 5 | 奖励模型训练策略的性能比较。HR@30 表示物品标签预测的命中率(前 30 名)。质量衡量人类评估的解释优越率。

以下是原文 Table 6 的结果:

Scenario Short-Term Engagement Long-Term Retention
IPV CTR TV GMV ATC NER LT-14 LT-30
Item +3.64 +3.01 +2.11 +3.39 +3.47 +11.46
Feed +1.29 +1.50 +0.34 +1.53 +0.99 +4.49 +0.04 +0.05

Table 6 | 在线 A/B 测试结果比较 RecGPT-V2 与 RecGPT-V1 基线在物品和信息流场景中的表现。所有指标均显示相对百分比改进(% 已省略)。 注:空白表示该指标不适用于物品场景。

6.3. 消融实验/参数分析

论文通过比较 RecGPT-V2 的不同训练阶段和组件,隐式地进行了消融实验:

  • RecGPT-V2 (Base) vs RecGPT-V1 vs RecGPT-V2 (SFT): 比较了基础模型、RecGPT-V1 和 SFT 后的 RecGPT-V2 变体。这组实验表明了领域适应和监督微调对标签预测性能的重要性,SFT 显著优于 BaseRecGPT-V1,验证了专家模型通过监督学习获得基础能力的重要性。

  • RecGPT-V2 (SFT) vs GRPO (SUM) vs GRPO (CRS): 这组比较是关于强化学习优化策略的消融。结果清晰地显示 GRPO (SUM) 的性能下降,而 GRPO (CRS) 取得了最佳效果。这验证了约束奖励塑形 (CRS) 在处理多奖励冲突方面的关键作用,它能够稳定优化,避免简单求和带来的梯度干扰。

  • RecGPT-V1 (LLM-as-a-Judge) vs RecGPT-V2 (Agent-as-a-Judge): 这组比较验证了代理即评判员 (Agent-as-a-Judge) 框架的有效性。通过分解评估过程,Agent-as-a-Judge 显著提高了与人类判断的一致性,尤其是在 F1 分数上表现突出,证明了过程导向评估的优势。

  • RecGPT-V2 (Point-wise RM) vs RecGPT-V2 (List-wise RM): 这组比较是针对奖励模型训练策略的消融。结果表明,列表式排序学习 (List-wise RM) 优于逐点奖励模型 (Point-wise RM),这验证了列表式方法能够更好地捕捉层次偏好排序,为强化学习提供更有效的奖励信号。

    这些消融实验和对比分析,共同证明了 RecGPT-V2 各个创新组件(混合表示推理、分层多智能体系统、元提示、约束强化学习、代理即评判员和评判员即奖励)的有效性和对整体性能提升的贡献。

7. 总结与思考

7.1. 结论总结

RecGPT-V2 是一项在 LLM 驱动的推荐系统领域取得显著进展的工作。它系统地解决了 RecGPT-V1 存在的计算效率低下、解释多样性不足、泛化能力有限和评估对齐度不佳等核心问题。通过引入代理式意图推理 (Agentic Intent Reasoning),RecGPT-V2 显著降低了 GPU 消耗(60%)并提升了召回率,通过混合表示推理 (Hybrid Representation Inference)分层多智能体系统 (Hierarchical Multi-Agent System) 优化了资源利用和认知协调。元提示 (Meta-Prompting) 框架实现了动态且上下文自适应的解释生成,将解释多样性提升了 +7.3%。约束强化学习 (Constrained Reinforcement Learning) 中的约束奖励塑形 (Constrained Reward Shaping) 机制有效缓解了多奖励冲突,带来了标签预测 (+24.1%) 和解释接受度 (+13.0%) 的大幅提升。最后,代理即评判员 (Agent-as-a-Judge) 框架通过多步推理和分层判断,提高了评估与人类偏好的对齐度。在淘宝进行的在线 A/B 测试结果(CTR +2.98%, IPV +3.71%, TV +2.19%, NER +11.46%)强有力地验证了 RecGPT-V2 在技术可行性和商业价值方面的成功,证明了 LLM 驱动的意图推理系统在大规模工业部署中的巨大潜力。

7.2. 局限性与未来工作

论文作者指出了未来的一个研究方向:

  • 端到端联合优化多智能体协作与强化学习: 目前的系统虽然实现了多智能体协作和强化学习,但它们可能还未达到真正的端到端联合优化。未来的工作将探索如何更紧密地集成这些组件,以进一步增强推荐性能和用户体验。这可能意味着在整个多智能体系统中,奖励信号和策略更新能够更直接地影响彼此,从而实现更深层次的协同进化。

    除了作者提及的未来工作,作为对论文的批判性思考,我认为还可能存在以下局限性和潜在的未来方向:

  • 对 LLM 供应商的依赖: RecGPT-V2 在多个地方依赖于强大的闭源 LLM(如 GPT-4)进行数据生成(如 QA 对生成、SFT 数据标签)和评估。这种依赖性可能带来成本、数据隐私和模型可控性的问题。未来的工作可能需要探索如何用更小、更可控或开源的 LLM 完成这些任务,或者开发无需外部 LLM 的自举 (bootstrap) 方法。

  • 复杂系统的可维护性和可解释性挑战: 尽管 RecGPT-V2 旨在提高可解释性(通过解释生成和代理即评判员),但其自身系统(分层多智能体、混合表示、多种奖励函数)的复杂性也可能带来新的可维护性、调试和整体可解释性挑战。如何确保这种复杂系统在生产环境中能够稳定、可靠且易于理解其决策,是一个持续的挑战。

  • 奖励模型偏差的风险: 评判员即奖励 (Judge-as-a-Reward) 机制依赖于奖励模型的准确性。如果奖励模型本身存在偏差或无法完全捕捉人类偏好的细微之处,它可能会导致策略模型在优化过程中出现次优行为。尽管采用了列表式排序学习,但奖励模型的鲁棒性和泛化能力仍可能是一个潜在的局限。

  • 实时性与新鲜度: 尽管论文提到了捕捉季节性趋势和实时情境信号,但如何在极端高并发和数据流速下,确保所有智能体都能实时获取并处理最新环境信息,并迅速反应生成推荐,是一个巨大的工程挑战。对于快速变化的流行趋势或突发事件,系统的响应速度可能仍需进一步优化。

  • 用户侧的认知负担: 虽然个性化解释旨在增强用户参与度,但过多的解释或过于复杂的解释模式可能会增加用户的认知负担。如何平衡解释的丰富性与简洁性,确保其真正提升用户体验而非造成信息过载,是一个值得探究的问题。

7.3. 个人启发与批判

RecGPT-V2 为 LLM 在推荐系统领域的应用开辟了新的前景,其将“意图推理”提升到显式层面的理念尤其具有启发性。

  • 多智能体协作的范式转变: 最大的启发在于其分层多智能体系统。将复杂的推荐任务分解为由“规划器”、“专家”和“仲裁器”组成的协作框架,这不仅解决了计算冗余问题,更模拟了人类专家团队的工作模式,使得推荐逻辑更具结构化和可控性。这种架构提供了一种通用范式,可以应用于其他需要复杂推理和决策的 AI 应用中,而不仅仅局限于推荐系统。
  • 效率与效果的平衡艺术: 论文在提升模型能力的同时,高度关注了工业级部署的计算效率。通过原子化实体压缩基础设施工程优化,实现了性能和成本的平衡。这表明在追求先进 AI 技术的过程中,实用性、可扩展性和效率是不可忽视的考量。
  • 人类偏好对齐的精细化探索: 从 LLM-as-a-Judge 到 Agent-as-a-Judge 的演进,以及约束奖励塑形 (CRS)列表式排序学习 (Listwise Learning-to-Rank) 的应用,展示了研究者在将 AI 系统与复杂、多维的人类偏好对齐方面所做的精细化努力。这对于任何涉及生成性 AI 任务(如内容创作、对话系统)都具有重要的参考价值,强调了过程导向评估和多目标优化在实现真正“智能”中的关键作用。
  • 飞轮效应的工程实践: 代理即评判员和评判员即奖励构建的自我强化的飞轮效应 (Self-Improving Flywheel Effect) 是一个非常优雅的设计。它提供了一种在无需持续大量人工干预的情况下,系统能够自我迭代、持续改进质量的机制。这种闭环优化思想在未来的 AI 系统设计中将越来越重要。

批判性思考:

  • “意图”的定义与捕捉: 尽管 RecGPT-V2 强调显式意图推理,但“意图”本身是一个高度主观和动态的概念。模型捕捉到的“意图”是否真正与用户的深层意图一致?尤其是在面对用户需求模糊、不明确或快速变化的情境时,LLM 如何避免“一本正经地胡说八道”,仍是一个值得深入探讨的问题。

  • 智能体间的协调复杂性: 分层多智能体系统虽然能够减少冗余,但智能体之间的协调和沟通机制本身就是复杂的。如何保证规划器能生成最佳的角色,专家能忠实地执行角色,仲裁器能做出最佳的最终决策,以及在出现冲突或错误时如何追溯和修正,这些都是需要健壮工程和持续优化的点。

  • 可解释性的边界: 尽管生成解释和评估框架提高了系统的可解释性,但 LLM 内部的决策过程仍然是一个黑箱。当推荐结果出现偏差或用户不满意时,如何从 LLM 驱动的复杂多智能体系统中准确诊断问题根源,这仍然是未来可解释 AI (XAI) 需要解决的关键挑战。

  • 冷启动问题: 论文主要关注已有用户行为和历史的场景。对于新用户或新物品的“冷启动”问题,LLM 驱动的意图推理系统如何利用其通用知识和少量信息进行有效推荐,是一个未在本文中详细探讨但很重要的方面。

    总的来说,RecGPT-V2 是一篇极具价值的论文,它不仅在技术上取得了显著突破,更在理念上推动了推荐系统从“匹配”到“推理”的范式转变,为 LLM 在工业级推荐系统中的大规模应用奠定了坚实的基础。

相似论文推荐

基于向量语义检索推荐的相关论文。

暂时没有找到相似论文。