论文状态:已完成

OneRec-V2 Technical Report

发表:2025/08/28
原文链接PDF 下载
价格:0.100000
价格:0.100000
价格:0.100000
已有 33 人读过
本分析由 AI 生成,可能不完全准确,请以原文为准。

TL;DR 精炼摘要

OneRec-V2提出了懒惰解码器架构,去除编码器使计算量下降94%,支持80亿参数扩展;结合时长感知奖励塑造与自适应比率裁剪,提升与真实用户偏好的对齐。在快手大规模测试中显著提升App停留时长,推动生成式推荐系统实用化。

摘要

Recent breakthroughs in generative AI have transformed recommender systems through end-to-end generation. OneRec reformulates recommendation as an autoregressive generation task, achieving high Model FLOPs Utilization. While OneRec-V1 has shown significant empirical success in real-world deployment, two critical challenges hinder its scalability and performance: (1) inefficient computational allocation where 97.66% of resources are consumed by sequence encoding rather than generation, and (2) limitations in reinforcement learning relying solely on reward models. To address these challenges, we propose OneRec-V2, featuring: (1) Lazy Decoder-Only Architecture: Eliminates encoder bottlenecks, reducing total computation by 94% and training resources by 90%, enabling successful scaling to 8B parameters. (2) Preference Alignment with Real-World User Interactions: Incorporates Duration-Aware Reward Shaping and Adaptive Ratio Clipping to better align with user preferences using real-world feedback. Extensive A/B tests on Kuaishou demonstrate OneRec-V2's effectiveness, improving App Stay Time by 0.467%/0.741% while balancing multi-objective recommendations. This work advances generative recommendation scalability and alignment with real-world feedback, representing a step forward in the development of end-to-end recommender systems.

思维导图

论文精读

中文精读

1. 论文基本信息 (Bibliographic Information)

  • 标题 (Title): OneRec-V2 Technical Report (OneRec-V2 技术报告)
  • 作者 (Authors): OneRec Team (OneRec 团队)。隶属于快手公司,专注于大规模推荐系统的研发。
  • 发表期刊/会议 (Journal/Conference): arXiv 预印本。这表示该论文尚未经过同行评审,是一份初步的研究成果报告,通常用于快速分享最新的技术进展。
  • 发表年份 (Publication Year): 2025 (根据论文内容和链接推断,此为虚构年份,用于示例)。
  • 摘要 (Abstract): 摘要指出,生成式 AI 正在通过端到端生成的方式变革推荐系统。OneRec-V1 在此方向上取得了成功,但面临两大挑战:(1) 计算效率低下,97.66% 的计算资源被用于编码上下文而非生成;(2) 强化学习局限,仅依赖奖励模型可能导致对真实用户偏好的对齐不足。为解决这些问题,论文提出了 OneRec-V2,其核心创新包括:(1) 懒惰解码器架构 (Lazy Decoder-Only Architecture),通过移除编码器,将总计算量减少 94%,并成功将模型扩展至 80 亿参数;(2) 与真实世界用户交互的偏好对齐,引入了时长感知的奖励塑造和自适应比率裁剪技术,以更好地利用真实用户反馈。最终,在快手的大规模 A/B 测试中,OneRec-V2 显著提升了 App 停留时长,并平衡了多目标推荐。
  • 原文链接 (Source Link):
    • Arxiv: https://arxiv.org/abs/2508.20900

    • PDF: https://arxiv.org/pdf/2508.20900v3.pdf

    • 发布状态: 预印本 (Preprint)。


2. 整体概括 (Executive Summary)

  • 研究背景与动机 (Background & Motivation - Why):

    • 核心问题: 传统的推荐系统通常采用多阶段级联架构(如召回-排序-重排),这种设计导致了计算资源碎片化优化目标不一致(每个阶段优化自己的中间目标,而非最终的业务目标)。生成式推荐系统通过将推荐任务重构为端到端的序列生成问题,有望解决这些瓶颈。
    • 现有挑战 (Gap): 尽管第一代生成式推荐模型 OneRec-V1 在工业界取得了成功,但其仍存在两大核心挑战:
      1. 架构效率瓶颈: OneRec-V1 使用的 编码器-解码器 (Encoder-Decoder) 架构在处理长用户历史序列时,绝大多数计算(超过 97%)消耗在编码器上,而真正用于生成推荐结果的解码器计算占比极小。这严重限制了模型的扩展性。
      2. 对齐能力局限: OneRec-V1 的强化学习过程依赖于一个代理的奖励模型 (Reward Model) 来为策略提供优化信号。这种方式不仅采样效率低,还存在奖励破解 (Reward Hacking) 的风险,即模型可能学会利用奖励模型的漏洞来获得高分,但并未真正提升用户体验。
    • 创新思路: OneRec-V2 的切入点是同时解决上述效率对齐两大问题。它通过全新的架构设计来优化计算分配,并直接利用真实的用户反馈信号来指导模型优化,从而实现更高效、更对齐的生成式推荐。
  • 核心贡献/主要发现 (Main Contribution/Findings - What):

    • 贡献一:提出懒惰解码器架构 (Lazy Decoder-Only Architecture)。 这是一种高度优化的 仅解码器 (Decoder-Only) 架构。它移除了独立的编码器,将用户历史等上下文信息视为静态的、仅通过 交叉注意力 (cross-attention) 访问的键值对 (Key-Value pairs),从而将计算资源完全集中在生成任务本身。这使得总计算量减少 94%,训练资源减少 90%,并首次成功将生成式推荐模型扩展到 80 亿参数。

    • 贡献二:提出基于真实用户反馈的偏好对齐框架。 该框架旨在取代对代理奖励模型的单一依赖,直接从真实的用户行为中学习。它包含两个关键技术:

      1. 时长感知奖励塑造 (Duration-Aware Reward Shaping): 通过对用户观看时长进行归一化处理,消除视频本身长短带来的偏见,更准确地衡量用户对内容的满意度。
      2. 梯度有界策略优化 (Gradient-Bounded Policy Optimization, GBPO): 一种新的强化学习优化算法,通过动态地限制梯度,解决了传统策略优化算法在处理负反馈时可能出现的梯度爆炸问题,使训练过程更稳定。
    • 主要发现: 在快手 App 的大规模在线 A/B 测试中,OneRec-V2 相比 OneRec-V1 取得了显著的业务指标提升,包括应用停留时长 (App Stay Time) 提升了 0.467% / 0.741%,并且没有出现“跷跷板效应”(即提升一个指标而损害其他指标),实现了多目标的平衡优化。


3. 预备知识与相关工作 (Prerequisite Knowledge & Related Work)

  • 基础概念 (Foundational Concepts):

    • 推荐系统 (Recommender Systems): 旨在预测用户对物品(如视频、商品)偏好的系统。传统系统常采用级联架构 (Cascaded Architecture),分多个阶段(如召回、排序)逐步筛选物品,每个阶段优化各自的代理目标(如点击率)。
    • 生成式推荐 (Generative Recommendation): 一种新兴的推荐范式,它将推荐任务建模为自回归生成 (Autoregressive Generation) 任务。即像语言模型生成文本一样,根据用户历史和上下文,逐个“生成”代表推荐物品的 Token(标识符)。这种端到端 (End-to-End) 的方式可以直接优化最终推荐列表的质量。
    • Transformer 架构:
      • 编码器-解码器 (Encoder-Decoder): 源于机器翻译,由两部分组成。编码器负责理解输入序列(如用户历史),生成上下文表示;解码器则利用该上下文表示,并结合已生成的部分,自回归地生成输出序列(如推荐物品)。两者通过 交叉注意力 (cross-attention) 机制连接。
      • 仅解码器 (Decoder-Only): 如 GPT 系列模型,只有一个模块。它将输入和输出序列拼接在一起,通过 自注意力 (self-attention) 机制同时处理上下文和生成内容。其注意力机制是因果的 (causal),即在预测当前 Token 时只能看到前面的 Token
    • 强化学习 (Reinforcement Learning, RL): 一种机器学习范式,其中智能体 (Agent,即推荐模型) 通过与环境 (Environment,即用户) 交互来学习一个策略 (Policy)。智能体执行动作 (Action,即推荐物品) 后,环境会给予一个奖励 (Reward,即用户反馈),智能体的目标是最大化累积奖励。
    • PPO (Proximal Policy Optimization): 一种流行的强化学习算法,通过在更新策略时限制新旧策略的差异(通常使用一个裁剪函数),来保证训练的稳定性。
    • 浮点运算次数 (FLOPs, Floating-point Operations): 衡量模型或算法计算复杂度的单位。GFLOPs 指的是十亿次浮点运算。
  • 前人工作 (Previous Works):

    • OneRec-V1: 本文最直接的前身。它是一个基于 编码器-解码器 架构的工业级生成式推荐框架。它验证了将推荐视为生成任务的可行性,并使用基于奖励模型的强化学习进行优化。其主要局限性在于计算效率低和对代理奖励模型的依赖,这正是 OneRec-V2 旨在解决的问题。
    • 其他生成式推荐研究: 论文中提及了一系列将推荐重构为序列生成问题的研究工作(如 P5M6-Rec 等)。这些工作共同推动了这一领域的发展,但大多在学术数据集上进行验证,OneRec 系列则是在亿级用户规模的工业场景下进行部署和迭代。
  • 技术演进 (Technological Evolution):

    • 推荐系统的演进路线可以看作是从分阶段、代理目标优化端到端、最终目标优化的转变。
    • OneRec-V1 迈出了工业级端到端生成式推荐的第一步。
    • OneRec-V2 则是在 V1 的基础上,针对架构效率反馈对齐这两个核心工业痛点进行的深度优化,标志着该技术路线走向成熟和可规模化的重要一步。
  • 差异化分析 (Differentiation):

    • 与 OneRec-V1 的区别:

      1. 架构:编码器-解码器 变为 懒惰解码器V1 中编码器处理长序列,解码器生成短序列;V2 中彻底去掉了编码器,将计算量集中于解码器。
      2. 强化学习信号来源:单一依赖奖励模型转变为直接利用真实用户反馈 (播放时长不喜欢 等)。
      3. 优化算法:ECPO (一种 PPO 变体) 升级为更稳定的 GBPO
    • 与 Naive Decoder-Only 模型的区别: 传统的 仅解码器 模型在处理推荐任务时,需要将长长的用户历史序列和待生成的物品序列拼接在一起,并对整个长序列进行 自注意力 计算,计算量巨大。OneRec-V2懒惰体现在,它只对简短的目标物品序列进行 自注意力 计算,而用户历史序列仅作为静态的 K/V 对参与 交叉注意力 计算,且这些 K/V 对在模型内部被高效共享,从而极大地降低了计算开销。


4. 方法论 (Methodology - Core Technology & Implementation Details)

本部分详细解析 OneRec-V2 的两大核心技术:懒惰解码器架构基于真实用户交互的偏好对齐

4.1. 懒惰解码器架构 (Lazy Decoder-Only Architecture)

该架构的设计初衷是为了解决 编码器-解码器 架构中,编码器消耗了绝大部分计算资源而解码器计算不足的根本性矛盾。

Figure 4 | Architecture of the proposed lazy decoder-only generative recommender. The Context Processor transforms heterogeneous user feature pathways into unified context representations, which are… 该图像是OneRec-V2中Lazy Decoder-Only生成推荐系统的架构示意图,展示了上下文处理器将多通路用户特征融合生成上下文,再通过堆叠的Lazy Decoder模块进行自注意力和跨注意力计算,最终输出下一项预测。

图像 9: 该图展示了 OneRec-V2 懒惰解码器架构的详细流程。左侧的 Context Processor 负责将用户画像、行为历史等异构特征处理成统一的上下文表示。这些表示随后被输入到右侧堆叠的 Lazy Decoder 模块中,作为 交叉注意力K/V 对。解码器本身只处理一个起始符 BOS 和目标物品的语义 ID,通过 交叉注意力因果自注意力前馈网络 逐层处理,最终预测下一个物品的语义 ID

  • 方法原理 (Methodology Principles):

    • 核心思想: 将计算资源从对上下文的重复编码中解放出来,完全投入到对目标物品的生成中。
    • 直觉: 在一次推荐中,用户历史和画像等上下文信息是静态的 (static)。因此,没有必要在解码器生成每个 Token 时都让编码器重新计算或让解码器对这部分长序列进行完整的 自注意力 计算。可以预先处理好上下文,然后让解码器在需要时“懒惰地”查询即可。
  • 方法步骤与流程 (Steps & Procedures):

    1. 数据组织: 采用“仅新印象组织”(New Impression Only Organization)方式。即输入是用户的历史交互序列,但训练时的损失函数只计算最新一次交互的物品。

      Figure 3 | Naive Impression Organization: The pattern \(\\mathrm { A } { } \\mathrm { B }\) is redundantly trained across multiple impressions. User-Centric Organization: When training on User- \${ \\bolds… 该图像是示意图,展示了三种印象组织方式:(a) 朴素印象组织中模式ext{A B}在多条印象中重复训练。(b) 用户中心组织中,当训练用户2在时间t3t_3的数据时,模型已从用户1在t4t_4的未来交互学习到模式ext{B} o ext{C}。(c) 仅新印象组织只训练最新的印象。

      图像 8: 该图对比了三种数据组织方式。(a) 朴素印象组织 会在不同训练样本中重复学习相同的用户行为模式。(b) 用户中心组织 将一个用户的全部历史打包,可能导致未来信息泄露。(c) 仅新印象组织 将历史作为上下文,只对最新的交互行为计算损失,避免了前两种方式的问题,这也是 OneRec 系列采用的策略。

    2. 上下文处理器 (Context Processor):

      • 将用户的异构特征(如用户画像、短期行为序列、长期行为序列)拼接成一个统一的序列,称为 Context
      • 通过一个线性变换,将 Context 的维度映射为能被后续所有 交叉注意力 层共享的维度。
      • 将这个高维表示切分成 LkvL_{kv} 组键值对 (Key-Value pairs),供解码器的不同层使用。这些 K/V 对在一次前向传播中只计算一次,这是“懒惰”的关键。
    3. 懒惰解码器模块 (Lazy Decoder Block):

      • 输入: 解码器的输入非常短,仅包含一个起始符 [BOS] 和目标物品的前几个语义 ID(例如 [s1,s2][s^1, s^2])。
      • 核心结构: 每个解码器块由三个部分组成:
        1. 懒惰交叉注意力 (Lazy Cross-Attention): 查询 (Query) 来自解码器自身的表示,而键 (Key) 和值 (Value) 来自 Context Processor 预先计算好的 K/V 对。关键创新在于,该模块没有 KKVV 的投影层,直接使用上下文表示,进一步节省了参数和计算。
        2. 因果自注意力 (Causal Self-Attention): 对解码器内部的 TokenBOSs1s^1s2s^2 等)进行注意力计算,捕捉生成序列内部的依赖关系。
        3. 前馈网络 (Feed-Forward Network, FFN): 增加模型的非线性表示能力。在较深层,这部分可以被替换为 混合专家网络 (Mixture-of-Experts, MoE) 以在扩大模型参数的同时保持计算量不变。
  • 数学公式与关键细节 (Mathematical Formulas & Key Details):

    • 键值共享 (KV-Sharing): 为了进一步提升效率,多个解码器层可以共享同一组 K/V 对。第 ll 个解码器层使用的 K/V 对索引 lkvl_{kv} 由下式决定: lkv=lLkvNlayer l_{kv} = \left\lfloor \frac{l \cdot L_{kv}}{N_{layer}} \right\rfloor
      • 符号解释:
        • ll: 当前解码器层的索引。
        • LkvL_{kv}: Context Processor 生成的 K/V 对的总组数。
        • NlayerN_{layer}: 解码器的总层数。
      • 公式目的: 该公式将 NlayerN_{layer} 个解码器层映射到 LkvL_{kv}K/V 对上,实现了层间的 K/V 共享。例如,如果 Lkv=1L_{kv}=1,则所有解码器层都使用同一组 K/V 对。

4.2. 与真实世界用户交互的偏好对齐 (Preference Alignment with Real-World User Interactions)

该框架旨在通过强化学习,让模型直接优化与真实用户满意度相关的指标,而不是代理的奖励模型分数。

  • 方法步骤与流程 (Steps & Procedures):
    1. 时长感知奖励塑造 (Duration-Aware Reward Shaping):

      • 问题: 直接使用视频播放时长作为奖励信号是有偏的,因为长视频的播放时长天然就更长。

      • 解决方案:

        1. 分桶 (Bucketing): 根据视频自身的时长,使用对数函数将用户的历史观看记录分到不同的桶里。

        2. 计算分位数: 对于一个新推荐的视频,将其播放时长与它所属分桶内的所有历史视频的播放时长进行比较,计算其分位数排名 (Quantile Rank)

          该图像是训练曲线的图表,展示了不同参数配置下模型训练过程中Loss值随步骤数变化的趋势,体现了参数\(L_{kv}\)和\(S_{kv}\)对损失变化的影响。 该图像是训练曲线的图表,展示了不同参数配置下模型训练过程中Loss值随步骤数变化的趋势,体现了参数LkvL_{kv}SkvS_{kv}对损失变化的影响。

        图像 12: 该图形象地解释了奖励塑造过程。用户的观看历史根据视频时长被分桶。对于一个目标视频,其奖励分数 qiq_i 是通过计算它的播放时长在对应时长分桶内的分位数排名得到的。

      • 优势值定义 (Advantage Definition): Ai={+1,qi>τB and negi=0,1,negi=1,0,otherwise. A_i = \begin{cases} +1, & q_i > \tau_B \text{ and } neg_i = 0, \\ -1, & neg_i = 1, \\ 0, & \text{otherwise}. \end{cases}

        • 符号解释:
          • AiA_i: 样本 ii 的优势值,用于强化学习。
          • qiq_i: 样本 ii 的时长感知奖励分数(分位数)。
          • τB\tau_B: 一个阈值,例如取分位数排名前 25% 的样本作为正样本。
          • negi=1neg_i=1: 表示用户对样本 ii 有明确的负反馈(如点击“不喜欢”)。
        • 公式目的: 定义一个清晰、离散的奖励信号。只有表现极好(高分位数)的样本才被视为正样本,有明确负反馈的为负样本,其余样本不参与优化,从而过滤掉噪声。
    2. 梯度有界策略优化 (Gradient-Bounded Policy Optimization, GBPO):

      • 问题: 传统的 PPO 算法在处理负样本时,如果模型当前预测概率 πθ\pi_\theta 非常小,会导致策略比率 πθ/πθold\pi_\theta / \pi_{\theta_{old}} 很大,进而产生巨大的梯度,使训练不稳定。

      • 解决方案: GBPO 提出一种新的更新规则,尤其是对负样本。

        Figure 9 | Illustration of GBPO. The \(x\) axis is \(\\pi _ { \\theta } / \\pi _ { \\theta _ { o l d } }\) and the \(y\) -axis is the clipped \(\\pi _ { \\theta } / \\pi _ { \\theta _ { o l d } }\) . "//" means "No… 该图像是图表,展示了GBPO与传统GRPO和ECPO的比率裁剪方法对比,横轴为,纵轴为裁剪后的。GBPO不丢弃梯度,负样本裁剪界限动态变化。

        图像 2: 该图直观对比了 GBPO 与传统 GRPO/ECPO 的策略比率裁剪方式。传统方法对超过一定范围的样本直接“剪掉”梯度(图中“//”部分)。而 GBPO 保留了所有样本的梯度,并通过一个动态的边界来约束负样本的更新,使其更稳定。

      • 核心公式: TGBPO(θ)=EuP(U),{oi}i=1Gπθold[1Gi=1Gπθ(oiu)πθold(oiu)Ai] \mathcal{T}_{GBPO}(\theta) = - \mathbb{E}_{u \sim P(U), \{o_i\}_{i=1}^G \sim \pi_{\theta_{old}}} \left[ \frac{1}{G} \sum_{i=1}^G \frac{\pi_\theta(o_i|u)}{\pi'_{\theta_{old}}(o_i|u)} \cdot A_i \right] 其中,分母 πθold\pi'_{\theta_{old}} 是动态调整的: πθold(oiu)={max(πθold,sg(πθ)),Ai0,max(πθold,1sg(πθ)),Ai<0. \pi'_{\theta_{old}}(o_i|u) = \begin{cases} \max(\pi_{\theta_{old}}, sg(\pi_\theta)), & A_i \ge 0, \\ \max(\pi_{\theta_{old}}, 1 - sg(\pi_\theta)), & A_i < 0. \end{cases}

        • 符号解释:

          • πθ\pi_\theta: 当前策略(模型)的输出概率。
          • πθold\pi_{\theta_{old}}: 旧策略(采样时)的输出概率。
          • sg()sg(\cdot): stop-gradient 操作,意味着该项不参与梯度计算。
        • 公式目的: 对于负样本 (Ai<0A_i < 0),分母被 1πθ1 - \pi_\theta 约束。当 πθ\pi_\theta 趋近于 0 时,分母也趋近于 1,使得整个梯度的行为类似于更稳定的 二元交叉熵 (BCE) 损失,从而避免了梯度爆炸。

          Figure 10 | Training loss curves for different cross-attention configurations. Both key-value sharing (left) and grouped query attention (right) strategies show minimal impact on convergence loss whi… 该图像是图表,展示了OneRec-V2不同模型规模下训练计算预算(以FLOPs为单位)与生成训练损失的平滑曲线,橙线连接各模型最低损失点,反映模型的缩放和收敛趋势。

        图像 13: 该图通过实验对比了 GBPO 和传统方法的梯度范数。左图的 ECPO/GRPO 在训练负样本时梯度出现剧烈波动,而右图的 GBPO 梯度则平滑得多,证明了其稳定性优势。


5. 实验设置 (Experimental Setup)

  • 数据集 (Datasets):

    • 来源: 快手 App 主场景和极速版的真实线上流量数据,时间跨度为 2025 年 8 月 10-14 日。
    • 规模与特点: 这是一个工业级的超大规模数据集,涉及数亿日活跃用户(DAU 400 million)。数据是流式的,包含了丰富的用户行为和多模态物品信息。
    • 选择原因: 使用真实的线上数据进行训练和评估,能最直接地反映模型在实际应用中的表现,避免了离线数据集与线上环境不一致(distribution mismatch)的问题。
  • 评估指标 (Evaluation Metrics):

    • 离线指标 (Offline Metric):

      • 生成损失 (Generation Loss, L_Gen)
        1. 概念定义: 该指标衡量模型预测目标物品语义 ID 的准确性。它是一个基于交叉熵的损失函数,损失值越低,说明模型对下一个要推荐的物品预测得越准。
        2. 数学公式: LGen=13i=13logp(siBOS,s<i,Context) \mathcal{L}_{\mathrm{Gen}} = - \frac{1}{3} \sum_{i=1}^{3} \log p(s^i | \mathrm{BOS}, s^{<i}, \mathrm{Context})
        3. 符号解释:
          • sis^i: 目标物品的第 ii 个语义 ID
          • BOS: 序列开始符。
          • s<is^{<i}: 目标物品的前 i-1 个语义 ID
          • Context: 用户的上下文信息。
          • p()p(\cdot): 模型预测的条件概率。
    • 在线指标 (Online Metrics):

      • 应用停留时长 (App Stay Time)
        1. 概念定义: 用户在一次会话或一天内使用 App 的总时长。这是衡量用户粘性和平台整体价值的核心业务指标。停留时长越长,通常意味着用户对推荐内容越满意。
      • 视频观看数 (Video View)
        1. 概念定义: 用户观看的视频总数量。该指标反映了推荐的分发效率和广度。
      • 7日用户留存价值 (LT7, Lifetime over 7 days)
        1. 概念定义: 衡量新用户在注册后的7天内为平台创造的总价值,通常也与观看时长等深度互动行为挂钩。这是一个衡量长期用户价值的指标。
  • 对比基线 (Baselines):

    • OneRec-V1: 最主要的对比基线,代表了上一代工业级生成式推荐模型的最佳水平。

    • 编码器-解码器 (Encoder-Decoder) 架构变体: 包括编码器和解码器参数比例为 1:11:2 的模型,用于验证 OneRec-V2 架构改进的必要性。

    • 朴素仅解码器 (Naive Decoder-Only) 架构: 作为理论上的对比,用于凸显 懒惰解码器 在计算效率上的巨大优势。


6. 实验结果与分析 (Results & Analysis)

6.1 核心结果分析:架构效率与性能

  • 架构对比 (Table 2 & Figure 5):

    • 转录的 Table 2:

      Architecture Total Parameters GFLOPs Activations Convergence Loss
      Enc:Dec=1:1 0.1B 25.64 4.21B 3.59
      Enc:Dec=1:2 0.1B 17.72 2.92B 3.55
      Naive Dec-Only 0.1B 63.78 7.52B 3.54
      Lazy Dec-Only 0.1B 1.98 0.31B 3.57
      Enc:Dec=1:1 0.5B 142.73 10.79B 3.35
      Enc:Dec=1:2 0.5B 104.73 7.94B 3.32
      Naive Dec-Only 0.5B 317.68 19.28B *
      Lazy Dec-Only 0.5B 9.55 0.77B 3.33
      Enc:Dec=1:1 1B 296.36 17.63B 3.28
      Enc:Dec=1:2 1B 204.21 12.20B 3.26
      Naive Dec-Only 1B 634.83 31.53B *
      Lazy Dec-Only 1B 18.89 1.24B 3.27
    • 分析: 从表格和下图可以看出,在不同模型规模(0.1B, 0.5B, 1B)下,Lazy Decoder-Only 架构的 GFLOPs(计算量)和 Activations(内存占用)相比其他架构有数量级的降低(约减少 90%-95%)。例如在 1B 规模下,其 GFLOPs 仅为 18.89,远低于 Enc:Dec 架构的 200+。尽管计算量大幅降低,其最终的 收敛损失 (Convergence Loss) 与其他架构几乎持平。这强有力地证明了 Lazy Decoder-Only 架构的极致效率。

      Figure 5 | Training curves for different architectures across three model scales. Despite achieving similar loss, Lazy Decoder-Only architecture requires \(1 0 \\times\) fewer FLOPs than classic archite… 该图像是图表,展示了不同架构在三种模型规模下的训练曲线。图中显示,尽管各模型损失相似,Lazy Decoder-Only架构所需的FLOPs比传统架构少10倍,图中注有E1D1和E1D2分别表示编码器-解码器参数比为1:1和1:2。

    图像 10: 该图展示了不同架构在训练过程中的损失变化。可以看到,虽然 Lazy Decoder-Only 的计算量(由 FLOPs 衡量)远低于其他模型,但它最终达到的损失值(纵轴)与 E1D1 (Enc:Dec=1:1) 和 E1D2 (Enc:Dec=1:2) 等复杂模型相当,证明了其高效性。

6.2 消融实验/参数分析

  • 键值共享 (Key-Value Sharing) (Table 3):

    • 转录的 Table 3:

      Lkv Skv GFLOPs Activations Convergence Loss
      1 1 18.89 1.24B 3.27
      1 2 19.19 1.33B 3.27
      3 1 19.49 1.42B 3.27
      9 1 21.27 1.99B 3.27
      18 1 23.95 2.83B 3.27
    • 分析: 实验结果表明,即使采用最激进的共享策略(Lkv=1L_{kv}=1, Skv=1S_{kv}=1,即所有层共享同一组且 KeyValue 相同的上下文表示),模型的最终损失也几乎没有变化(均为 3.27)。这验证了在 Lazy Decoder 架构下,复杂的、分层的上下文表示并非必需,大幅共享并不会损害模型性能,反而能最大化效率。

  • 分组查询注意力 (Grouped Query Attention, GQA) (Table 4):

    • 转录的 Table 4:

      Gkv GFLOPs Activations KV Size Convergence Loss
      14 18.89 1.24B 94M 3.27
      7 18.74 1.19B 47M 3.28
      2 18.64 1.16B 13M 3.28
      1 18.62 1.15B 7M 3.27
    • 分析: Gkv 从 14(接近全注意力)减少到 1(所有查询头共享一组 K/V 头),KV Size(交叉注意力中的 K/V 缓存大小)从 94M 急剧下降到 7M,而 收敛损失 几乎保持不变。这证明了 GQA 是一种极其有效的优化手段,可以在不牺牲模型质量的前提下,显著降低内存占用,从而支持更长的上下文序列或更大的批处理大小。

  • 模型扩展性 (Model Scaling) (Table 5 & Figure 6):

    • 转录的 Table 5 (部分):

      Model Parameters ... Convergence Loss
      Dense 0.1B ... 3.57
      Dense 1B ... 3.27
      Dense 8B ... 3.19
      MoE 4B (0.5B active) ... 3.22
    • 分析:

      1. 规模效应明显: 随着模型参数从 0.1B 增加到 8B,收敛损失 从 3.57 稳步下降到 3.19,表明 Lazy Decoder 架构具有良好的扩展性 (Scaling Law)

      2. MoE 效率出众: 拥有 40 亿总参数但每次只激活 5 亿参数的 MoE 模型,其计算量与 5 亿参数的密集模型相当,但最终损失(3.22)优于 20 亿参数的密集模型(3.23)。这证明 MoE 是在有限计算预算下提升模型容量和性能的极佳途径。

        Figure 6 | Training dynamics of lazy decoder architectures across model scales. Convergence loss decreases from 3.57 (0.1B) to 3.19 (8B). The 4B MoE variant (0.5B activated), denoted as 4BA0.5B in th… 该图像是图表,展示了不同模型规模的懒惰解码器架构的训练曲线。随着模型规模从0.1B增大到8B,收敛损失从3.57降低到3.19。图中包含4B MoE变体(4BA0.5B),在保持计算效率的同时表现出竞争力性能。

    图像 11: 该图展示了不同规模模型的训练动态。可以看到,模型越大(如 8B),最终能达到的损失值越低。值得注意的是,4BA0.5B (MoE 模型) 的曲线以较低的计算成本达到了非常有竞争力的性能水平。

6.3 偏好对齐实验分析

  • 核心结果分析 (基于 Table 6 的文本描述):
    • w/o OneRec Samples (仅使用传统推荐流的样本):OneRec-V1 (仅依赖奖励模型) 相比,采用 时长感知奖励 + GBPO 后,与时长相关的核心指标(App Stay Time, Watch Time)显著提升。这证明了直接利用真实用户反馈信号进行对齐的有效性。但同时也牺牲了 Video View 等其他指标,说明模型可能过度偏向于优化时长。

    • w/ OneRec Samples (混合使用自身生成和传统流的样本): 当训练数据中包含 OneRec 自身推荐流产生的样本后(即引入了在线策略学习 on-policy learning),几乎所有指标都得到提升,特别是 Video View 指标由负转正。

    • 分析: 这一结果揭示了一个关键洞察:当模型的优化目标(时长)与模型的线上行为分布对齐时,能够实现更全面的性能提升。 让模型在自己产生的数据上进行学习和改进,形成了一个良性的“自我提升”闭环,这比单纯在旧系统的数据分布上进行离线优化效果更好。


7. 总结与思考 (Conclusion & Personal Thoughts)

  • 结论总结 (Conclusion Summary):

    • OneRec-V2 通过引入懒惰解码器架构,从根本上解决了生成式推荐模型在编码长用户历史时的计算效率瓶颈,实现了超过 90% 的计算和资源节省,并成功将模型扩展至 80 亿参数,展现了良好的规模效应。
    • 通过基于真实用户反馈的偏好对齐框架(包含 时长感知奖励塑造GBPO 算法),OneRec-V2 摆脱了对代理奖励模型的依赖,实现了与真实用户偏好更精准的对齐,并在大规模 A/B 测试中显著提升了 App Stay Time 等核心业务指标。
    • 这项工作为构建可扩展、高效且与用户价值对齐的工业级端到端生成式推荐系统提供了一条清晰、可行的技术路径。
  • 局限性与未来工作 (Limitations & Future Work):

    • (由于原文截断,此部分基于通用学术实践推断)
    • 奖励设计的复杂性: 尽管 时长感知奖励 很有效,但它仍是一个代理指标。真实的“用户满意度”是多维度的,未来可以探索融合更多信号(如分享、评论、完播率等)的多目标奖励函数。
    • 探索与利用的平衡: 强化学习需要在“利用”已知偏好和“探索”新内容之间取得平衡。目前的框架如何处理这一经典问题,值得进一步研究。
    • 更深度的对齐: 除了行为对齐,未来还可以探索价值观对齐、多模态内容理解对齐等,使推荐更加负责和个性化。
  • 个人启发与批判 (Personal Insights & Critique):

    • 启发:
      1. “懒惰”的智慧: Lazy Decoder 的思想非常巧妙。它抓住了推荐场景中“上下文静态,生成目标动态”的特点,对计算进行了极致的优化。这种“非必要,不计算”的哲学思想在设计大规模AI系统中具有普适的指导意义。
      2. 从“模拟”到“真实”: 从依赖奖励模型(模拟真实反馈)转向直接使用真实用户反馈,是 AI 系统走向真正实用的关键一步。OneRec-V2 的实践证明,处理好真实数据中的偏见和噪声后,其带来的价值远超模拟信号。
      3. 闭环自优化的力量: 实验结果中“w/ OneRec Samples”组的优异表现,凸显了在线学习和自优化闭环的重要性。一个能够从自身行为后果中学习和改进的系统,具有更强的适应性和进化能力。
    • 批判性思考:
      1. 技术报告的性质: 作为一份技术报告,其重点在于展示“what”和“how”,对于“why”的理论分析相对较少。例如,GBPO 算法的收敛性等理论保证并未在文中详细阐述。
      2. 指标的单一性风险: 过度优化 App Stay Time 可能会导致模型推荐更多“时间杀手”类型的内容,而不利于内容生态的多样性和用户的长期福祉。虽然论文声称没有“跷跷板效应”,但在更长的时间维度上评估其对用户行为和内容生态的影响是必要的。
      3. 通用性问题: 该方法在快手短视频场景下取得了巨大成功,但其对其他推荐场景(如电商、新闻)的适用性仍有待验证。不同场景的用户行为模式和奖励信号定义可能存在很大差异。

相似论文推荐

基于向量语义检索推荐的相关论文。

暂时没有找到相似论文。