AiPaper
论文状态:已完成

Large Language Model as Universal Retriever in Industrial-Scale Recommender System

发表:2025/02/05
原文链接PDF 下载
价格:0.10
价格:0.10
已有 6 人读过
本分析由 AI 生成,可能不完全准确,请以原文为准。

TL;DR 精炼摘要

本文提出将大语言模型(LLM)作为工业级推荐系统中的通用召回器,通过多查询表示、矩阵分解与概率采样应对复杂用户关系和海量候选集挑战。该通用召回模型(URM)能高效从千万级商品中召回,离线优于专家模型,并在线上核心指标取得3%的显著提升。

摘要

In real-world recommender systems, different retrieval objectives are typically addressed using task-specific datasets with carefully designed model architectures. We demonstrate that Large Language Models (LLMs) can function as universal retrievers, capable of handling multiple objectives within a generative retrieval framework. To model complex user-item relationships within generative retrieval, we propose multi-query representation. To address the challenge of extremely large candidate sets in industrial recommender systems, we introduce matrix decomposition to boost model learnability, discriminability, and transferability, and we incorporate probabilistic sampling to reduce computation costs. Finally, our Universal Retrieval Model (URM) can adaptively generate a set from tens of millions of candidates based on arbitrary given objective while keeping the latency within tens of milliseconds. Applied to industrial-scale data, URM outperforms expert models elaborately designed for different retrieval objectives on offline experiments and significantly improves the core metric of online advertising platform by 3%3\%.

思维导图

论文精读

中文精读

1. 论文基本信息 (Bibliographic Information)

  • 标题 (Title): Large Language Model as Universal Retriever in Industrial-Scale Recommender System (大语言模型在工业级推荐系统中作为通用召回模型的应用)
  • 作者 (Authors): Junguang Jiang, Yanwen Huang, Bin Liu, Xiaoyu Kong, Xinhang Li, Ziru Xu, Han Zhu, Jian Xu, Bo Zheng.
  • 隶属机构: Taobao & Tmall Group of Alibaba, China (阿里巴巴淘天集团)。这表明本文的研究成果源自于顶尖工业界推荐系统场景的实践与探索,具有很强的现实意义和应用价值。
  • 发表期刊/会议 (Journal/Conference): 论文目前发布在 arXiv 预印本平台。从论文末尾附带的 NeurIPS 格式审查清单 (NeurIPS Paper Checklist) 推断,该论文很可能已投稿或准备投稿至神经信息处理系统大会 (Conference on Neural Information Processing Systems, NeurIPS),这是人工智能和机器学习领域的顶级会议之一。
  • 发表年份 (Publication Year): 2025 (根据 arXiv ID 2502.03041 推断,尽管这可能是年份的简写或格式错误,但我们以其标识为准)。
  • 摘要 (Abstract): 在真实的推荐系统中,不同的召回目标通常需要使用任务特定的数据集和精心设计的模型架构来解决。本文证明了大型语言模型 (LLM) 可以作为一种通用召回模型,在生成式召回框架内处理多种目标。为了在生成式召回中建模复杂的用户-商品关系,作者提出了多查询表示 (multi-query representation)。为了应对工业级推荐系统中海量候选集带来的挑战,作者引入了矩阵分解 (matrix decomposition) 来提升模型的可学习性、判别性和迁移能力,并结合概率采样 (probabilistic sampling) 来降低计算成本。最终,本文提出的通用召回模型 (Universal Retrieval Model, URM) 能够根据任意给定的目标,从数千万的候选商品中自适应地生成一个集合,同时将延迟控制在数十毫秒内。在工业级数据集上的实验表明,URM 在离线评估中优于为不同召回目标精心设计的专家模型,并在线上广告平台的核心指标上取得了 3% 的显著提升。
  • 原文链接 (Source Link):
    • ArXiv: https://arxiv.org/abs/2502.03041
    • PDF: https://arxiv.org/pdf/2502.03041v2.pdf
    • 发布状态: 预印本 (Preprint)。

2. 整体概括 (Executive Summary)

  • 研究背景与动机 (Background & Motivation - Why):

    • 核心问题: 传统工业级推荐系统为了满足多样化的业务需求(如提升点击、促进购买、多场景推荐、挖掘长尾商品等),通常采用“烟囱式”的架构,即为每一个召回目标单独设计和部署一个专门的模型。这种方法存在三大弊端:
      1. 研发成本高昂: 设计、训练、部署和维护大量独立模型,耗时耗力。
      2. 扩展性差: 当出现新的业务目标或目标不明确时(例如,直接优化线上广告收入这类难以定义离线指标的目标),需要重新收集数据、训练模型,缺乏灵活性。
      3. 数据稀疏性: 某些特定目标(如长尾推荐)可能缺乏足够的标注数据,导致模型训练困难。
    • 现有挑战: 尽管多任务学习 (Multi-Task Learning, MTL) 试图在一个模型中解决多个目标,但常常遭遇“跷跷板现象” (seesaw phenomenon),即提升一个任务性能的同时损害了其他任务,模型设计非常复杂。
    • 创新思路: 大语言模型 (LLM) 的出现提供了一个全新的范式。LLM 强大的自然语言理解能力,使得将不同的、甚至模糊的业务目标通过文本指令 (text prompts) 来统一描述成为可能。本文的切入点正是利用 LLM 作为核心引擎,构建一个单一的、能理解并执行各种文本化召回指令的“通用召回模型”。
  • 核心贡献/主要发现 (Main Contribution/Findings - What):

    • 提出了一个通用召回框架 (URM): 本文设计并实现了一个名为 Universal Retrieval Model (URM) 的框架,它使用单个 LLM 模型,通过接收自然语言形式的指令,灵活地执行多种不同的召回任务。
    • 为工业级应用提出三大关键技术: 为了让基于 LLM 的生成式召回在工业级海量数据和严格延迟要求下变得可行,论文提出了三项关键技术创新:
      1. 多查询表示 (Multi-Query Representation): 增强了生成式召回模型的表达能力,使其能更好地捕捉用户复杂多样的兴趣。
      2. 矩阵分解 (Matrix Decomposition): 解决了在千万级商品候选集上直接学习输出层的可学习性 (learnability) 难题,并巧妙地结合了可学习的 ID 表示和泛化的文本内容表示,同时提升了模型的判别性 (discriminability) 和迁移性 (transferability)。
      3. 概率采样 (Probabilistic Sampling): 大幅降低了在海量候选集上进行全量计算的推理成本,将延迟控制在可用范围内,解决了效率 (efficiency) 问题。
    • 取得了显著的业务成果: URM 不仅在离线指标上全面超越了为各个任务独立优化的专家模型,更重要的是,在真实的线上广告平台 A/B 测试中,将核心商业指标(广告收入)提升了 3%,证明了其巨大的实际应用价值。

3. 预备知识与相关工作 (Prerequisite Knowledge & Related Work)

  • 基础概念 (Foundational Concepts):

    • 推荐系统召回 (Retrieval in Recommender Systems): 推荐系统通常分为“召回”和“排序”两个阶段。召回阶段的目标是从海量的商品库(可达千万甚至上亿)中,快速筛选出数百到数千个用户可能感兴趣的候选商品。这个阶段关注的是效率覆盖率。本文的工作就聚焦于召回阶段。
    • 嵌入式召回 (Embedding-Based Retrieval, EBR): 这是工业界最主流的召回方法,也称为“双塔模型”。它分别为用户和商品学习一个低维向量(嵌入),并通过计算向量间的相似度(如内积)来召回商品。其优点是可以通过近似最近邻搜索 (ANN) 技术实现快速检索,但缺点是用户和商品的交互模型过于简单(仅为内积),表达能力有限。
    • 生成式召回 (Generative Retrieval): 这是一种新兴的召回范式,它将召回问题看作一个生成任务。模型直接“生成”用户最可能交互的商品 ID,类似于语言模型生成下一个词。这种方法与 Transformer 和 LLM 架构天然兼容,具有更强的扩展潜力,但也面临着表达能力、可学习性和效率等挑战。
    • 多任务学习 (Multi-Task Learning, MTL): 指在一个模型中同时学习多个相关任务。其优势在于通过共享表示,可以相互借鉴信息,提升整体性能。然而,在实践中,任务间的冲突常常导致“跷跷板现象”,即模型性能不如为每个任务单独训练的单任务模型。
    • 语义 ID (Semantic IDs): 在先前的生成式召回工作中,为了解决商品 ID 词汇表过大的问题,研究者提出将每个商品 ID 分解为一组具有语义含义的、更小词汇表中的“语义词元” (semantic tokens)。模型通过自回归的方式依次生成这些词元来确定最终的商品 ID。这种方法降低了学习难度,但也带来了推理延迟高、细粒度区分能力差和冷启动等问题。
  • 前人工作 (Previous Works):

    • 传统召回模型: 论文对比了多种召回模型,从基于双塔的 EBR,到引入更复杂交互的 Model-Based Retrieval(如基于树结构的模型),再到处理多任务的 MMoEPLE。这些模型要么表达能力不足,要么在处理大量任务时架构设计复杂且效果不稳定。
    • 基于 LLM 的推荐: 此前的工作主要分为两类:
      1. LLM 作为排序模型: 将用户和候选商品的文本描述拼接后输入 LLM 进行打分。这种方法效果虽好,但由于需要对每个候选商品都进行一次 LLM 推理,计算成本极高,完全不适用于召回阶段。
      2. LLM 作为特征编码器: 将用户行为序列等信息输入 LLM,生成用户表示。P5E4SRec 是这类工作的代表,它们将商品 ID 视为特殊词元,但并未系统性地解决在工业级场景下统一处理多召回目标以及海量候选集生成的问题。
    • 生成式召回模型: TIGERIDGenRec 等工作采用了上文提到的 semantic IDs 方案,虽然在学术数据集上取得了进展,但其自回归生成方式导致的高延迟和对 LLM 的多次调用,使其难以在工业级的低延迟场景中部署。
  • 技术演进 (Technological Evolution): 推荐系统的召回技术经历了从简单匹配 (协同过滤) -> 向量化检索 (EBR双塔模型) -> 复杂模型交互 (Model-Based Retrieval) 的演进。生成式召回代表了最新的趋势,而本文则通过引入 LLM 的通用指令理解能力,将生成式召回从“生成单一目标下的商品”提升到了“根据任意指令生成多目标下的商品”的新高度,并解决了其在工业界落地的关键瓶颈。

  • 差异化分析 (Differentiation): 与之前的工作相比,本文的核心创新在于:

    1. 目标统一: 首次提出了一个统一的、指令驱动的通用召回框架,用自然语言处理多样的、甚至动态变化的召回目标,摆脱了传统“一个目标一个模型”或复杂 MTL 架构的束缚。
    2. 非自回归生成: 抛弃了 semantic IDs 的自回归生成路径,采用单次前向传播完成推理,极大地提升了效率,使其满足工业级延迟要求。
    3. 创新的大规模优化方案: 针对千万级候选集,没有沿用 semantic IDs 的思路,而是独创性地结合了**多查询表示矩阵分解概率采样**三大技术,系统性地解决了模型表达能力、可学习性和推理效率的核心矛盾。

4. 方法论 (Methodology - Core Technology & Implementation Details)

本部分详细拆解论文提出的 Universal Retrieval Model (URM) 的技术方案。其目标是构建一个能计算任意用户 uu 在任意目标 oo 下对任意商品 vv 的条件概率 P(vu,o)P(v | u, o) 的单一模型。

Figure 1: URM architecture. The input sequence consists of user description \(u\) , retrieval objective \(o\) and several fixed query tokens. Item IDs in the user description are mapped to item embedding… 该图像是图1:URM架构示意图。它展示了输入序列(用户描述 uu、检索目标 oo 和查询令牌)如何通过嵌入层(包含令牌、项目和位置嵌入)后输入到LLM骨干网络。LLM输出的隐藏特征 F(u,o) 通过映射层 WW 生成 WTF(u,o)W^T F(u,o),最终输出为 max(WTF(u,o),axis=1)\max(W^T F(u,o), \text{axis}=1),以在推荐系统中进行项目检索。LLM骨干网络的参数被完全微调。

上图(图1)展示了 URM 的整体架构。

  • 方法原理 (Methodology Principles): URM 的核心思想是“序列化一切,LLM 理解一切”。它将用户的所有信息(属性、行为)和召回任务的目标都转换成文本序列,然后利用一个经过微调的 LLM 来深度理解这个序列,并生成一个能够指导商品召回的通用表示。最后,通过一个高效的映射层和采样机制,从海量商品库中生成最终的推荐列表。

  • 方法步骤与流程 (Steps & Procedures):

    1. 步骤一:构建统一的输入序列 (Section 3.1)

      • 用户描述 uu: 将用户的所有特征,包括静态属性(如年龄、性别、城市)和动态行为序列(如点击过的商品 [8380]、购买过的 [8274]),全部序列化为一段自然语言文本。商品 ID 被当作特殊的词元 (token) 处理。这种方式相比传统模型能更灵活地处理特征缺失和变长序列。
      • 召回目标 oo: 将不同的召回任务用文本指令来描述,例如:
        • 多场景: "Please retrieve items for scenario A."
        • 多行为: "Please retrieve items that the user will click on."
        • 长尾商品: "Please retrieve long-tail items."
      • 查询词元 (Query Token): 在输入序列的末尾,添加 MM 个固定的、可学习的特殊查询词元,如 [Q1], [Q2], ..., [QM]
    2. 步骤二:生成通用表示 F(u,o)\mathbf{F}(u, o) (Section 3.1)

      • 嵌入层: 文本词元通过 LLM 自带的词嵌入表转换为向量。商品 ID 则通过一个独立的分布式哈希表 (Distributed HashTable) 映射为向量,再通过一个 MLP 投影到与词元嵌入相同的维度。最后,将词元/商品嵌入与位置嵌入相加,得到输入表示。
      • LLM 主干网络: 将整个嵌入序列输入到一个预训练的 LLM (如 Qwen-7B) 中进行编码。LLM 的参数在推荐任务上进行完全微调
      • 多查询表示 (Multi-Query Representation): LLM 的最终输出层中,对应于末尾 MM 个查询词元位置的隐藏状态,即为 MM 组不同的用户表示 F(u,o)RD×M\mathbf{F}(u, o) \in \mathbb{R}^{D \times M}。这个设计的直觉是,单一的向量表示很难捕捉用户在不同方面的兴趣,而 MM 个向量可以分别捕捉用户的不同兴趣侧面(如对衣服的兴趣、对电子产品的兴趣),从而增强模型的表达能力。
    3. 步骤三:从通用表示映射到海量商品空间 (Section 3.2 & 3.3)

      • 映射层 WW: 理论上,需要一个巨大的矩阵 WRD×CW \in \mathbb{R}^{D \times |\mathcal{C}|} (其中 C|\mathcal{C}| 是候选商品数量,可达千万级) 来将用户表示映射到每个商品的分数。直接学习这个矩阵是不可行的。
      • 矩阵分解 (Matrix Decomposition): 为了解决上述问题,论文将 WW 分解为两个低秩矩阵的乘积:W=UVTW = UV^T,其中 URD×HU \in \mathbb{R}^{D \times H}VRC×HV \in \mathbb{R}^{|\mathcal{C}| \times H}HH 是一个远小于 DDC|\mathcal{C}| 的中间维度。这大大减少了参数量。
      • 混合商品表示 VV: 进一步地,为了兼顾判别性 (对见过商品的精细区分) 和迁移性 (对未见过商品或冷启动商品的泛化),矩阵 VV 由两部分相加构成:V=Vdis+VtransV = V_{dis} + V_{trans}
        • VdisV_{dis}: 一个可学习的 ID 嵌入矩阵,为每个商品学习一个独立的向量,擅长捕捉商品的独特性和共现关系。
        • VtransV_{trans}: 通过将商品的元信息(标题、类目、价格等)序列化为文本,输入到一个通用的文本嵌入 LLM 中得到的固定向量,再经过一个可学习的线性层降维得到。它擅长捕捉商品的语义相似性。
      • 最终打分: 对于每个商品 vv,其最终分数是其表示 WvW_vMM 个用户表示 F(u,o)\mathbf{F}(u,o) 内积后的最大值。
      • 训练: 训练时,采用负采样对比估计 (Noise Contrastive Estimation, NCE) 损失函数,避免了对全部商品计算 softmax,从而加速了训练。
      • 推理 (概率采样): 推理时,为了避免对所有商品计算分数,设计了一个高效的迭代采样算法 (Algorithm 1)。其核心思想是: a. 从一个小的随机商品子集开始。 b. 计算这个子集中每个商品的得分概率,并按概率采样出 KK 个“种子”商品。 c. 将这些种子商品以及它们在 WW 空间中的近邻(通过预先构建的 ANN 索引查找)构成一个新的、更大的子集。 d. 重复 b-c 步骤 TT 次。这个过程就像在一个“高价值”区域不断深入探索,最终从千万商品中高效地筛选出最相关的几百个。
  • 数学公式与关键细节 (Mathematical Formulas & Key Details):

    • 多查询表示下的商品概率: P(vu,o)=softmax(max(WTF(u,o),axis=1))v P(v | u, o) = \mathrm{softmax}(\max(W^T \mathbf{F}(u, o), \mathrm{axis}=1))|_v

      • 符号解释:
        • F(u,o)RD×M\mathbf{F}(u, o) \in \mathbb{R}^{D \times M}: 经过 LLM 生成的 MM 个用户表示向量组成的矩阵。
        • WRD×CW \in \mathbb{R}^{D \times |\mathcal{C}|}: 从隐空间到商品空间的映射矩阵。
        • WTF(u,o)W^T \mathbf{F}(u, o): 计算每个商品与 MM 个用户表示的内积,得到一个 C×M|\mathcal{C}| \times M 的分数矩阵。
        • max(,axis=1)\max(\cdot, \mathrm{axis}=1): 对每个商品,取其与 MM 个用户表示内积的最大值作为最终分数。
        • softmax()v\mathrm{softmax}(\cdot)|_v: 对所有商品的最终分数进行归一化,得到商品 vv 的概率。
    • NCE 损失函数: LNCE(u,o)=vP(u,o)logexp[max(WvTF(u,o))]z{v}Nexp[max(WzTF(u,o))] \mathcal{L}_{\mathrm{NCE}}(u, o) = - \sum_{v \in \mathcal{P}(u, o)} \log \frac{\exp[\max(W_v^T \mathbf{F}(u, o))]}{\sum_{z \in \{v\} \cup \mathcal{N}} \exp[\max(W_z^T \mathbf{F}(u, o))]}

      • 符号解释:
        • P(u,o)\mathcal{P}(u, o): 用户 uu 在目标 oo 下的正样本集合(例如,实际点击的商品)。
        • N\mathcal{N}: 从整个商品候选集中采样出的负样本集合。
        • {v}N\{v\} \cup \mathcal{N}: 由一个正样本和多个负样本构成的集合。
        • 该公式的目的是最大化正样本的预测概率,而只在一个很小的子集上进行归一化,从而避免了对整个候选集的计算。

5. 实验设置 (Experimental Setup)

  • 数据集 (Datasets):

    • 公开数据集:
      • 来源: Amazon Review Data [58] 中的三个子集 (Sports & Outdoors, Beauty, Toys & Games) 和 Yelp [81]。
      • 特点: 这些是序列推荐任务的常用基准数据集,规模相对较小,用于验证模型的基础性能。
    • 工业级数据集:
      • 来源: 阿里巴巴线上系统的真实流量日志。
      • 规模: 包含数亿样本,用户行为序列中涉及的独立商品超十亿,候选商品集达千万量级。
      • 特点: 规模巨大,数据分布复杂,包含明确定义的九个召回目标,如点击预测 (CPR)多场景召回 (RSA, RSB, RSC)新颖性召回 (SR)长期兴趣召回 (LR)长尾商品召回 (LIR)购买预测 (PPR)带查询召回 (RQ)。这个数据集是验证模型在真实工业环境中性能的关键。
  • 评估指标 (Evaluation Metrics):

    • HR@K (Hit Rate @ K, 命中率@K):
      1. 概念定义: 衡量在前 K 个推荐结果中,是否命中了用户真实交互的那个商品。这是一个二元指标(要么命中,要么没中),主要评估模型找回正确答案的能力。
      2. 数学公式: HR@K=Number of Users with Hits in Top-KTotal Number of Users \mathrm{HR}@K = \frac{\text{Number of Users with Hits in Top-K}}{\text{Total Number of Users}}
      3. 符号解释: “Hits in Top-K” 指的是测试集中真实的目标商品出现在推荐列表的前 K 位。
    • NDCG@K (Normalized Discounted Cumulative Gain @ K, 归一化折损累计增益@K):
      1. 概念定义: 不仅考虑是否命中,还考虑命中的位置。排名越靠前的命中,得分越高。它比 HR@K 更能反映推荐列表的排序质量
      2. 数学公式: NDCG@K=1UuUDCGu@KIDCGu@K其中DCGu@K=i=1Krelu,ilog2(i+1) \mathrm{NDCG}@K = \frac{1}{|U|} \sum_{u \in U} \frac{\mathrm{DCG}_u@K}{\mathrm{IDCG}_u@K} \quad \text{其中} \quad \mathrm{DCG}_u@K = \sum_{i=1}^{K} \frac{rel_{u,i}}{\log_2(i+1)}
      3. 符号解释:
        • U|U|: 测试用户总数。
        • relu,irel_{u,i}: 用户 uu 的推荐列表中第 ii 个商品的相关性(在本实验中,如果是目标商品则为 1,否则为 0)。
        • IDCGu@K\mathrm{IDCG}_u@K: 理想情况下的 DCG 值,即完美排序下的 DCG 值(在本实验中,因为只有一个正例,所以 IDCG 要么是 1 要么是 0)。
    • R@K (Recall @ K, 召回率@K):
      1. 概念定义: 在工业级数据集中,用户的真实交互可能是一个集合(例如一天内点击的所有商品)。该指标衡量模型召回的 K 个结果中,命中了多少比例的真实交互商品。
      2. 数学公式: R@K=PGG \mathrm{R}@K = \frac{|\mathcal{P} \cap \mathcal{G}|}{|\mathcal{G}|}
      3. 符号解释:
        • P\mathcal{P}: 模型预测的 Top-K 商品集合。
        • G\mathcal{G}: 用户真实交互的商品集合(Ground Truth)。
        • |\cdot|: 集合的大小。
  • 对比基线 (Baselines):

    • 公开数据集: 涵盖了从经典序列推荐模型 (GRU4Rec, SASRec) 到最新的基于 LLM 的模型 (E4SRec, P5) 和生成式召回模型 (TIGER, IDGenRec),对比非常全面。
    • 工业级数据集: 对比了工业界广泛应用的强基线模型:
      • Two-tower Model: 经典的双塔模型。
      • Transformer-based Model: 使用 Transformer 编码用户序列的模型。
      • Attention-DNN: 引入交叉注意力机制的更复杂模型,是这些基线中性能最好的。
      • 同时,还与专门为多任务学习设计的先进架构 (Shared Bottom, MMoE, PLE) 进行了比较,以证明 URM 在处理多任务上的优越性。

6. 实验结果与分析 (Results & Analysis)

  • 核心结果分析 (Core Results Analysis):

    • 公开数据集上的压倒性优势: 从下方的转录表格 Table 1 中可以看出,URM 在四个公开数据集上的 HR@5NDCG@5 指标均远超所有基线模型。例如,在 Sports 数据集上,HR@5 相对最强基线提升了 70.9%,这证明了 URM 框架本身强大的建模能力。

      | Methods | Sports | | Beauty | | Toys | | Yelp | | :-------- | :----- | :----- | :----- | :----- | :----- | :----- | :----- | :----- | | HR@5 | NDCG@5 | HR@5 | NDCG@5 | HR@5 | NDCG@5 | HR@5 | NDCG@5 | HGN | 0.0189 | 0.0120 | 0.0325 | 0.0206 | 0.0321 | 0.0221 | 0.0186 | 0.0115 | GRU4Rec | 0.0129 | 0.0086 | 0.0164 | 0.0099 | 0.0097 | 0.0059 | 0.0152 | 0.0099 | Caser | 0.0116 | 0.0072 | 0.0205 | 0.0131 | 0.0166 | 0.0107 | 0.0151 | 0.0096 | BERT4Rec | 0.0115 | 0.0075 | 0.0203 | 0.0124 | 0.0116 | 0.0071 | 0.0051 | 0.0033 | FDSA | 0.0182 | 0.0122 | 0.0267 | 0.0163 | 0.0228 | 0.0140 | 0.0158 | 0.0098 | SASRec | 0.0233 | 0.0154 | 0.0387 | 0.0249 | 0.0445 | 0.0236 | 0.0162 | 0.0100 | S3-Rec | 0.0251 | 0.0161 | 0.0387 | 0.0244 | 0.0443 | 0.0294 | 0.0201 | 0.0123 | E4SRec | 0.0281 | 0.0196 | 0.0525 | 0.0360 | 0.0566 | 0.0405 | 0.0266 | 0.0189 | P5 | 0.0387 | 0.0312 | 0.0508 | 0.0379 | 0.0648 | 0.0567 | 0.0574 | 0.0403 | TIGER | 0.0264 | 0.0181 | 0.0454 | 0.0321 | 0.0521 | 0.0371 | - | | IDGenRec | 0.0429 | 0.0326 | 0.0618 | 0.0486 | 0.0655 | 0.0481 | 0.0468 | 0.0368 | COBRA | 0.0305 | 0.0215 | 0.0537 | 0.0395 | 0.0619 | 0.0462 | | | URM | 0.0733 | 0.0488 | 0.0929 | 0.0671 | 0.0888 | 0.0619 | 0.0724 | 0.0476 | RI | +70.9% | +49.7% | +50.3% | +38.1% | +35.6% | +9.2% | +26.1% | +18.1%

    • 工业级数据集上的卓越表现: 从转录的 Table 2 可见,URM 在 9 个任务中的 6 个上取得了最佳性能,平均 R@1000 相对最强的 PLE 模型提升了 11.0%。这表明 URM 能够有效克服多任务学习中的“跷跷板现象”,实现了多个目标的共同提升。

      Model Learning Method CPR RSA RSB RSC SR LR LIR PPR RQ AVG
      Two-tower Model STL 0.129 0.271 0.166 0.129 0.069 0.066 0.117 0.146 0.355 0.161
      MTL 0.120 0.205 0.166 0.135 0.064 0.115 0.103 0.173 0.257 0.149
      Transformer- based Model STL 0.198 0.409 0.293 0.208 0.104 0.115 0.213 0.143 0.593 0.253
      MTL 0.192 0.390 0.319 0.221 0.076 0.218 0.207 0.401 0.744 0.308
      Attention- DNN STL 0.253 0.477 0.338 0.260 0.106 0.213 0.251 0.353 0.651 0.323
      MTL 0.238 0.456 0.375 0.277 0.062 0.336 0.265 0.478 0.671 0.351
      MTL-SharedBottom 0.243 0.442 0.376 0.270 0.072 0.337 0.224 0.505 0.745 0.357
      MTL-MMoE 0.233 0.439 0.375 0.257 0.070 0.325 0.218 0.491 0.736 0.349
      MTL-PLE 0.256 0.451 0.397 0.274 0.062 0.327 0.224 0.512 0.761 0.363
      URM MTL 0.263 0.530 0.439 0.362 0.093 0.285 0.240 0.581 0.835 0.403
    • 线上 A/B 测试的巨大成功: 最具说服力的结果是线上实验(转录自 Table 6)。URM 带来了 3.01% 的广告收入提升,这是一个在成熟商业系统中极难实现的巨大增益。同时,CTRCVR 和长尾商品分发量也得到提升,说明 URM 实现了“质”和“量”的全面优化,并有助于生态健康。

      Metric RI
      Revenue +3.01%
      CTR +0.78%
      CVR +1.24%
      #Long-tail Items +2.23%
  • 消融实验/参数分析 (Ablation Studies / Parameter Analysis):

    • 多查询表示的效果:

      Figure 3: The effect of query token number \(M\) 该图像是图3,展示了查询令牌数量 MM 对CPR R@1000性能指标的影响。此图表显示,随着查询令牌数量 MM 从1增加到128,CPR R@1000的值呈现持续上升的趋势,表明增加查询令牌数量有助于提升模型的检索性能。

      上图(图3)显示,随着查询词元数量 MM 的增加,模型的性能 (CPR R@1000) 持续提升。这验证了使用多个查询表示来捕捉用户多方面兴趣的有效性。

    • 矩阵分解中不同表示的作用: Table 3 的结果清晰地展示了 VdisV_{dis}VtransV_{trans} 的互补性。VdisV_{dis}(仅 ID 嵌入)在已见商品上表现好,但在未见商品上差;VtransV_{trans}(仅内容嵌入)在未见商品上表现相对较好。两者结合后,在所有商品和未见商品上都达到了最佳性能,证明了该设计的巧妙之处。

    • 概率采样的有效性: Table 4 的数据显示,随着采样步数 TT 的增加,近似计算得到的召回结果与全量计算的匹配度(召回精度)迅速提高,在 T=4T=4 时已达到 91.0%,证明了该方法在大幅降低计算量的同时,能很好地逼近真实结果。

    • 通用召回能力的验证 (零样本与多任务):

      • 多任务能力: Table 5 展示了 URM 对不同指令的响应能力。例如,当指令从 CPR (点击预测) 变为 SR (新颖性召回) 时,推荐结果中新类目的比例从 18.8% 飙升至 46.2%,展现了模型强大的指令遵循能力。

      • 零样本能力 (Zero-shot): URM 能够理解并执行训练时未见过的混合指令。例如,将 RQ (带查询召回) 和 LIR (长尾召回) 的指令结合,模型能在保持查询相关性的同时,提升长尾商品的推荐比例。

        Figure 4: Performance on unseen queries. 该图像是图4的折线图,展示了模型在不同查询频率下对“已见查询”和“未见查询”的性能(RQ R@1000)。随着查询频率的对数增加,两种查询的性能均呈现上升趋势。在较低频率下,“未见查询”的性能略低于“已见查询”,但在中等频率(LOG2(Query Frequency)约为8-10)时,两者的性能表现相近或“未见查询”略高。

      上图(图4)进一步证明了 URM 的泛化能力,即使对于训练时未见过的查询词,模型依然能保持与已见查询词相当的性能,表现出良好的鲁棒性。

7. 总结与思考 (Conclusion & Personal Thoughts)

  • 结论总结 (Conclusion Summary): 本文成功地论证了 LLM 可以作为工业级推荐系统中的通用召回模型。通过提出 URM 框架及其三大核心技术——多查询表示、矩阵分解和概率采样,作者将多种异构的召回目标统一到一个单一的、由自然语言指令驱动的模型中。URM 不仅在离线评估中超越了各类专家模型,更在线上取得了显著的业务收益,为 LLM 在推荐系统领域的深度应用开辟了一条极具前景的技术路径。

  • 局限性与未来工作 (Limitations & Future Work):

    • 计算成本: 作者坦诚,尽管通过异步调用和采样等方式进行了优化,但 LLM 的训练和推理成本仍然高于传统模型。这是在追求更优效果和更强通用性时必须付出的代价。
    • 任务通用性的边界: 目前 URM 能够很好地泛化到与训练目标相关的新目标上。但对于和训练数据分布差异极大的全新任务,其零样本泛化能力可能有限,仍需要通过引入更多样化的训练数据(如搜索日志)来持续提升。
  • 个人启发与批判 (Personal Insights & Critique):

    1. 范式转变的里程碑: 本文最大的启发在于它展示了从**“面向架构的设计”到“面向语义的设计”**的范式转变。过去,为了解决多任务问题,研究者们绞尽脑汁设计出 MMoE, PLE 等复杂的网络结构。而 URM 则另辟蹊径,利用 LLM 的语义理解能力,将任务的差异性交由自然语言指令来承载,模型本身保持统一和简洁。这大大降低了新业务目标的接入成本,使得“敏捷推荐”成为可能。
    2. 工程与算法的完美结合: URM 的成功并非仅仅依赖于 LLM 的强大,更是源于对工业场景瓶颈的深刻洞察和一系列务实而创新的技术解决方案。多查询表示解决了表达能力瓶颈,矩阵分解解决了可学习性瓶颈,概率采样解决了效率瓶颈。这些技术的组合拳打得非常漂亮,是学术研究与工业实践深度融合的典范。
    3. 对“表达能力”的重新思考: 多查询表示这一设计非常有启发性。它揭示了在复杂的推荐场景中,用单一向量来概括用户的全部意图是一个巨大的信息瓶颈。通过生成多个“兴趣切面”向量,模型可以更灵活、更全面地刻画用户,这比单纯增加单个向量的维度可能更有效。
    4. 潜在的改进方向:
      • V_trans 目前依赖于一个外部的通用文本嵌入模型。如果能将其与 URM 主体进行端到端的联合微调,可能会学习到更适配于推荐任务的商品内容表示。
      • VdisV_{dis}VtransV_{trans} 的融合方式目前是简单的相加。未来可以探索更复杂的融合机制,如门控网络 (gating mechanism),根据不同情境动态调整两者的权重。
    5. 一个微小的瑕疵: 论文中线上实验的时间标注为 "April 28, 2025 - May 14, 2025",这是一个未来的日期,很可能是笔误,应为 2024 年。这虽然不影响结论的有效性,但在严谨的学术论文中应予以修正。

相似论文推荐

基于向量语义检索推荐的相关论文。

暂时没有找到相似论文。