AiPaper
论文状态:已完成

LLM-ESR: Large Language Models Enhancement for Long-tailed Sequential Recommendation

发表:2024/06/03
原文链接
价格:0.10
已有 4 人读过
本分析由 AI 生成,可能不完全准确,请以原文为准。

TL;DR 精炼摘要

提出LLM-ESR框架,结合大语言模型语义嵌入与传统协同信号,采用双视角融合提升长尾物品表示,并通过检索增强自蒸馏强化长尾用户偏好,显著改善长尾序列推荐效果且无额外在线推理开销。

摘要

LLM-ESR: Large Language Models Enhancement for Long-tailed Sequential Recommendation Qidong Liu 1,2 , Xian Wu 3 ∗ , Yejing Wang 2 , Zijian Zhang 2, 4 , Feng Tian 5 ∗ , Yefeng Zheng 3, 6 , Xiangyu Zhao 2 ∗ 1 School of Auto. Science & Engineering, MOEKLINNS Lab, Xi’an Jiaotong University 2 City University of Hong Kong 3 Jarvis Research Center, Tencent YouTu Lab, 4 Jilin University 5 School of Comp. Science & Technology, MOEKLINNS Lab, Xi’an Jiaotong University 6 Medical Artificial Intelligence Lab, Westlake University liuqidong@stu.xjtu.edu.cn , {kevinxwu, yefengzheng}@tencent.com , yejing.wang@my.cityu.edu.hk , zhangzijian@jlu.edu.cn , fengtian@mail.xjtu.edu.cn , xianzhao@cityu.edu.hk Abstract Sequential recommender systems (SRS) aim to predict users’ subsequent choices based on their historical interactions and have found applications in diverse fields such as e-commerce and social media. However, in real-world systems, most users interact with only a handful of items, while the majority of items are seldom con- sumed. These two issues, known as the long-tail user and long-tail item challenges, often pose difficulties for existing SRS. These c

思维导图

论文精读

中文精读

1. 论文基本信息 (Bibliographic Information)

  • 标题 (Title): LLM-ESR: Large Language Models Enhancement for Long-tailed Sequential Recommendation (LLM-ESR: 利用大语言模型增强长尾序列推荐)
  • 作者 (Authors): Qidong Liu, Xian Wu, Yejing Wang, Zijian Zhang, Feng Tian, Yefeng Zheng, Xiangyu Zhao. 作者们来自多所知名高校和企业研究机构,包括西安交通大学、香港城市大学、腾讯优图实验室、吉林大学和西湖大学。这表明该研究结合了学术界的前沿探索和工业界的实践需求。
  • 发表期刊/会议 (Journal/Conference): 论文中未明确提及发表的会议或期刊,但从其研究主题(序列推荐、大语言模型)和深度来看,这类工作通常投稿于计算机科学领域的顶级会议,如 SIGIR、KDD、TheWebConf (WWW) 或 RecSys。
  • 发表年份 (Publication Year): 论文中未明确标注,但根据其引用的 LLaMA 等近期模型和研究(2023年),可以推断该论文为 2023 年末或 2024 年的最新研究成果。
  • 摘要 (Abstract): 论文针对序列推荐系统 (SRS) 中普遍存在的长尾用户(交互稀疏)和长尾物品(鲜少被消费)挑战。现有方法在处理这些问题时,常因数据稀疏而面临“跷跷板效应”或引入噪声。论文提出,大语言模型 (LLM) 的语义理解能力为解决此问题提供了新视角。为此,作者设计了一个名为 LLM-ESR 的增强框架。该框架利用从 LLM 中提取的语义嵌入来增强 SRS,且不增加 LLM 的在线推理负担。具体地,为解决长尾物品问题,设计了一个双视角建模框架,结合了 LLM 的语义信息和传统 SRS 的协同信号;为解决长尾用户问题,提出了检索增强的自蒸馏方法,利用相似用户的丰富交互来增强目标用户的偏好表示。在三个真实世界数据集和三个主流 SRS 模型上的实验证明,LLM-ESR 框架不仅超越了现有基线,还尤其显著地提升了长尾用户和物品的推荐效果。
  • 原文链接 (Source Link): /files/papers/68f1d73475ad44c7719bc3b4/paper.pdf (该链接为本地文件路径,表明这是一份已公开发布的研究论文或预印本)。

2. 整体概括 (Executive Summary)

  • 研究背景与动机 (Background & Motivation - Why):

    • 核心问题: 序列推荐系统 (Sequential Recommender Systems, SRS) 在现实世界中面临严重的长尾问题。具体表现为两个方面:1) 长尾用户挑战 (Long-tail User Challenge):大多数用户只有极少的交互记录,导致模型难以准确学习其偏好。2) 长尾物品挑战 (Long-tail Item Challenge):绝大多数物品很少被用户消费,导致其表示(embedding)学习不充分,难以被推荐出去。
    • 问题重要性与现有挑战: 这个问题严重影响了大部分用户的体验和商家的利益。现有的解决方案,如依赖流行物品与长尾物品共现模式的方法,容易产生跷跷板问题 (seesaw problem),即提升长尾物品推荐性能的同时,损害了流行物品的推荐效果。而为长尾用户增强数据的方法,由于仅依赖协同信息,可能因用户相似度计算不准而引入噪声 (noisy issues)
    • 创新切入点: 论文认为,问题的根源在于交互数据的“内在稀疏性”。而大语言模型 (LLM) 强大的语义理解能力可以从另一个维度(语义)弥补这种稀疏性。因此,本文的创新思路是:在不引入高昂推理成本的前提下,利用 LLM 提供的丰富语义信息来增强传统 SRS,从而同时缓解长尾用户和长尾物品问题。
  • 核心贡献/主要发现 (Main Contribution/Findings - What):

    • 提出了一个模型无关的增强框架 LLM-ESR 这是一个通用框架,可以与任何现有的 SRS 模型(如 SASRec, GRU4Rec)结合,通过引入 LLM 的语义信息来解决长尾挑战。
    • 设计了高效的 LLM 集成方式: 框架通过预先缓存 LLM 生成的语义嵌入,在训练和推理时直接使用,完全避免了 LLM 的在线推理开销,解决了 LLM 在推荐系统部署中的高延迟痛点。
    • 提出了双视角建模解决长尾物品问题: 通过一个语义视角 (semantic-view)(利用冻结的 LLM 物品嵌入)和一个协同视角 (collaborative-view)(利用可训练的传统物品嵌入),并设计了两层融合机制,有效结合了语义关联和协同信号,既能推荐好长尾物品,又不损害头部物品的性能。
    • 提出了检索增强自蒸馏解决长尾用户问题: 利用 LLM 生成的用户语义嵌入构建一个“语义用户库”,从中为长尾用户检索出语义上相似的“信息丰富的”用户。然后通过自蒸馏 (self-distillation) 将这些相似用户的偏好知识迁移给目标长尾用户,从而增强其偏好表示。
    • 实验验证了方法的有效性和通用性: 在三个数据集和三个基干模型上的大量实验表明,LLM-ESR 在总体性能、长尾用户和长尾物品上均取得了显著优于现有方法的表现。

3. 预备知识与相关工作 (Prerequisite Knowledge & Related Work)

  • 基础概念 (Foundational Concepts):

    • 序列推荐系统 (Sequential Recommender System, SRS): 这是一种推荐系统范式,其核心任务是根据用户按时间顺序排列的历史交互序列(如点击、购买记录),预测用户下一个最可能感兴趣的物品。与传统推荐系统不同,SRS 关注用户兴趣的动态演变。常见的模型有基于循环神经网络的 GRU4Rec 和基于自注意力机制的 SASRecBert4Rec

    • 长尾问题 (The Long-Tail Problem): 在许多现实世界的数据分布中(如电商、社交媒体),少数头部实体占据了绝大部分的交互,而大量的尾部实体交互非常稀疏。这在推荐系统中体现为:

      • 长尾用户 (Long-tail User): 交互记录非常少的用户,也称为冷启动用户。模型难以从稀疏数据中学习其偏好。

      • 长尾物品 (Long-tail Item): 很少被购买或点击的物品。由于缺乏足够交互,模型无法学到准确的物品表示。

      • 图1 直观地展示了这个问题:在 Beauty 数据集上,超过 80% 的用户交互少于 10 次,而 SASRec 模型在这些用户上的性能(HR@10)远低于交互丰富的用户。同样,约 71% 的物品交互次数极少,模型在这些物品上的性能也差得多。

        Figure 1: The preliminary experiments of SASRec on Beauty dataset. 该图像是图表,展示了SASRec模型在Beauty数据集上的初步实验结果,分别针对长尾用户挑战和长尾物品挑战。图中左侧为不同用户交互组的命中率HR@10随用户组大小变化趋势,右侧为不同物品交互组的HR@10随物品组大小变化趋势,并用柱状图显示对应用户数和物品数。

    • 大语言模型 (Large Language Models, LLM): 指的是像 GPT-3、LLaMA 这样在海量文本数据上预训练的、拥有数亿至数万亿参数的深度学习模型。它们具备强大的自然语言理解、生成和推理能力。在推荐领域,LLM 可以通过理解物品的标题、描述、评论等文本信息,捕捉物品之间深层次的语义关系,而这正是传统协同过滤方法所缺乏的。

    • 协同过滤 (Collaborative Filtering): 推荐系统的经典思想,其基本假设是“物以类聚,人以群分”。它通过分析大量用户的行为数据,发现用户和物品之间的关联模式(例如,“喜欢物品A的用户也喜欢物品B”)。传统 SRS 很大程度上依赖于这种协同信号,因此在数据稀疏的长尾场景下效果不佳。

    • 语义信息 (Semantic Information): 指从文本、图像等内容中提取的关于“意义”的信息。在本文中,特指通过 LLM 从物品的文本描述(如名称、品牌、价格)中提取的、能反映物品功能、属性、风格等内在特征的向量表示。

    • 知识蒸馏 (Knowledge Distillation): 一种模型压缩和迁移学习技术。它让一个大型、复杂的“教师模型”将其学到的“知识”迁移给一个小型、简单的“学生模型”。自蒸馏 (Self-Distillation) 是其中的一种特殊形式,即教师和学生是同一个模型架构。本文利用这个思想,让模型(作为教师)在“信息丰富”的相似用户数据上提取知识,然后指导模型(作为学生)在目标长尾用户数据上进行学习。

  • 前人工作 (Previous Works):

    • 传统长尾 SRS 方法:
      • CITIES: 专注于长尾物品问题,通过学习一个嵌入推断函数来为长尾物品生成表示。但论文指出,这类方法可能导致跷跷板问题,即过度关注长尾而损害头部物品的性能。
      • MELT: 同时处理长尾用户和物品问题,但其方法完全基于协同过滤视角,未能利用外部知识,因此在处理数据极度稀疏场景时仍有局限。
    • LLM 在推荐中的应用:
      • LLM 作为推荐系统 (LLMs as RS): 这类工作尝试直接用 LLM 进行推荐,例如通过精心设计的提示 (prompt) 或微调 LLM (fine-tuning)。如 ChatRecTALLRec。但这类方法的主要缺点是推理成本极高,难以在要求低延迟的工业推荐场景中部署。
      • LLM 增强推荐系统 (LLMs enhancing RS): 这类工作旨在利用 LLM 的能力来辅助传统推荐模型,而不是取代它们。例如 RLMRecLLMInitLLMInit 的思路是使用 LLM 生成的嵌入来初始化 SRS 模型的物品嵌入层。但其局限在于,在后续的微调过程中,这些宝贵的原始语义信息可能会被“冲刷”掉,无法得到有效保留。
  • 差异化分析 (Differentiation):

    • CITIESMELT 等传统方法相比,LLM-ESR 引入了语义信息作为协同信号之外的重要补充,从根本上缓解了数据稀疏问题。
    • ChatRec 等直接使用 LLM 的方法相比,LLM-ESR 无在线推理成本,通过预计算和缓存嵌入,兼顾了效果与效率。
    • LLMInit 相比,LLM-ESR 的设计更为精巧:1) 它冻结 LLM 语义嵌入并使用一个 Adapter 进行转换,确保了原始语义信息的完整保留;2) 它不仅在物品侧使用 LLM,还在用户侧构建了语义用户库,用于解决长尾用户问题。3) 它的双视角建模和两级融合机制能更好地平衡语义与协同信息。

4. 方法论 (Methodology - Core Technology & Implementation Details)

本论文的核心方法 LLM-ESR 框架如下图所示,主要包含两大模块:双视角建模 (Dual-view Modeling)检索增强自蒸馏 (Retrieval Augmented Self-Distillation)

Figure 2: The overview of the proposed LLM-ESR framework. 该图像是论文中图2的示意图,展示了提出的LLM-ESR框架的整体结构。左侧为通过LLMs获取的语义嵌入与协同嵌入的双视角建模,中间通过序列编码器融合信息,右侧为基于语义用户库的检索增强自我蒸馏方法提升用户偏好表示。

  • 方法原理 (Methodology Principles):

    • 核心思想: 将 LLM 强大的语义理解能力与传统 SRS 高效的协同信号捕捉能力相结合。语义信息对于表示冷门(长尾)物品和用户特别有效,而协同信号在数据充足的流行(头部)物品上表现出色。通过一个统一的框架将两者优势互补,从而全面提升推荐性能,特别是长尾部分的性能。
  • 方法步骤与流程 (Steps & Procedures):

    步骤 0: 离线语义嵌入生成

    • 物品语义嵌入 (Ese\mathbf{E}_{se}): 对每个物品,将其元数据(如名称、品牌、价格等)组织成一个文本提示 (prompt)。然后,使用一个强大的 LLM(如 OpenAI 的 text-embedding-ada-002 API)将这些提示编码成高维向量。所有物品的向量构成物品语义嵌入矩阵 EseRV×dllm\mathbf{E}_{se} \in \mathbb{R}^{|\mathcal{V}| \times d_{llm}}。这个过程是一次性离线完成并缓存的。
    • 用户语义嵌入 (Ullm\mathbf{U}_{llm}): 对每个用户,将其交互过的物品标题序列组织成一个文本提示。同样,使用 LLM 将其编码成用户语义向量。所有用户的向量构成“语义用户库” UllmRU×dllm\mathbf{U}_{llm} \in \mathbb{R}^{|\mathcal{U}| \times d_{llm}}。这个过程也是一次性离线完成并缓存的。

    模块 1: 双视角建模 (Dual-view Modeling) - 应对长尾物品 这个模块包含两个并行的分支,用于从不同角度对用户的交互序列 Su=(v1,v2,,vnu)S_u = (v_1, v_2, \dots, v_{n_u}) 进行建模。

    1. 语义视角建模 (Semantic-view Modeling):

      • 目标: 捕捉物品之间的语义关系。
      • 流程:
        • 对于用户交互序列 SuS_u 中的每个物品 viv_i,从冻结的物品语义嵌入矩阵 Ese\mathbf{E}_{se} 中查找到其对应的 LLM 嵌入 eillm\mathbf{e}_i^{llm}
        • eillm\mathbf{e}_i^{llm} 输入一个可训练的适配器 (Adapter)。这个适配器是一个小型的两层 MLP,用于将高维、固定的 LLM 语义空间映射到低维、可优化的推荐任务空间。
        • 经过适配器后,得到物品的语义嵌入 eise\mathbf{e}_i^{se},从而构成语义嵌入序列 Sse=[e1se,,enuse]\mathcal{S}^{se} = [\mathbf{e}_1^{se}, \dots, \mathbf{e}_{n_u}^{se}]
        • 这个序列后续会经过序列级别的融合(见下文)和序列编码器 fθf_{\theta},最终得到用户的语义视角表示 use\mathbf{u}^{se}
    2. 协同视角建模 (Collaborative-view Modeling):

      • 目标: 捕捉传统的协同过滤信号。
      • 流程:
        • 使用一个可训练的、随机初始化的协同嵌入矩阵 EcoRV×d\mathbf{E}_{co} \in \mathbb{R}^{|\mathcal{V}| \times d}
        • 对于序列 SuS_u 中的每个物品 viv_i,查找其对应的协同嵌入 eico\mathbf{e}_i^{co},构成协同嵌入序列 Sco=[e1co,,enuco]\mathcal{S}^{co} = [\mathbf{e}_1^{co}, \dots, \mathbf{e}_{n_u}^{co}]
        • 优化技巧: 为了缓解语义视角(预训练)和协同视角(从零训练)之间的优化不一致问题,作者使用 Ese\mathbf{E}_{se} 经过主成分分析 (PCA) 降维后的结果来初始化 Eco\mathbf{E}_{co}
        • 这个序列同样会经过序列级别的融合和同一个序列编码器 fθf_{\theta},最终得到用户的协同视角表示 uco\mathbf{u}^{co}。共享编码器 fθf_{\theta} 是为了捕捉共通的序列模式并提高效率。
    3. 两级融合 (Two-level Fusion):

      • 序列级融合 (Sequence-level Fusion): 在送入序列编码器之前,使用交叉注意力 (Cross-attention) 机制让 Sse\mathcal{S}^{se}Sco\mathcal{S}^{co} 两个序列进行信息交互。例如,以 Sse\mathcal{S}^{se} 为查询 (Query),以 Sco\mathcal{S}^{co} 为键 (Key) 和值 (Value),计算出一个融合了协同信息的新语义序列 S^se\hat{\mathcal{S}}^{se}。反之亦然。这使得模型能在早期就捕捉到两个视角之间的细微关联。
      • 逻辑层融合 (Logit-level Fusion): 在得到两个视角的用户表示 use\mathbf{u}^{se}uco\mathbf{u}^{co} 后,将它们拼接 (concatenate) 起来,形成最终的用户表示 [use:uco][\mathbf{u}^{se} : \mathbf{u}^{co}]。同样,物品的最终表示也由其语义和协同嵌入拼接而成 [ejse:ejco][\mathbf{e}_j^{se} : \mathbf{e}_j^{co}]。推荐分数通过计算这两者的点积得到。

    模块 2: 检索增强自蒸馏 (Retrieval Augmented Self-Distillation) - 应对长尾用户 这个模块的目标是为交互稀疏的长尾用户补充“知识”。

    1. 检索相似用户 (Retrieve Similar Users):

      • 对于一个目标用户 kk,利用其在离线阶段生成的 LLM 用户嵌入 ukllm\mathbf{u}_k^{llm}
      • 在整个“语义用户库” Ullm\mathbf{U}_{llm} 中,通过计算余弦相似度,检索出与用户 kk 最相似的 NN 个用户,构成相似用户集 Uk\mathcal{U}_k。这些用户因为交互更丰富,可以被视为“专家用户”。
    2. 自蒸馏 (Self-Distillation):

      • 构建教师信号: 将检索到的 NN 个相似用户的交互序列分别输入到双视角建模模块中,得到他们各自的用户表示 {[ujse:ujco]}jUk\{[\mathbf{u}_j^{se} : \mathbf{u}_j^{co}]\}_{j \in \mathcal{U}_k}。将这些表示进行平均池化 (Mean_Pooling),得到一个聚合的、更鲁棒的“教师”表示 [uTkse:uTkco][\mathbf{u}_{T_k}^{se} : \mathbf{u}_{T_k}^{co}]
      • 构建学生信号: 目标用户 kk 自身通过双视角建模模块得到的表示 [ukse:ukco][\mathbf{u}_k^{se} : \mathbf{u}_k^{co}] 被视为“学生”表示。
      • 计算蒸馏损失: 通过计算教师表示和学生表示之间的均方误差 (MSE) 作为自蒸馏损失 LSD\mathcal{L}_{SD}。在反向传播时,教师表示的梯度被阻断,它只作为指导信号,不参与模型参数的更新。
  • 数学公式与关键细节 (Mathematical Formulas & Key Details):

    • 适配器 (Adapter): eise=W2a(W1aeillm+b1a)+b2a \mathbf { e } _ { i } ^ { s e } = \mathbf { W } _ { 2 } ^ { a } ( \mathbf { W } _ { 1 } ^ { a } \mathbf { e } _ { i } ^ { l l m } + \mathbf { b } _ { 1 } ^ { a } ) + \mathbf { b } _ { 2 } ^ { a }

      • eillm\mathbf{e}_i^{llm}: 物品 ii 的原始 LLM 嵌入。
      • W1a,b1a,W2a,b2a\mathbf{W}_1^a, \mathbf{b}_1^a, \mathbf{W}_2^a, \mathbf{b}_2^a: 适配器中两层 MLP 的权重和偏置,是可训练参数。
      • eise\mathbf{e}_i^{se}: 转换后的物品语义嵌入,其维度与协同嵌入一致。
    • 推荐概率计算 (Recommendation Score): P(vnu+1=vjv1:nu)=[ejse:ejco]T[use:uco] P ( v _ { n _ { u } + 1 } = v _ { j } | v _ { 1 : n _ { u } } ) = [ { \bf e } _ { j } ^ { s e } : { \bf e } _ { j } ^ { c o } ] ^ { T } [ { \bf u } ^ { s e } : { \bf u } ^ { c o } ]

      • [use:uco][\mathbf{u}^{se} : \mathbf{u}^{co}]: 拼接后的最终用户表示。
      • [ejse:ejco][\mathbf{e}_j^{se} : \mathbf{e}_j^{co}]: 拼接后的最终物品表示。
      • TT: 向量转置。
      • 该公式计算用户对候选物品 vjv_j 的偏好得分。
    • 总训练损失 (Total Training Loss): L=LRank+αLSD \mathcal{L} = \mathcal{L}_{Rank} + \alpha \cdot \mathcal{L}_{SD}

      • LRank\mathcal{L}_{Rank}: 主任务损失,采用成对排序损失 (pairwise ranking loss)。它旨在让正样本(下一个真实交互的物品)的得分高于负样本(随机采样的未交互物品)的得分。
      • LSD\mathcal{L}_{SD}: 辅助任务损失,即前述的自蒸馏损失。
      • α\alpha: 超参数,用于平衡主任务和辅助任务的重要性。

    推理过程 (Inference): 在预测阶段,只使用双视角建模模块。输入一个用户的交互序列,通过框架计算出所有候选物品的得分,并排序推荐 top-K 物品。由于自蒸馏模块被移除,且 LLM 嵌入是预先缓存的,整个推理过程非常高效,与传统的 SRS 模型相比没有显著增加延迟。

5. 实验设置 (Experimental Setup)

  • 数据集 (Datasets):

    • 实验使用了三个公开的真实世界数据集:Yelp, Amazon Fashion, 和 Amazon Beauty
    • 这些数据集广泛应用于推荐系统研究,具有不同的领域特征和数据稀疏度,能够有效检验模型的泛化能力。
    • 数据预处理遵循了 SASRec 等经典 SRS 工作的标准流程,保证了比较的公平性。
  • 评估指标 (Evaluation Metrics):

    • 实验采用留一法 (leave-one-out) 进行评估,对每个用户的最后一个交互物品作为正样本,并额外随机采样100个用户未交互过的物品作为负样本。模型需要在这101个物品中进行排序。

    • 命中率@10 (Hit Rate@10, HR@10):

      1. 概念定义: 该指标衡量推荐系统在前 10 个推荐结果中,是否成功“命中”了用户真正交互的那个物品(即正样本)。它是一个二元指标(要么命中,要么没命中),关注的是推荐列表“有没有用”。
      2. 数学公式: HR@K=1UuUI(rankuK) \mathrm{HR}@K = \frac{1}{|\mathcal{U}|} \sum_{u \in \mathcal{U}} \mathbb{I}(\text{rank}_{u} \le K)
      3. 符号解释:
        • U|\mathcal{U}|: 测试集中的用户总数。
        • I()\mathbb{I}(\cdot): 指示函数 (Indicator Function),当条件成立时为 1,否则为 0。
        • ranku\text{rank}_{u}: 用户 uu 的正样本在推荐列表中的排名。
        • KK: 推荐列表的长度,本文中为 10。
    • 归一化折损累计增益@10 (Normalized Discounted Cumulative Gain@10, NDCG@10):

      1. 概念定义: 与 HR@10 不同,NDCG@10 不仅关心是否命中,还关心“命中位置”的好坏。如果正样本排在推荐列表越靠前的位置,得分就越高。它是一个更精细的、衡量排序质量的指标。
      2. 数学公式: NDCG@K=1UuUDCGu@KIDCGu@KwhereDCGu@K=i=1Krelilog2(i+1) \mathrm{NDCG}@K = \frac{1}{|\mathcal{U}|} \sum_{u \in \mathcal{U}} \frac{\mathrm{DCG}_u@K}{\mathrm{IDCG}_u@K} \quad \text{where} \quad \mathrm{DCG}_u@K = \sum_{i=1}^{K} \frac{rel_i}{\log_2(i+1)}
      3. 符号解释:
        • relirel_i: 推荐列表中第 ii 个位置物品的相关性。在本实验设置中,如果该物品是正样本,则 reli=1rel_i = 1,否则为 0。
        • DCGu@K\mathrm{DCG}_u@K: 用户 uu 的折损累计增益,对排在后面的命中给予惩罚(分母 log 项)。
        • IDCGu@K\mathrm{IDCG}_u@K: 理想情况下的 DCG,即正样本排在第一位的 DCG 值。用它进行归一化,确保 NDCG 的值在 0到1 之间。
  • 对比基线 (Baselines):

    • 基干模型 (Backbone Models): GRU4Rec, Bert4Rec, SASRecLLM-ESR 分别与这三个模型结合,以验证其通用性。
    • 传统长尾增强方法:
      • CITIES: 专门解决长尾物品问题的代表性方法。
      • MELT: 同时解决长尾用户和物品问题的代表性方法。
    • LLM 增强方法:
      • RLMRec: 一种利用 LLM 辅助协同过滤的方法。
      • LLMInit: 使用 LLM 嵌入初始化物品嵌入层的代表性方法。

6. 实验结果与分析 (Results & Analysis)

  • 核心结果分析 (Core Results Analysis):

    以下为论文中 Table 1 的转录数据,展示了在三个数据集上,不同方法结合不同基干模型时的总体性能、长尾/头部物品性能、长尾/头部用户性能。

    Dataset & Model Overall Item Group User Group
    H@10 N@10 Tail H@10 Tail N@10 Head H@10 Head N@10 Tail H@10 Tail N@10 Head H@10 Head N@10
    Yelp GRU4Rec 0.48790.27510.01710.00590.62650.35440.49360.27830.47560.2618
    CITIES0.48980.27490.01340.00510.63010.35430.50460.28650.47500.2671
    MELT0.49850.28250.02010.00790.63930.3633----
    RLMRec0.48860.27700.01880.00670.62690.35740.49200.28040.47560.2671
    LLMInit0.48720.27490.02010.00720.62460.35370.49080.27500.47320.2647
    LLM-ESR0.5724*0.3413*0.0763*0.0318*0.7184*0.4324*0.5782*0.3456*0.5501*0.3247*
    Bert4Rec 0.53070.30350.01150.00440.68360.39160.53250.30470.52410.2988
    CITIES0.52490.30150.00410.00140.67830.38990.52740.30320.51550.2954
    MELT0.62060.37700.04290.01490.79070.48360.62100.37800.61910.3733
    RLMRec0.53360.30390.01040.00400.69380.39220.53510.30650.51370.2936
    LLMInit0.61990.37810.08740.03300.77660.47970.62040.37960.61780.3723
    LLM-ESR0.6623*0.4222*0.1227*0.0500*0.8212*0.5318*0.6637*0.4247*0.6571*0.4127*
    SASRec 0.59400.35970.11420.04950.73530.45110.58930.35780.61220.3672
    CITIES0.58280.35400.15320.07000.70930.43760.57850.35110.59940.3649
    MELT0.62570.37910.10150.03710.78010.47990.62460.38040.62990.3744
    RLMRec0.59900.36230.09530.04120.74740.45680.59660.36130.60840.3658
    LLMInit0.64150.39970.17600.07890.77850.49410.64030.40100.64620.3948
    LLM-ESR0.6673*0.4208*0.1893*0.0845*0.8080*0.5199*0.6685*0.4229*0.6627*0.4128*
    Fashion GRU4Rec 0.47980.38090.02570.01010.66060.52850.37810.25770.61180.5408
    CITIES0.47620.37430.02520.01030.65570.51910.37290.25010.61030.5354
    MELT0.48840.39750.02910.01120.67120.55130.38900.27700.61730.5538
    RLMRec0.47950.38080.02530.01050.66030.52820.37730.25770.61200.5405
    LLMInit0.48640.40950.02500.01040.67020.56840.38520.29730.61770.5550
    LLM-ESR0.5409*0.4567*0.0807*0.0384*0.7242*0.6233*0.4560*0.3568*0.6651*0.5864*
    Bert4Rec 0.46680.36130.01420.00670.64700.50240.35000.23440.61830.5258
    CITIES0.49260.40900.02230.00990.67990.56790.39520.29750.61900.5535
    MELT0.48970.38100.00590.00190.68230.53190.38420.25140.62660.5491
    RLMRec0.47440.35670.00440.00150.66150.49810.36260.22680.61940.5251
    LLMInit0.48540.40350.03280.01610.66550.55770.37730.28460.62550.5578
    LLM-ESR0.5487*0.4529*0.0525*0.0225*0.7462*0.6243*0.4629*0.3460*0.6599*0.5910*
    SASRec 0.49560.44290.04540.02350.67480.60990.39670.33900.62390.5777
    CITIES0.49230.44230.04070.02140.67210.60980.39360.33920.62030.5760
    MELT0.48750.41500.03680.01440.66700.57450.37920.29330.62800.5729
    RLMRec0.49820.44570.04100.02230.68030.61430.39900.34150.62700.5808
    LLMInit0.51190.44920.05960.03050.69200.61590.41840.35010.63320.5780
    LLM-ESR0.5619*0.4743*0.1095*0.0520*0.7420*0.6424*0.4811*0.3769*0.6668*0.6005*
    Beauty GRU4Rec 0.36830.22760.07960.05670.43710.26830.35840.21910.41350.2663
    CITIES0.24560.14000.11220.07600.27740.15520.23820.13460.27950.1645
    MELT0.37020.21610.09000.06030.45820.26750.36370.21160.39970.2365
    RLMRec0.36680.22780.07800.05600.43570.26880.35760.22020.40890.2626
    LLMInit0.41510.27130.08960.06370.49280.32080.40590.26210.45710.3133
    LLM-ESR0.4917*0.3140*0.1547*0.0801*0.5721*0.3698*0.4851*0.3079*0.5220*0.3420*
    Bert4Rec 0.39840.23670.01010.00380.49100.29220.38510.22720.45930.2801
    CITIES0.39610.23390.00230.00080.49000.28950.38320.22500.45510.2746
    MELT0.47160.29650.07090.02910.56710.36030.45960.28650.52630.3423
    RLMRec0.39700.23650.00900.00320.49030.29210.38530.22770.45390.2765
    LLMInit0.50290.32090.09270.04510.60070.38700.49190.31170.55300.3632
    LLM-ESR0.5393*0.3590*0.1379*0.0745*0.6350*0.4269*0.5295*0.3507*0.5839*0.3972*
    SASRec 0.43880.30300.08700.06490.52270.35980.42700.29410.49260.3438
    CITIES0.22560.14130.13630.08970.24680.15360.22150.14060.24410.1444
    MELT0.43340.27750.04600.01720.52580.33950.42330.26730.47960.3241
    RLMRec0.44600.30750.09240.06580.53030.36520.43650.30160.48920.3345
    LLMInit0.54550.36500.17140.09650.63470.42980.53590.35920.5893

相似论文推荐

基于向量语义检索推荐的相关论文。

暂时没有找到相似论文。