CARE: Contextual Adaptation of Recommenders for LLM-based Conversational Recommendation
TL;DR 精炼摘要
CARE框架通过将外部推荐系统作为领域专家集成,与大型语言模型协同工作,实现对话推荐中的上下文适应。该方法弥补了传统LLM零/少样本推荐的领域适应不足及协同关系忽视,显著提升推荐准确性和多样性。
摘要
We tackle the challenge of integrating large language models (LLMs) with external recommender systems to enhance domain expertise in conversational recommendation (CRS). Current LLM-based CRS approaches primarily rely on zero- or few-shot methods for generating item recommendations based on user queries, but this method faces two significant challenges: (1) without domain-specific adaptation, LLMs frequently recommend items not in the target item space, resulting in low recommendation accuracy; and (2) LLMs largely rely on dialogue context for content-based recommendations, neglecting the collaborative relationships among entities or item sequences. To address these limitations, we introduce the CARE (Contextual Adaptation of Recommenders) framework. CARE customizes LLMs for CRS tasks, and synergizes them with external recommendation systems. CARE (a) integrates external recommender systems as domain experts, producing recommendations through entity-level insights, and (b) enhances those recommendations by leveraging contextual information for more accurate and unbiased final recommendations using LLMs. Our results demonstrate that incorporating external recommender systems with entity-level information significantly enhances recommendation accuracy of LLM-based CRS by an average of 54% and 25% for ReDial and INSPIRED datasets. The most effective strategy in the CARE framework involves LLMs selecting and reranking candidate items that external recommenders provide based on contextual insights. Our analysis indicates that the CARE framework effectively addresses the identified challenges and mitigates the popularity bias in the external recommender.
思维导图
论文精读
中文精读
1. 论文基本信息
1.1. 标题
CARE: Contextual Adaptation of Recommenders for LLM-based Conversational Recommendation (CARE: 用于基于LLM的对话推荐的推荐器的上下文适应)
1.2. 作者
- Chuang Li (National University of Singapore, Singapore)
- Yang Deng (Singapore Management University, Singapore)
- Hengchang Hu (National University of Singapore, Singapore)
- See-Kiong Ng (National University of Singapore, Singapore)
- Min-Yen Kan (National University of Singapore, Singapore)
- Haizhou Li (Chinese University of Hong Kong ShenZhen, China)
1.3. 发表期刊/会议
ACM, New York, NY, USA (Conference acronym XX) 备注: 论文中提及“Make sure to enter the correct conference title from your rights confirmation email (Conference acronym XX)”,表明会议名称此处为占位符,具体会议名称待定。
1.4. 发表年份
2025年 (Published at UTC: 2025-08-19T14:53:30.000Z)
1.5. 摘要
本文旨在解决将大型语言模型 (Large Language Models, LLMs) 与外部推荐系统集成,以增强对话推荐系统 (Conversational Recommender System, CRS) 中领域专业知识的挑战。当前基于LLM的CRS方法主要依赖于零样本 (zero-shot) 或少样本 (few-shot) 方法,根据用户查询生成物品推荐。然而,这种方法面临两个主要挑战:(1) 在缺乏领域特定适应 (domain-specific adaptation) 的情况下,LLMs经常推荐目标物品空间中不存在的物品,导致推荐准确性低;(2) LLMs在推荐时主要依赖对话上下文 (dialogue context) 进行内容基推荐 (content-based recommendations),而忽略了实体之间或物品序列之间的协同关系 (collaborative relationships)。
为了解决这些限制,研究者引入了 CARE (Contextual Adaptation of Recommenders) 框架。CARE 框架为CRS任务定制LLMs,并使其与外部推荐系统协同工作。具体而言,CARE (a) 将外部推荐系统作为领域专家集成,通过实体级别洞察 (entity-level insights) 生成推荐;(b) 利用上下文信息增强这些推荐,以通过LLMs获得更准确和无偏的最终推荐。
实验结果表明,结合了实体级别信息的外部推荐系统显著提高了基于LLM的CRS的推荐准确性,在ReDial和INSPIRED数据集上平均分别提升了54%和25%。CARE框架中最有效的策略是LLMs根据上下文洞察,选择并重新排序外部推荐器提供的候选物品。分析表明,CARE框架有效地解决了已识别的挑战,并缓解了外部推荐器中的流行度偏差 (popularity bias)。
1.6. 原文链接
- 原文链接: https://arxiv.org/abs/2508.13889
- PDF 链接: https://arxiv.org/pdf/2508.13889v1.pdf 发布状态: 预印本 (arXiv)
2. 整体概括
2.1. 研究背景与动机
对话推荐系统 (CRS) 旨在通过多轮对话帮助用户实现推荐相关目标。与传统推荐系统主要使用实体级别信息 (entity-level information) (如物品名称、ID或属性) 作为输入不同,CRS采用对话数据 (如对话历史) 作为输入,更符合现实场景。CRS的主要任务是:1) 根据用户的查询或兴趣推荐物品,以及 2) 生成高质量的对话响应。
然而,有效利用对话历史生成准确推荐是CRS的一个关键挑战。随着大型语言模型 (LLMs) 的兴起,它们在零样本 (zero-shot) CRS应用中表现出令人印象深刻的语言能力。但现有的基于LLM的CRS方法存在两个显著挑战:
-
项目空间差异 (Item Space Discrepancy): LLMs在预训练数据与领域特定物品空间 (domain-specific item space) 不一致时,常常推荐目标领域之外的物品,导致推荐准确性低,用户体验下降。这被称为LLMs的“幻觉”问题,即生成不存在或不相关的物品。
-
项目信息忽略 (Item Information Negligence): LLMs主要依靠对话上下文进行内容基推荐 (content-based recommendations),缺乏对物品之间协同关系 (collaborative relationships) 或物品序列的理解,因为它们通常在零样本/少样本学习 (zero-/few-shot learning) 设置下缺乏物品特定训练数据和全面的用户历史。这意味着LLMs难以捕捉用户和物品之间的复杂交互模式,尤其是在冷启动 (cold-start) 场景中。
尽管这些挑战在之前的研究中已被承认,但在后续的CRS研究中仍未得到有效解决。因此,本文的动机是开发一个框架,能够弥补LLMs在领域专业知识和协同关系理解方面的不足,从而提高基于LLM的CRS的推荐准确性和用户满意度。
2.2. 核心贡献/主要发现
本文提出了 CARE (Contextual Adaptation of Recommenders) 框架,旨在将LLMs与外部推荐系统相结合,以应对上述挑战。其核心贡献和主要发现包括:
- 识别并解决了LLM-based CRS的两大挑战: 明确指出了LLM-based CRS中普遍存在的“项目空间差异”和“项目信息忽略”问题,并设计了框架来直接解决这些问题。
- 引入CARE框架以融合实体级和上下文信息: CARE框架通过以下方式实现:
- 集成外部推荐器作为领域专家: 使用轻量级的Transformer基 (Transformer-based) 序列推荐器,根据对话历史中提取的实体序列生成目标领域内的候选物品列表,从而解决项目空间差异问题。
- LLMs进行上下文适应: LLMs作为重排序器 (re-rankers),利用对话上下文和用户意图,对外部推荐器提供的候选物品进行选择和重新排序,从而弥补项目信息忽略的不足,并引入细致的用户偏好。
- 显著提升推荐准确性: 在ReDial和INSPIRED两个主流CRS基准数据集上,CARE框架显著优于现有的基于学习 (learning-based) 和基于LLM的方法。实验结果显示,推荐准确性在ReDial和INSPIRED数据集上平均分别提高了54%和25%。
- “选择然后重排序 (selection-then-reranking)”策略的有效性: 研究发现,LLMs通过选择和重新排序外部推荐器提供的候选物品,而不是自由生成物品,是CARE框架中最有效的策略,这表明LLMs在领域特定任务 (domain-specific tasks) 中作为筛选器和优化器比作为生成器表现更好。
- 缓解流行度偏差: 通过LLMs的上下文适应,CARE框架能够有效缓解外部推荐器中常见的流行度偏差 (popularity bias),使推荐结果更加多样化并与用户当前意图更匹配。
- 训练效率高且模块化: 框架采用零样本 LLM 推理 (zero-shot LLM inference) 结合一个参数量极小的外部推荐器,具有很高的训练效率。其模块化设计也使得组件可以灵活替换和升级。
3. 预备知识与相关工作
3.1. 基础概念
3.1.1. 对话推荐系统 (Conversational Recommender System, CRS)
CRS是一种通过多轮自然语言对话来理解用户需求并提供个性化推荐的系统。与传统的推荐系统(通常是基于用户历史行为或物品属性)不同,CRS能够主动提问、澄清用户偏好,并根据实时对话上下文动态调整推荐。其核心目标是根据用户的查询和兴趣推荐物品,并生成高质量的对话响应。
3.1.2. 大型语言模型 (Large Language Models, LLMs)
LLMs是基于Transformer (Transformer) 架构的深度学习模型,通过在海量文本数据上进行预训练而获得强大的语言理解和生成能力。它们能够执行多种自然语言处理任务,包括文本生成、问答、摘要和翻译等。在CRS中,LLMs因其卓越的语言能力被用于理解用户意图、生成对话响应和提供物品推荐。
3.1.3. 零样本/少样本学习 (Zero-shot/Few-shot Learning)
- 零样本学习 (Zero-shot Learning): 指模型在训练过程中从未见过某个类别或任务的示例,但在推理时能够对该类别或任务进行识别或处理的能力。在LLM-based CRS中,这意味着LLM无需特定领域的微调,直接根据预训练知识和提示进行推荐。
- 少样本学习 (Few-shot Learning): 指模型仅通过少量示例就能快速学习并推广到新任务或新类别的能力。
3.1.4. 实体级别信息 (Entity-level Information) 与 对话上下文 (Dialogue Context)
- 实体级别信息 (Entity-level Information): 指从对话中提取的具体、可识别的实体,如物品名称(电影名)、属性(类型、演员)、用户ID等。这些信息通常是结构化的或半结构化的,可以被传统推荐系统直接利用。
- 对话上下文 (Dialogue Context): 指对话的历史记录,包括用户和系统的所有言论,以及其中蕴含的隐式偏好、情绪、意图等。LLMs擅长从这些自然语言文本中捕捉细微的用户意图和偏好。
3.1.5. 项目空间差异 (Item Space Discrepancy)
这是指LLMs在生成推荐时,由于其预训练数据与目标推荐领域的物品集合(即“项目空间”)不完全匹配,可能推荐出在该领域中不存在、不相关或无法提供的物品。例如,一个预训练在通用语料上的LLM可能推荐一部虚构电影或一个在该电影平台上架的电影。
3.1.6. 项目信息忽略 (Item Information Negligence)
指LLMs在进行推荐时,往往过度依赖对话文本中的内容基 (content-based) 提示,而忽略了协同过滤 (collaborative filtering) 方法所能捕捉到的、基于用户和物品交互历史的协同关系 (collaborative relationships),如用户间的相似性或物品间的共同偏好。这导致LLMs难以利用用户行为序列或群体偏好来提供更全面的推荐。
3.1.7. 序列建模 (Sequential Modelling)
一种推荐范式,它关注用户与物品互动的时间顺序,通过分析用户过去的互动序列来预测其下一步可能感兴趣的物品。在CRS中,这通常涉及提取对话中提及的实体(如电影、属性)序列,并以此来学习用户动态偏好。
3.1.8. 流行度偏差 (Popularity Bias)
指推荐系统倾向于推荐那些已经很受欢迎的物品,而忽略了长尾(不那么受欢迎但可能更小众和个性化)物品的现象。这种偏差会限制用户发现新奇物品的机会,并可能加剧热门物品的马太效应。
3.2. 前人工作
3.2.1. 对话推荐系统的发展 (Evolution of Conversational Recommender Systems)
早期的CRS主要采用基于属性的方法 (attribute-based approaches),系统和用户通过模板化的方式交换物品或属性实体。随着技术发展,研究重点转向对话方法 (conversational approaches),系统通过自然语言与用户互动。大多数对话方法中的CRS使用语言模型 (Language Models, LMs) (如 DialoGPT) 进行学习基偏好建模 (learning-based preference modelling),通过从对话或外部知识图中编码的词或实体嵌入来生成推荐或系统响应。
3.2.2. 基于LLM的CRS (LLM-based CRS)
LLMs作为零样本/少样本对话推荐器 (zero-/few-shot conversational recommenders) 在CRS中展现出潜力,使用基于物品 (item-based) 或基于对话 (conversational inputs) 的输入来生成推荐结果。然而,LLMs的性能严重依赖其内部知识 (internal knowledge),在知识稀缺的领域性能会显著下降。因此,有研究将LLMs与外部智能体 (external agents) 集成,以提供必要的知识资源或从外部知识库检索信息,从而提高在领域特定CRS任务 (domain-specific CRS tasks) 中的表现。
3.2.3. CRS中的序列建模 (Sequential Modelling in CRS)
序列建模 (Sequential Modelling) 非常适合CRS,原因有二:1) CRS中的实体以序列流的形式被提及,并最终导向推荐;2) CRS常面临用户档案未见的冷启动 (cold-start) 场景,限制了协同过滤 (collaborative filtering) 方法的应用。Transformer (Transformer) 模型在序列推荐中表现优异,也因此被应用于CRS中,通过将对话中提及的实体作为序列,并使用位置嵌入 (positional embedding) 或知识感知位置编码 (knowledge-aware positional encoding)。然而,现有序列建模方法通常只使用实体级别信息,而忽略了上下文信息。
3.3. 技术演进
CRS领域从早期的模板式、属性基交互,逐步演进到基于语言模型进行自然语言对话的更智能系统。LLMs的出现进一步推动了CRS的发展,使其能够更好地理解和生成自然语言。然而,LLMs的通用性也带来了领域特定知识 (domain-specific knowledge) 缺乏和协同信息 (collaborative information) 利用不足的问题。为了弥补这些不足,研究者尝试将LLMs与外部知识源结合,或利用序列建模捕捉用户动态偏好。本文的CARE框架正是这一演进路线上的重要一步,它尝试通过整合外部的、领域专业的序列推荐器与LLM的上下文理解能力,来同时解决LLM在CRS中的两大核心挑战:项目空间差异和项目信息忽略。
3.4. 差异化分析
CARE框架与现有工作的主要区别和创新点在于其协同集成 (synergistic integration) 方式:
- 与传统LLM-based CRS的区别: 传统的LLM-based CRS (如ZSCRS、Llama 3) 主要依赖LLM自身的内部知识和零样本能力直接生成推荐,容易产生项目空间差异 (item space discrepancy) 和项目信息忽略 (item information negligence)。CARE则引入外部领域专家 (domain expert) (即外部推荐器) 来确保推荐在目标物品空间内,并提供实体级别的序列信息,这是LLM自身难以直接获得的。
- 与传统序列推荐器的区别: 传统的序列推荐器(如SASRec)擅长捕捉实体级别序列的协同模式 (collaborative patterns),但通常无法理解自然语言对话中蕴含的细微上下文和用户意图。CARE通过LLM对外部推荐器提供的候选列表进行上下文适应 (contextual adaptation)、选择和重排序,从而融合了上下文信息,克服了传统序列推荐器上下文无关 (context-agnostic) 的局限性,并能缓解流行度偏差 (popularity bias)。
- 与现有LLM-与外部知识集成方法的区别: 现有的一些方法将LLMs与外部知识库(如KBRD、KGsF)或记忆(如MemoCRS)结合。CARE的独特之处在于其将一个专门训练的、轻量级的序列推荐器作为一个独立的、提供实体级别洞察 (entity-level insights) 的“专家”系统,然后利用LLM强大的上下文理解和推理能力对其输出进行再加工 (re-processing),实现更深层次的协同,而非仅仅是知识检索或记忆增强。CARE的模块化设计也使得这种协同更加灵活高效。
4. 方法论
4.1. 方法原理
CARE框架的核心思想是结合大型语言模型 (LLMs) 强大的自然语言理解和上下文推理能力,与外部推荐系统在实体级别 (entity-level) 序列建模和领域专业知识方面的优势,共同完成对话推荐系统 (CRS) 任务。其直觉在于,LLMs虽然擅长理解对话,但缺乏对特定领域物品空间的精确知识和物品间协同关系 (collaborative relationships) 的理解;而外部推荐系统(特别是序列推荐器)能够捕捉物品间的复杂模式并确保推荐在目标物品空间内,但缺乏对自然语言对话中细微上下文的感知。
CARE框架通过一个两阶段过程实现这一协同:
-
外部推荐器 (External Recommender) 生成候选集: 首先,从对话历史中提取实体序列 (entity sequences),并输入到一个轻量级的Transformer基 (Transformer-based) 序列推荐器。这个推荐器作为领域专家 (domain expert),根据实体级别的历史互动和序列模式,生成一个初步的、在目标领域内的候选物品列表 (candidate item set)。这解决了LLMs的项目空间差异 (item space discrepancy) 问题,并引入了物品特定信息 (item-specific information)。
-
LLM进行上下文适应 (Contextual Adaptation): 接着,LLM被提示,结合完整的对话历史和外部推荐器提供的候选物品列表,进行上下文适应。LLM的角色不再是凭空生成推荐,而是根据对话中表达的用户意图和偏好,对候选列表进行选择 (selection) 和重排序 (reranking)。这使得LLM能够利用其上下文理解能力,修正外部推荐器可能存在的上下文无关排名 (context-agnostic rankings) 和流行度偏差 (popularity bias),从而生成更准确、个性化且符合当前对话语境的最终推荐。
整个框架旨在通过这种模块化且高效的协同,克服现有基于LLM的CRS的局限性,并提升推荐的质量。
4.2. 核心方法详解
CARE框架由两大部分组成:1) 用于序列建模 (sequential modelling) 的外部推荐器,以及 2) 用于对话推荐 (conversational recommendations) 的LLMs。
4.2.1. 外部推荐器用于序列建模 (Transformer-based Recommender for Sequential Modelling)
该部分负责从对话历史中提取实体信息并生成初步的候选物品列表。
-
实体序列提取 (Entity Sequence Extraction):
-
首先,通过字符串匹配脚本 (string-matching scripts) 将对话中提及的实体(如电影、演员、属性)与知识图谱 (knowledge graphs) 中的实体进行对齐。
-
所有匹配到的实体被连接起来,形成一个实体序列 (entity sequence)。
-
情感分析 (Sentiment Analysis): 论文通过对ReDial和INSPIRED数据集进行情感分析(如Table 1所示),发现大多数实体关联的是中性或积极偏好。因此,外部推荐器在生成初始候选集时,不区分实体的积极或消极倾向,所有提取到的实体都被统一包含在序列中。LLMs将在后续步骤中基于上下文线索(如用户偏好)进行重排序。
以下是原文 Table 1 的结果:
Sentiment Positive Neutral Negative Percentage 41% 56% 3%
-
-
推荐器结构 (Recommender Structure):
- 尽管可以使用任何具有实体级输入输出的推荐系统,但论文采用了一个Transformer (Transformer) 架构的序列模型,以更好地捕捉实体动态并利用其在序列推荐中的优越性能。
- 该推荐器被设计为不包含LLMs,以确保与LLM基重排序器之间的清晰模块化分离。
- 模型包含三个核心组件:嵌入层 (embedding layer)、自注意力层 (self-attention layer) 和输出层 (output layer)。
- 训练目标 (Training Objective): 模型采用完形填空目标 (cloze objective) 进行训练,即序列中的最后一个物品被替换为特殊标记
[MASK],模型学习预测这个被遮盖的物品。
a. 嵌入层 (Embedding Layer): 嵌入层计算每个实体的嵌入表示。它结合了来自知识图谱 (knowledge graph) 的图嵌入 (graph embedding) 和表示实体在序列中位置的位置嵌入 (positional embedding) ,以形成最终的实体嵌入 。
- :序列中第 个实体的最终嵌入。
h _ { K }:从知识图谱中编码的实体图嵌入。h _ { P }:表示实体在序列中位置的位置嵌入。
b. 自注意力层 (Self-Attention Layer): 自注意力层使用多头自注意力机制 (Multi-head Self-attention mechanism) 来学习序列的最终表示 。
- :序列的最终表示,由自注意力机制计算得到。
- :多头自注意力机制。
- :序列中每个实体的初始嵌入。
[MASK]:用于完形填空训练目标的特殊标记。
c. 输出层 (Output Layer): 输出层将序列表示 的最终隐藏状态投影到物品空间 。它使用两层神经网络 (neural networks),其中 分别是前馈网络的权重和偏置。
- :由模型生成的 个物品的输出列表。
- :列表中第 个物品的得分或表示。
- :高斯误差线性单元 (Gaussian Error Linear Unit) 激活函数。
W _ { 1 } , W _ { 2 }:权重矩阵。b _ { 1 } , b _ { 2 }:偏置向量。
-
与LLM的集成 (Integration with LLMs):
-
为了更好地与LLMs集成,推荐器的输出 被转换为文本格式的候选集 (candidate set)。
-
这个文本格式的候选集随后被整合到用于上下文适应的组装提示 (assemble prompt) 中。候选集中物品的数量 会根据不同的策略而变化。
以下是原文 Figure 4 的示意图,展示了CARE框架的整体架构:
该图像是图表,对比展示了CARE-CRS在开源LLM(Llama3)和ChatGPT上的推荐准确度(INSPIRED和ReDial数据集),显示CARE-CRS显著提升了HIT@5和NDCG@5指标。
-
4.2.2. 提示LLM进行上下文适应 (Prompting LLMs for Contextual Adaptation)
在没有外部推荐器的情况下,现有的方法使用指令性提示 (instructional prompts) 来指导LLMs从对话历史中生成推荐输出。一个典型的提示由三部分组成:1) 角色提示 (role prompt) ,定义系统的角色;2) 格式提示 (format prompt) ,约束输出格式以方便后期处理;3) 任务提示 (task prompt) ,指定系统的任务和功能。最终提示 将这三部分集成起来。
LLM生成推荐的整体过程表述如下:
-
i _ { 1 } , i _ { 2 } , . . . , i _ { n }:生成的推荐物品列表。 -
LLM:大型语言模型。 -
P _ { CRS }:组合提示。 -
P _ { R }:角色提示。 -
P _ { F }:格式提示。 -
P _ { T }:任务提示。 -
Cov:对话历史 (Conversation)。在CARE框架中,为了更好地集成外部推荐器,任务提示 从两个关键维度进行了更新:1) 推荐器适应 (Recommender Adaptation) 和 2) 上下文参与 (Contextual Engagement)。这些更新使LLMs能够有效利用上下文信息,促进它们生成、选择或重排序从外部推荐系统获得的实体级别推荐。
4.2.2.1. 推荐器适应作为领域专家 (Adaptation of Recommender as Domain Expert)
适应是指有效介绍和描述这些外部系统,以便LLMs能更好地理解并将其作为领域专家 (domain experts) 进行协作。论文设计了三种方法来适应推荐系统:
-
直接提示 (Direct Prompting): 直接将推荐器作为领域专家 (domain expert) 引入,不描述其功能或输入/输出格式。
- 任务提示 (): "To help you with the recommendation, we introduce a domain expert who provides some recommendations based on the training data and you can use the domain expert's recommendations as examples to generate your output" (“为了帮助您进行推荐,我们引入了一位领域专家,他根据训练数据提供了一些推荐,您可以将领域专家的推荐作为示例来生成您的输出。”)
-
描述推荐器 (Description of Recommender): 简要描述推荐器如何建模序列输入并生成候选物品。
- 任务提示 (): "To help you with the recommendation, we introduce a domain-expert which is a recommender for sequential modelling that uses the entities mentioned in the dialogues to generate a ranking list of items." (“为了帮助您进行推荐,我们引入了一位领域专家,它是一个用于序列建模的推荐器,它使用对话中提及的实体来生成物品的排名列表。”)
-
自反思 (Self-Reflection): 逐步引导LLM检查推荐器的所有资源(如代码、论文或数据样本)。在检查每个资源后,要求LLM进行自反思 (self-reflect),纠正或生成新的提示来描述推荐器,直到LLM对其输出充满信心,并将其固定为任务提示。
- 任务提示 (): "To help you with the recommendation, you can access an advanced recommendation system that specializes in enhancing conversational recommendations by leveraging both the sequence of entities mentioned in a conversation and external knowledge embedded in knowledge graphs. This system generates diverse suggestions based on the entity sequence. The system will return a list of movie recommendations that are entity-relevant, diverse, and informed by the sequence provided and external knowledge from knowledge graphs." (“为了帮助您进行推荐,您可以访问一个高级推荐系统,该系统专门通过利用对话中提及的实体序列以及知识图谱中嵌入的外部知识来增强对话推荐。该系统根据实体序列生成多样化的建议。系统将返回一个电影推荐列表,这些推荐与实体相关、多样化,并基于提供的序列和来自知识图谱的外部知识。”)
4.2.2.2. 上下文参与策略 (Contextual Engagement for Conversational Recommendations)
在引入推荐器作为领域专家 (domain expert) 后,论文提出了上下文参与策略 (contextual engagement strategies),使LLMs能够从专家那里学习物品空间信息,并结合上下文数据来完善推荐。这使得LLMs能够生成目标领域特定的推荐,并纠正外部推荐器的错误,例如1) 上下文无关排名 (context-agnostic rankings)(推荐器忽略上下文中对物品的明确偏好)或 2) 流行度偏差 (popularity bias)(统计上受欢迎的物品被过度排名)。引入了三种上下文参与策略:
-
扩展 (Expansion): 提供比所需输出更少的示例推荐,并要求模型生成更多,以最小的限制提供指导。
- 任务提示 (): "To help ... you may use the domain expert's recommendations as examples to generate additional recommendations based on the dialogue history. You can generate items beyond the domain expert's recommendations." (“为了帮助您...您可以使用领域专家的推荐作为示例,根据对话历史生成额外的推荐。您可以生成领域专家推荐之外的物品。”)
-
重排序 (Reranking): 提供与所需输出相同数量的推荐,并要求模型使用对话历史对候选物品进行重排序。
- 任务提示 (): "To help ... you need to rerank the recommendations, placing the domain expert's suggestions in the appropriate order based on your understanding of the dialogue history. You cannot generate items beyond …." (“为了帮助您...您需要根据您对对话历史的理解,对推荐进行重排序,将领域专家的建议按适当的顺序放置。您不能生成超出...的物品。”)
-
选择然后重排序 (Selection-then-Reranking): 展示一个更大的推荐集,并要求模型从中进行选择,然后对选定的物品进行重排序,形成一个排名列表。
- 任务提示 (): "To help ... you need to select the most appropriate items from the domain expert's recommendations and rerank them in a ranked order based on dialogue history. You cannot generate items beyond …" (“为了帮助您...您需要从领域专家的推荐中选择最合适的物品,并根据对话历史将其按排名顺序重排序。您不能生成超出...的物品。”)
给定对话历史 Cov 和来自外部推荐器的Top-K 候选物品 (Top-K candidate items) 作为输入,LLM被提示生成 个结果,结合适应方法 和上下文参与策略 ,使用最终的提示 ,其公式如下:
i _ { 1 } , i _ { 2 } , . . . , i _ { n }:生成的推荐物品列表。LLM:大型语言模型。P _ { CARE }:CARE框架的组合提示。Cov:对话历史 (Conversation)。Out _ { k }:来自外部推荐器的 Top-K 候选物品。P _ { R }:角色提示。- :第 种推荐器适应的任务提示。
- :第 种上下文参与策略的任务提示。
P _ { F }:格式提示。
5. 实验设置
5.1. 数据集
实验在两个公共的对话推荐 (conversational recommendation) 数据集上进行:ReDial 和 INSPIRED。这两个数据集都是通过众包 (crowd-sourcing) 方式(如Amazon Mechanical Turk, AMK)手动收集的英文对话推荐数据集。它们都包含用户和系统之间的多轮对话,且每段对话可能包含多轮推荐。
以下是原文 Table 2 的数据集统计信息:
| Dataset | ReDial | INSPIRED |
| #Dialogues | 11, 348 | 999 |
| #Turns | 139,557 | 35, 686 |
| #Users | 764 | 999 |
| #Items | 6,281 | 1, 967 |
| Avg #Entities/Dialogue | 7.24 | 12.88 |
-
ReDial: 包含超过1.1万段对话,对话轮次近14万,用户数764,物品数6281。每段对话平均实体提及数较少(7.24),表明其对话可能更侧重于对话本身的流畅性和用户意图的表达,而不是密集提及实体。
-
INSPIRED: 包含近千段对话,对话轮次超过3.5万,用户数999,物品数1967。每段对话平均实体提及数较多(12.88),表明其对话可能包含更多实体级的互动。
论文遵循了原始数据集的8:1:1数据划分比例(训练集:验证集:测试集)。
5.2. 评估指标
论文使用以下三种常用的推荐指标来评估模型和基线的推荐能力,其中 K 分别取 5 和 10:
-
命中率 (Hit Rate at K, HIT@K)
-
平均倒数排名 (Mean Reciprocal Rank at K, MRR@K)
-
归一化折损累计增益 (Normalized Discounted Cumulative Gain at K, NDCG@K)
虽然CRS模型通常需要同时生成推荐和响应,但本文的范围仅限于推荐任务,因此不明确评估LLMs的语言质量或对话能力。
5.2.1. 命中率 (Hit Rate at K, HIT@K)
- 概念定义: HIT@K衡量的是在推荐列表的前K个物品中,是否至少包含一个用户实际交互过的目标物品。如果包含,则记为一次“命中”。这个指标反映了推荐系统能否成功地将用户感兴趣的物品推荐出来,而不管其具体排名。
- 数学公式:
- 符号解释:
- : 在前K个推荐中至少有一个命中物品的用户数量。
- : 总用户数量。
5.2.2. 平均倒数排名 (Mean Reciprocal Rank at K, MRR@K)
- 概念定义: MRR@K衡量的是推荐系统中第一个正确物品的排名位置。如果目标物品在推荐列表中的排名越靠前,MRR值就越高。这个指标更侧重于评估系统将最相关物品排在顶部的能力。
- 数学公式: 其中, 是用户 的第一个相关物品在推荐列表中的排名。如果前K个推荐中没有相关物品,则 通常取0。
- 符号解释:
- : 用户总数。
- : 对于用户 ,其第一个相关物品在推荐列表中的排名。
5.2.3. 归一化折损累计增益 (Normalized Discounted Cumulative Gain at K, NDCG@K)
- 概念定义: NDCG@K不仅考虑了推荐列表中的物品是否相关,还考虑了相关物品的排名位置以及其相关性得分。排名靠前的相关物品对整体增益的贡献更大,且相关性更高的物品也贡献更大。通过归一化处理,NDCG值介于0和1之间,用于比较不同推荐列表的质量。
- 数学公式: 其中, 是理想的DCG,即完美推荐列表(所有最相关物品按降序排列)的DCG值。
- 符号解释:
- : 推荐列表的长度。
- : 推荐列表中第 个物品的相关性得分(如果只是二元相关性,则为0或1)。
- : 物品在推荐列表中的排名。
- : 折损累计增益。
- : 理想折损累计增益。
5.3. 对比基线
为了将所提出的模型与现有CRS工作进行比较,论文采用了以下三类基线模型:
-
基准模型 (Benchmark models, BMK):
- ReDial [23]: 使用自编码器 (auto-encoder) 进行推荐。这是ReDial数据集的原始基准模型。
- INSPIRED [11]: 对Transformer基语言模型 (transformer-based language model) 进行微调 (fine-tunes) 以进行推荐。这是INSPIRED数据集的原始基准模型。
-
基于学习的方法 (Learning-based approaches):
- KBRD [2]: 采用来自DBpedia [1] 的外部知识图谱 (knowledge graph) 来促进对话推荐。
- KGsF [54]: 使用语义融合 (semantic fusion) 来对齐实体和单词在对话历史中的表示以进行推荐。
- SASRec [17]: 使用自注意力基结构 (self-attention based structure) 从序列文本输入生成推荐。
- UniCRS [4]: 使用提示学习 (prompt learning) 作为统一方法,共同改进推荐和响应生成。
-
基于LLM的方法 (LLM-based methods):
- ZSCRS [12]: 研究LLM(基于ChatGPT)的零样本对话推荐 (zero-shot conversational recommendation) 能力。
- Llama 3 [10]: 遵循ZSCRS中的相同方法,并使用开源LLM (open-sourced LLM) (Llama3-8B-Instruct) 进行实现。
- MemoCRS [47]: 从用户配置文件中检索基于记忆 (memory-based) 和协同信息 (collaborative information) 进行偏好建模和生成(基于GPT-4)。
6. 实验结果与分析
6.1. 核心结果分析
6.1.1. 推荐性能 (Recommendation Performance)
以下是原文 Table 3 的结果,展示了不同模型在推荐任务上的性能:
| Models | ReDial | INSPIRED | ||||||
| H@5/H@10 | M@5/M@10 | N@5/N@10 | H@5/10 | M@5/M@10 | N@5/N@10 | |||
| Benchmark | ReDial INSPIRED | 0.029/0.041 | 0.017/0.019 | 0.020/0.024 | 0.003/0.003 | 0.001/0.001 | 0.002/0.002 | |
| 0.099/0.168 | 0.050/0.059 | 0.062/0.084 | 0.058/0.097 | 0.041/0.046 | 0.046/0.058 | |||
| Learning-based | KBRD KGSF | 0.082/0.140 | 0.034/0.042 | 0.046/0.065 | 0.019/0.032 | 0.007/0.009 | 0.010/0.014 | |
| SASRec | 0.091/0.138 | 0.039/0.045 | 0.051/0.066 | 0.016/0.029 | 0.006/0.007 | 0.008/0.012 | ||
| 0.036/0.056 | 0.020/0.023 | 0.024/0.030 | 0.088/0.149 | 0.054/0.062 | 0.062/0.082 | |||
| UniCRS | 0.101/0.161 | 0.039/0.047 | 0.054/0.073 | 0.091/0.106 | 0.062/0.064 | 0.070/0.074 | ||
| LLM-based | ZSCRS Llama 3 | 0.111/0.165 | 0.057/0.064 | 0.070/0.087 | 0.109/0.142 | 0.065/0.069 | 0.076/0.086 | |
| MemoCRS | 0.101/0.157 0.136/0.215 | 0.054/0.062 | 0.066/0.084 | 0.118/0.151 | 0.065/0.072 | 0.078/0.095 | ||
| 0.072/0.082 | 0.088/0.113 | NA | NA | NA | ||||
| CARECRS | 0.194*/0.248* | 0.133*/0.140* | 0.148*/0.166* | 0.144*/0.169* | 0.090*/0.093* | 0.103*/0.111* | ||
| (+42.7%/15.4%) | (+84.7%/70.7%) | (+68.2%/46.9%) | (+22.0%/11.9%) | (+38.5%/29.2%) | (+32.1%/16.8%) | |||
分析:
- LLM基方法的普遍优势: 从表中可以看出,所有基于LLM的方法(ZSCRS、Llama 3、MemoCRS)都显著优于基于学习和基准模型,即使在零样本 (zero-shot) 设置下。这突出显示了LLMs在处理对话查询和CRS应用方面的强大能力。
- CARE-CRS的显著领先: CARE-CRS框架在两个数据集(ReDial和INSPIRED)上,所有指标(HIT@K, MRR@K, NDCG@K)和所有K值(5和10)上都取得了统计学显著的 (statistically significant) 最佳表现。
- 在ReDial数据集上,CARE-CRS相比最佳LLM基线(MemoCRS),在Top-5指标上的平均提升高达65%。例如,HIT@5从0.136提升到0.194,MRR@5从0.072提升到0.133,NDCG@5从0.088提升到0.148。
- 在INSPIRED数据集上,Top-5指标上的平均提升为31%。例如,HIT@5从0.118提升到0.144,MRR@5从0.065提升到0.090,NDCG@5从0.078提升到0.103。
- 对Top-5指标的更大提升: 论文指出,Top-5指标的性能提升通常高于Top-10,这表明CARE框架在排名能力 (ranking capability) 方面有巨大改进。
- 性能提升的原因:
- 外部推荐器提供充足候选: 外部推荐器生成了足够的候选物品供LLM处理和重排序,降低了最终推荐中领域外推荐 (out-of-domain recommendations) 的比例。
- 融合实体级和上下文信息: 通过利用推荐器提供的实体级序列建模,LLMs在最终推荐中整合了基于物品 (item-based) 和上下文 (contextual) 信息,从而提高了性能。
6.1.2. 开源LLM与闭源LLM的性能比较 (Comparison of Open-source and Closed-source LLMs)
以下是原文 Figure 5 的图表,展示了CARE-CRS在开源LLM(Llama3)和ChatGPT上的推荐准确度对比:
分析:
- 框架的鲁棒性: CARE-CRS框架在开源的Llama 3 (8B参数) 和闭源的ChatGPT上都表现出有效性和鲁棒性。
- 超越基线: 原始的LLMs(Llama 3和GPT-4o作为强基线)推荐性能低于GPT-4o。然而,应用CARE框架后,Llama 3的性能在ReDial和INSPIRED数据集上均超越了GPT-4o,甚至ChatGPT在应用CARE框架后性能也进一步提升。这表明CARE框架能够有效地增强不同规模和来源的LLMs的推荐能力。
- ReDial上的更大提升: 与Table 3的观察一致,CARE框架在ReDial数据集上的性能提升幅度大于INSPIRED数据集。论文将此归因于两个数据集的实体密度 (entity density) 差异,将在§ 5.3.1中详细讨论。
6.1.3. 训练效率 (Training Efficiency)
- 轻量级设计: 与需要完全微调大型语言模型(如UniCRS对DialoGPT进行微调)的基于学习的基线不同,CARE框架利用零样本LLM推理 (zero-shot LLM inference) 通过API进行,无需对LLM进行微调。
- 小参数量的外部推荐器: 唯一涉及训练的部分是外部推荐器,它是一个具有2层和2个注意力头的Transformer结构,总参数量为2.7M,不到基线模型(如DialoGPT的762M参数)的1%。
- 模块化和可扩展性: 框架的模块化设计允许外部推荐器和LLMs都可以被更新的模型替换。未来的工作可以通过使用目标领域中预训练的推荐系统来进一步提高训练效率,消除额外训练的需要。此外,外部推荐器的输出可以通过统一接口与不同的LLMs共享,进一步探索性能改进。
6.2. 消融实验/参数分析
6.2.1. 上下文参与策略 (Contextual Engagement Strategies)
以下是原文 Figure 6 的图表,展示了CARE-CRS中不同上下文参与策略的推荐准确度比较:
分析:
- 数据集差异的影响:
- 在INSPIRED数据集上,零样本LLM (zero-shot LLM) 的表现优于外部推荐器,因为INSPIRED每段对话的实体密度 (entity density) 较高(平均12.88个实体),为LLM提供了更丰富的上下文信息。
- 在ReDial数据集上,外部推荐器表现优于零样本LLM,因为ReDial的物品实体 (item entities) 数量是INSPIRED的三倍,但每段对话的平均实体数更少(7.24),这意味着对话中的属性实体 (attribute entities) 较少,LLM获取上下文信息的难度相对更大,而外部推荐器更能利用物品实体信息。
- 策略表现:
- ST1(扩展, Expansion) 表现不佳:该策略允许LLM生成超出候选集的物品,导致生成了许多不相关 (irrelevant) 或领域外 (out-of-domain) 的物品。
- ST2(重排序, Reranking)和ST3(选择然后重排序, Selection-then-Reranking) 持续优于零样本LLM和外部推荐器:这两种策略通过限制LLM在给定候选集内进行选择或重排序,有效利用了上下文信息。
- LLMs更擅长选择而非生成: 结果表明,在领域特定任务 (domain-specific tasks) 中,LLMs在选择 (selecting) 推荐而不是生成 (generating) 推荐时表现更好。ST2和ST3有效地将外部推荐器提供的实体级别推荐 (entity-level recommendations) 作为候选物品,并通过LLM的上下文细化 (contextual refinement) 进行改进。
- 改进方式: LLMs通过以下两种方式改进推荐:(1) 基于上下文中表达的用户偏好过滤物品(例如,选择排名较低但高度相关的物品);(2) 缓解流行度偏差 (popularity bias)(例如,从顶部位置移除统计上受欢迎但不相关的物品)。
6.2.2. 适应方法 (Adaptation Methods)
以下是原文 Figure 7 的图表,展示了不同适应方法在物品空间信息 (item space information)、推荐准确性 (recommendation accuracy) 和令牌效率 (token efficiency) 方面的消融研究对比:
分析:
- 描述的重要性: 描述推荐器 (Description of Recommender) 和自反思 (Self-Reflection) 这两种方法,由于它们包含对外部系统及其功能的详细描述,显著提高了推荐准确性 (recommendation accuracy) 和物品空间信息 (item space information) 的传递效率,优于直接提示 (Direct Prompting)。这强调了推荐器适应提示 (recommender adaptation prompt) 的关键作用,它清晰地为LLMs定义了推荐器的角色和任务。
- 理解与协作: 分析表明,当LLMs对协作智能体有全面理解时,它们能更有效地利用外部信息。
- 令牌效率考量: 自反思 (Self-Reflection) 方法虽然在性能上可能略优,但其令牌计数 (token count) 较高,导致令牌效率 (token efficiency) 较低。由于任务提示会在每次推理时附加到最终提示中,较大的令牌计数在测试集庞大时会显著增加成本。
- 最优方法: 综合考虑,描述推荐器 (Description of Recommender) 方法提供了最佳的整体性能平衡(如雷达图所示),在CARE框架中被确立为最优的适应方法。
6.2.3. 候选数量 (Candidate Numbers)
以下是原文 Figure 8 的图表,展示了推荐准确率与外部推荐器提供的候选物品数量之间的关系:
分析:
- ST1(扩展)策略的观察: 对于默认 值低于输出数量的ST1策略(默认 ),其设计目标是让模型通过生成来扩展候选物品。然而,当 增加到超出输出数量()时,准确性显著提高。这表明LLM从生成推荐转变为选择 (selecting) 或重排序 (reranking) 候选物品,利用了更丰富的输入。
- ST3(选择然后重排序)策略的观察: 对于默认 值大于输出数量的ST3策略(默认 ),尽管候选数量对性能有适度影响(优化 ),但其表现相对稳定,且不如策略选择本身那么关键。
- 效率与性能的权衡: 增加候选数量也会导致输入令牌增加,从而需要更长的推理时间并增加成本。因此,需要灵活调整参数以优化性能和效率之间的平衡。
6.3. 挑战与偏差分析
6.3.1. 来自LLMs的项目空间差异 (Item Space Discrepancy from LLMs)
以下是原文 Figure 9 的图表,展示了不同策略推荐出领域外 (out of target domain) 物品的比例:
分析:
- 零样本LLM的问题: 零样本LLMs常常生成目标领域中不存在的物品,导致项目空间差异 (item space discrepancy) 问题。
- 外部推荐器的优势: 外部推荐器由于其训练目标仅限于目标领域内的物品,因此不存在这种差异。
- CARE框架的缓解作用: 所提出的ST2(重排序)和ST3(选择然后重排序)策略通过将生成限制在给定的候选集内,有效缓解了领域外输出 (out-of-domain outputs) 的问题,从而提高了推荐准确性。
- ST3的有效性: ST3策略从更大的候选池中进行选择和重排序,在保持同样低领域外比例 (out-of-domain rate) 的同时,进一步提升了准确性。这验证了选择然后重排序 (selection-then-rerank) 策略在CARE-CRS框架中的有效性。
6.3.2. 来自推荐器的流行度偏差 (Popularity Bias from Recommender)
以下是原文 Figure 10 的图表,展示了外部推荐器(左)和CARE-CRS(右)的流行度偏差 (popularity bias):
分析:
- 外部推荐器的流行度偏差: 传统的基于学习的推荐系统,尤其是那些在历史数据上训练的实体级别推荐器 (entity-level recommenders),常常强化流行度偏差 (popularity bias),倾向于将相同的热门物品排在顶部。左侧的箱线图显示外部推荐器(高均值,低方差)始终将热门物品排在前列。
- CARE-CRS缓解偏差: CARE框架通过LLMs的上下文参与 (contextual engagement),模型能够明确理解用户在对话历史中的意图和偏好。因此,LLMs可以:
- 选择排名较低但与上下文高度相关的物品,并将其提升到更高位置。
- 从顶部位置移除统计上受欢迎但与用户当前意图不相关的物品。
- 案例分析: 论文举了一个ReDial数据集的真实案例。即使用户偏爱恐怖和惊悚电影,外部推荐器仍可能因历史流行度而将“Monna”(一部奇幻电影)排在首位。然而,通过CARE的上下文适应方法,LLM能够将“Monna”从最终排名中移除,并重排序其他相关电影(如“The Exorcist”和“Disturbia”)到更高位置,使其更符合用户的兴趣。
- 结果: 右侧的箱线图显示,CARE-CRS(低均值,高方差)在统计上显著减少了流行度偏差 (popularity bias),从而产生了更多样化且最终更准确的推荐。
7. 总结与思考
7.1. 结论总结
本文提出了 CARE (Contextual Adaptation of Recommenders) 框架,旨在解决基于LLM的对话推荐系统 (CRS) 中的两大关键挑战:项目空间差异 (item space discrepancy) 和项目信息忽略 (item information negligence)。该框架通过一个两阶段方法实现:首先,利用一个Transformer基 (Transformer-based) 外部推荐器进行实体级别序列建模 (entity-level sequential modelling),生成一个在目标领域内的候选物品集;然后,大型语言模型 (LLMs) 结合对话上下文对这些候选物品进行选择 (selection) 和重排序 (reranking)。这种设计实现了LLMs与外部推荐系统之间高效且训练成本低的协同。实验结果和分析表明,CARE框架显著提升了开源和闭源LLMs的推荐准确性(在ReDial和INSPIRED数据集上平均分别提升54%和25%),同时有效地缓解了已识别的局限性并降低了推荐中的流行度偏差 (popularity bias)。最有效的策略是LLMs根据上下文洞察,对外部推荐器提供的候选物品进行选择和重排序。
7.2. 局限性与未来工作
论文虽然未明确列出“局限性”部分,但在“训练效率”部分提及了未来工作的方向,暗示了当前框架的一些潜在优化空间或未完全探索的方面:
- 外部推荐器的可替代性: 框架的模块化设计允许使用替代的预训练推荐系统来代替当前的轻量级推荐器,这可以进一步消除对额外训练的需求,从而提高效率。
- 统一接口共享输出: 外部推荐器的输出可以通过一个统一接口与不同的LLMs共享,这可能为探索性能改进提供更多可能性。
- 未深入探讨LLM的对话能力: 论文明确指出其重点在于推荐任务,未评估LLM的语言质量或对话能力。这可能是一个未来研究方向,如何平衡推荐准确性与对话流畅性、自然度。
7.3. 个人启发与批判
7.3.1. 个人启发
- “聪明分工”的典范: 这篇论文提供了一个非常清晰的“聪明分工”范例,将LLMs强大的自然语言理解能力与传统推荐系统在结构化数据处理和领域专业知识方面的优势结合起来。LLMs不再是万能的“黑箱”,而是作为智能的“过滤和优化器”,这一思想在未来构建复杂AI系统时具有普遍的指导意义。
- LLMs作为“重排序器”的潜力: 强调LLMs在领域特定任务中作为选择和重排序的工具比作为生成器更有效,这对于LLM在实际推荐系统中的应用具有重要的指导意义。它表明在很多场景下,我们不应期待LLM凭空生成完美结果,而应提供一个候选池,让LLM进行精细化调整。
- 模块化设计的优势: 框架的模块化使得各个组件可以独立开发、优化和替换,大大提高了系统的灵活性和可维护性。这使得系统能够更容易地集成最新的LLMs或推荐算法。
- 解决LLM“幻觉”问题的巧妙方法: 通过外部推荐器提供“真实”的领域内物品候选集,从根本上规避了LLM可能产生的“幻觉”问题,保证了推荐结果的有效性和可靠性。
- 缓解流行度偏差的实用性: 将LLM的上下文理解能力用于纠正传统推荐系统的固有偏差,这不仅提高了推荐的准确性,也提升了用户体验的多样性和个性化,具有重要的应用价值。
7.3.2. 批判
- 实体提取的鲁棒性: 论文依赖于字符串匹配脚本 (string-matching scripts) 来提取实体。在真实世界的复杂对话中,实体名称可能存在变体、拼写错误、简称或模糊指代。这种提取方法的鲁棒性和准确性对整个框架的性能至关重要,但论文未详细探讨其潜在的错误率及其对下游推荐的影响。
- 知识图谱的依赖性: 外部推荐器使用知识图谱 (knowledge graphs) 编码实体。知识图谱的质量、完整性和时效性直接影响推荐器的性能。如果知识图谱不完整或过时,可能会限制推荐器的领域专业知识。
- LLM推理成本和延迟: 尽管论文强调了训练效率,但LLM的推理成本和延迟对于大规模实时对话推荐系统 (CRS) 仍然是一个挑战。特别是对于闭源LLMs,API调用费用和响应时间可能成为瓶颈。
- 情感分析的局限性: 论文提到对实体不区分积极或消极倾向,因为情感分析结果显示中性或积极偏好占主导。然而,在某些场景下,用户对某个物品表达的强烈负面情感应该被明确捕捉并指导推荐,而不仅仅是依靠LLM的上下文理解。在极端负面偏好下,这种处理方式可能不够精细。
- “自反思”方法的实际效用与成本: 尽管“自反思”在理论上可能提供最好的适应,但其更高的令牌计数和未完全揭示的复杂性可能使其在实际应用中不那么可行。论文并未深入探讨“自反思”的具体流程和如何衡量其“信心”。
- 用户满意度: 论文仅关注推荐准确性指标(HIT@K, MRR@K, NDCG@K),而没有明确评估用户满意度、推荐多样性(除了缓解流行度偏差)或用户体验等更主观的方面。在对话推荐中,这些因素与准确性同等重要。
相似论文推荐
基于向量语义检索推荐的相关论文。