AiPaper
论文状态:已完成

Knowledge Mechanisms in Large Language Models: A Survey and Perspective

发表:2024/01/01
原文链接
价格:0.10
已有 16 人读过
本分析由 AI 生成,可能不完全准确,请以原文为准。

TL;DR 精炼摘要

该综述论文为深入理解大语言模型(LLMs)的知识机制提出了新颖且系统的分类框架,旨在揭示其“黑箱”本质,对实现可信通用人工智能至关重要。研究方法上,作者通过将知识机制划分为“知识利用”(涵盖记忆、理解与应用、创造)和“知识演化”(关注个体与群体模型知识动态)两大核心维度,对领域进行了全面梳理。主要发现包括探讨了LLMs所习得的知识内容、参数化知识的脆弱成因,并提出了极具挑战性的“暗知识”假说,为未来研究提供了创新视角。

摘要

Understanding knowledge mechanisms in Large Language Models (LLMs) is crucial for advancing towards trustworthy AGI. This paper reviews knowledge mechanism analysis from a novel taxonomy including knowledge utilization and evolution. Knowledge utilization delves into the mechanism of memorization, comprehension and application, and creation. Knowledge evolution focuses on the dynamic progression of knowledge within individual and group LLMs. Moreover, we discuss what knowledge LLMs have learned, the reasons for the fragility of parametric knowledge, and the potential dark knowledge (hypothesis) that will be challenging to address. We hope this work can help understand knowledge in LLMs and provide insights for future research.

思维导图

论文精读

中文精读

1. 论文基本信息 (Bibliographic Information)

  • 标题 (Title): 大语言模型中的知识机制:一篇综述与展望 (Knowledge Mechanisms in Large Language Models: A Survey and Perspective)
  • 作者 (Authors): 论文作者团队来自浙江大学、新加坡国立大学、加州大学洛杉矶分校以及阿里巴巴集团,是一项由学术界和工业界共同完成的研究。通讯作者张宁宇是浙江大学的教授,在知识图谱和自然语言处理领域有深入研究。
  • 发表期刊/会议 (Journal/Conference): 从论文格式和内容来看,这是一篇发表在预印本服务器 (如 arXiv) 上的综述文章,旨在系统性地梳理一个快速发展的领域。这类文章通常是领域内重要工作的阶段性总结。
  • 发表年份 (Publication Year): 根据论文内容和参考文献的更新频率,推断为 2024 年。
  • 摘要 (Abstract): 论文摘要指出,理解大语言模型 (LLMs) 的知识机制对于实现可信通用人工智能 (AGI) 至关重要。文章从一个全新的分类法——知识利用 (knowledge utilization)知识演化 (knowledge evolution)——来综述该领域。知识利用深入探讨了记忆 (memorization)理解与应用 (comprehension and application)创造 (creation) 的机制;知识演化则关注个体 (individual)群体 (group) LLMs 中知识的动态发展。此外,论文还讨论了 LLMs 已学到的知识、参数化知识的脆弱性原因,并提出了一个具有挑战性的“暗知识 (dark knowledge)”假说。
  • 原文链接 (Source Link): /files/papers/68e48dd1d4519f3c0db1a4cd/paper.pdf (状态:预印本)

2. 整体概括 (Executive Summary)

  • 研究背景与动机 (Background & Motivation - Why):

    • 核心问题: 尽管大语言模型 (LLMs) 在应用中取得了巨大成功,并被认为在其参数中存储了海量知识,但它们内部的知识学习、存储、利用和演化机制仍然像一个“黑箱”,缺乏系统性的理解。
    • 重要性与挑战: 揭开这个“黑箱”对于提升模型的可信度 (trustworthiness)效率 (efficiency)安全性 (safety),并最终迈向通用人工智能 (AGI) 至关重要。现有的可解释性研究虽然很多,但往往分散在不同任务上,缺乏一个从知识生命周期 (knowledge life cycle) 角度出发的全面框架。
    • 切入点与创新思路: 本文首次从知识的整个生命周期出发,提出了一个包含“知识利用”和“知识演化”的全新分类框架,试图系统性地梳理和整合现有研究,并对未来方向进行展望。
  • 核心贡献/主要发现 (Main Contribution/Findings - What):

    • 提出全新分类法: 构建了一个新颖的知识机制分析分类法,涵盖了特定时间点的知识利用(记忆、理解与应用、创造)和跨时间周期的知识演化(个体、群体)。

    • 深入探讨知识演化: 分析了知识在单个 LLM 和 LLM 群体中的动态演化过程,并指出了其中固有的冲突 (conflict)整合 (integration) 机制。

    • 总结知识现状与挑战: 观察到 LLMs 已经学会了基础的世界知识,但这些知识是脆弱的 (fragile),导致了幻觉和知识冲突等问题,并推测这主要源于不恰当的训练数据。

    • 提出“暗知识”假说: 提出了一个前瞻性的“暗知识”概念,指那些对人类或机器而言未知的知识,并认为这将是长期存在的挑战。

      该图像为示意图,展示了大型语言模型(LLMs)中知识的演化与利用机制。左侧圆环表示知识演化,包括个体演化(如预训练、后训练)和群体演化;右侧金字塔结构表示… 图 2 示意图:该图展示了论文的核心分析框架。左侧的循环箭头代表“知识演化”,分为“个体演化”和“群体演化”两个阶段。右侧的金字塔代表“知识利用”,从下到上分为“记忆”、“理解与应用”和“创造”三个层次。整个系统被“暗知识”包围,并通过演化与利用的相互作用来探索新知识。

3. 预备知识与相关工作 (Prerequisite Knowledge & Related Work)

  • 基础概念 (Foundational Concepts):

    • LLM 中的知识 (Knowledge in LLMs): 论文将知识定义为对事实的认知。在 LLM 中,如果模型 F\mathcal{F} 能够正确回答关于知识 kk 的问题(即补全缺失的关键信息 tt),则认为模型掌握了该知识。其形式化表达为: t=F(rkt) t = \mathcal{F}(r_{k\setminus t}) 其中 rktr_{k\setminus t} 是缺少关键信息 tt 的知识记录(例如,“美国 2024 年的总统是 __”),而 tt 是正确的答案(例如,“拜登”)。
    • Transformer 架构: 这是当前 LLMs 的主流架构。其核心组件包括多头自注意力机制 (Multi-Head Self-Attention)多层感知机 (Multilayer Perceptron, MLP)。每一层 Transformer 模块的计算可以概括为: hl+1=hl+MLP(hl+Attention(hl)) h_{l+1} = h_l + \mathbf{MLP}(h_l + \mathbf{Attention}(h_l)) 其中 hlh_l 是第 ll 层的隐藏状态。理解注意力机制如何加权聚合信息和 MLP 如何进行非线性变换是理解本文的基础。
    • 知识分析方法 (Knowledge Analysis Methods):
      • 基于观察的方法 (Observation-based methods): 通过直接观察模型内部组件(如神经元、隐藏层)的输出来解释其功能。常用技术包括:
        • 探针 (Probe): 训练一个简单的分类器来预测某个属性(如词性)是否存在于模型的隐藏表示中。
        • Logit 透镜 (Logit lens): 将中间层的隐藏状态通过模型的词汇映射层(unembedding layer)转换回词汇空间,观察模型在处理过程中的“思考”。
        • 稀疏表示 (Sparse representation): 将模型的激活值分解为一组数量更多但更具可解释性的、独立的特征(monosemantic features)。
      • 基于干预的方法 (Intervention-based methods): 通过修改模型内部的激活或参数来观察其行为变化,从而确定因果关系。常用技术包括:
        • 因果追踪 (Causal Tracing): 在一个“干净”的运行和一个被噪声“污染”的运行之间,通过恢复特定组件的干净激活来定位负责特定功能的神经元/模块。
        • 激活补丁 (Activation Patching): 将一个输入的激活值“粘贴”到另一个输入的相应位置,观察输出变化。
  • 前人工作 (Previous Works): 论文提到,之前的可解释性综述大多从全局或局部视角对解释方法进行分类,且主要关注推理阶段 (inference stage) 的模型行为。

  • 差异化分析 (Differentiation): 本文与以往综述的核心区别在于:

    • 视角不同: 本文以知识 (knowledge) 为核心,而不是以解释方法为核心。
    • 范围更广: 本文的分类法覆盖了知识的整个生命周期,包括预训练阶段的知识获取和后训练阶段的知识演化,而不仅仅是推理阶段。这提供了一个更动态和全面的视角。

4. 方法论 (Methodology - Core Technology & Implementation Details)

本文的方法论是其提出的全新知识机制分类框架。

该图像是知识机制在大语言模型中的分类结构图。图中分为两大类:知识利用(包含记忆、理解与应用、创造三个子类)和知识演化(包括个体演化和群体演化)。每个子类进… 图 1 示意图:这是论文提出的知识机制分类法(Taxonomy)的思维导图,详细展示了其二级和三级结构。

4.1 知识利用 (Knowledge Utilization in LLMs, §3)

本文将知识利用分为三个层次,灵感来源于布鲁姆认知分类学 (Bloom's Taxonomy)

该图像为示意图,展示了大语言模型中知识利用的三个子机制:记忆、理解与应用、创造。记忆部分分为模块区域(分别表示语法语义、常识知识、事实知识等功能区)和连接… 图 3 示意图:该图直观地展示了知识利用的三个层次。Memorization 表现为功能独立的 Modular Region 和相互关联的 ConnectionComprehension and Application 表现为对已有组件的 ReuseCreation 则表现为基于已有原理的 Extrapolation

  • 层次一:记忆 (Memorization, §3.1)

    • 核心思想: 探究 LLMs 如何记忆和回忆训练语料中的事实、语法、常识等知识。
    • 两大假说:
      1. 模块区域假说 (Hypothesis 1: Modular Region): 知识被存储在孤立的、模块化的区域中。例如,特定的 MLP 层被发现像“键值记忆库”,其中某些神经元负责特定的语义概念(如“an”或“a”的用法)、事实知识或不安全内容。同样,注意力头也被发现存储了语言特征、位置信息等。
      2. 连接假说 (Hypothesis 2: Connection): 知识并非由孤立区域表示,而是由不同组件之间的连接来表示。一个典型的例子是知识回路 (Knowledge Circuit),它指的是模型中负责特定计算任务的关键子图。例如,一个事实(如“爱尔兰的首都是都柏林”)的提取过程可能涉及:早期 MLP 丰富主语“爱尔兰”的信息,中间层注意力头传递“首都”这一关系,后期 MLP 最终提取出宾语“都柏林”。
  • 层次二:理解与应用 (Comprehension and Application, §3.2)

    • 核心思想: 探究 LLMs 如何利用已记忆的知识来解决新问题,如推理和泛化。
    • 核心假说:
      • 重用假说 (Hypothesis 3: Reuse): LLMs 通过重用 (reuse) 某些基本组件(神经元、注意力头、知识回路)来完成复杂的任务。
        • 从模块区域角度看: 早期层的基础知识(如句法)被高频重用。一些特殊功能的模块也被重用,如 induction heads 被认为是 in-context learning (ICL) 的关键。
        • 从连接角度看: 相似的任务会共享相似的知识回路。例如,解决“城市在哪个国家”和“名人的出生地”这两个任务的知识回路有很高的重叠度。
  • 层次三:创造 (Creation, §3.3)

    • 核心思想: 探究 LLMs 产生新颖且有价值内容(如新蛋白质、新代码、新故事)的能力。
    • 核心假说:
      • 外推假说 (Hypothesis 4: Extrapolation): LLMs 可能通过外推 (extrapolation) 来创造知识。即模型从离散的训练数据中学习到世界运行的基本原理,然后将这些原理应用到未见过的领域,从而“推断”出新的、符合规律的知识。
    • 面临的挑战: 论文指出,当前 LLMs 的创造机制仍不明确。模型如何评估创造的价值Transformer 架构本身是否存在限制(例如,一旦生成一个 token 就无法撤回)?这些都是悬而未决的问题。

4.2 知识演化 (Knowledge Evolution in LLMs, §4)

  • 核心思想: 知识不是静态的,它会随着外部世界和模型自身训练而动态变化。
  • 核心假说:
    • 动态智能假说 (Hypothesis 5: Dynamic Intelligence): 冲突 (Conflict)整合 (Integration) 在 LLMs 动态的知识演化过程中共存。
  • 演化类型:
    1. 个体演化 (Individual Evolution, §4.1):
      • 预训练阶段: 模型从海量数据中积累知识,但数据中的矛盾信息会导致内部知识冲突(例如,高频事实覆盖低频事实)。
      • 后训练阶段 (Post-training):
        • 微调 (Fine-tuning): 论文引用研究指出,指令微调 (SFT) 和对齐微调 (Alignment tuning) 更多的是教会模型如何更好地利用已有知识,而不是学习新知识。模型甚至会对对齐产生“内在抗拒”。
        • 检索增强生成 (RAG): 通过外部知识库来更新知识,但需要处理外部知识与模型内部知识的冲突。
        • 模型编辑 (Editing): 直接修改模型参数或表示来更新或删除特定知识,是一种更精确的手段。
    2. 群体演化 (Group Evolution, §4.2):
      • 多个 LLM 智能体 (agents) 通过协作、辩论和反思来完成复杂任务。
      • 冲突加剧: 群体演化面临更复杂的冲突,如专业知识、利益、文化和道德的冲突。
      • 知识整合: 通过有效沟通,群体智能可以超越个体。论文提到了协同缩放定律 (collaborative scaling law),即随着智能体数量的增加,解决方案的质量呈逻辑增长。

5. 实验设置 (Experimental Setup)

作为一篇综述性论文,本文没有独立的实验部分,而是系统性地回顾和总结了该领域大量研究的实验设置。

  • 数据集 (Datasets): 文中引用的研究通常使用以下类型的数据集:
    • 事实知识探测 (Factual Knowledge Probing):LAMA (LAnguage Model Analysis),包含大量(主语,关系,宾语)三元组,用于测试模型能否回忆事实。
    • 常识推理 (Commonsense Reasoning):Winograd Schema Challenge,用于测试模型的常识理解能力。
    • 数学推理 (Mathematical Reasoning):GSM8K,包含小学数学应用题。
    • 安全性与偏见 (Safety & Bias):RealToxicityPrompts,用于评估模型的有害内容生成。
  • 评估指标 (Evaluation Metrics):
    • 准确率 (Accuracy): 在问答或分类任务中的表现。
    • 困惑度 (Perplexity): 衡量模型对序列的预测能力。
    • 因果效应 (Causal Effect): 在干预实验中,通过比较干预前后的模型输出变化(如 logit difference)来衡量特定组件的重要性。
  • 对比基线 (Baselines): 文中提到的研究通常将不同规模的 Transformer-based LLMs(如 GPT 系列、Llama 系列、BERT)作为研究对象和比较基线。

6. 实验结果与分析 (Results & Analysis)

本部分总结了论文在 Discussion (§6) 章节中对领域内现有研究结果的深刻分析和洞见。

  • 核心结果分析 (Core Results Analysis):

    • LLMs 学到了什么知识?(§6.1) 尽管存在“随机鹦鹉 (Stochastic Parrot)”的批评,但主流观点认为:LLMs 已经通过记忆掌握了基础的世界知识,但由于知识的脆弱性,它们在理解与应用(尤其是复杂推理)方面仍有困难,并且由于架构限制,几乎不具备真正的创造能力。

    • 为什么学到的知识是脆弱的?(§6.2) 论文给出的核心论点是:不恰当的学习数据 (improper learning data) 是根本原因。

      • 数据分布和数量: 训练数据中的偏见、矛盾、稀疏性导致了幻觉 (hallucination)知识冲突 (knowledge conflict)。例如,缺乏足够的多样化表述(如“A is B”但很少有“B is A”)导致了“逆转诅咒 (reversal curse)”。
      • 机制层面的解释: 这些问题在模型内部表现为某些关键回路的缺失或竞争失败。
    • 是否存在难以学习的“暗知识”?(§6.3) 论文提出了一个引人深思的“暗知识”假说,认为即使在理想的数据和算力条件下,仍然存在机器或人类无法掌握的知识。

      该图像为二维象限图,展示了知识在“机器”(Machine)和“人类”(Human)认知上的四种类型。横轴表示人类的知识状态(已知或未知),纵轴表示机器的知… 该图像为二维象限图,展示了知识在“机器”(Machine)和“人类”(Human)认知上的四种类型。横轴表示人类的知识状态(已知或未知),纵轴表示机器的知识状态。左下象限(Plain Knowledge)表示人类和机器均已知的知识,右上象限(Dark Knowledge)表示人类和机器均未知的“暗知识”。其他两个象限分别表示“人类已知机器未知”和“机器已知人类未知”的知识状态。图中用缩写(KH, UM, KM, UH)标示不同组合。 图 4 示意图:该图将知识分为四类。Plain Knowledge (左下) 是人类和机器都已知的。Dark Knowledge (灰色区域) 包含三种情况:1) 机器已知,人类未知 (UH, KM),如通过大数据发现的复杂模式;2) 人类已知,机器未知 (KH, UM),如主观感受和意识;3) 人类和机器都未知 (UH, UM),如宇宙起源等终极问题。

  • 消融实验/参数分析 (Ablation Studies / Parameter Analysis):

    • 本文作为综述,引用了大量进行消融研究的工作。例如,通过禁用 (knock-out) 特定的神经元或注意力头来验证其功能,这些实验支持了模块区域假说重用假说
    • 因果追踪等干预方法本质上就是一种精细的、逐组件的“消融”分析,用于定位知识在模型中的存储位置。

7. 总结与思考 (Conclusion & Personal Thoughts)

  • 结论总结 (Conclusion Summary): 论文系统地回顾了 LLMs 中的知识机制,提出了一个覆盖知识利用和演化的新颖分类法。它强调了当前 LLM 知识的脆弱性,并将其归因于训练数据。最后,论文展望了“暗知识”的探索以及构建更高效、可信模型的未来方向。

  • 局限性与未来工作 (Limitations & Future Work):

    • 作者指出的局限性:
      1. 假说待验证 (Hypothesis): 文中提出的多个假说仍需更多实验来验证。
      2. 知识形式不全 (Knowledge): 未深入探讨时空知识、事件知识等其他形式。
      3. 模型规模有限 (Models): 现有研究大多集中在百亿参数以下的模型,更大规模模型的机制是否相同尚不清楚。
    • 未来研究方向 (§7):
      1. 参数化 vs. 非参数化知识 (Parametric VS. Non-Parametric Knowledge): 如何有效结合模型内部的隐式知识和外部知识库(如知识图谱)的显式知识,是一个核心挑战。
      2. 具身智能 (Embodied Intelligence): 让 LLMs 通过与物理世界的多模态交互来学习,实现从“被动学习”到“主动进化”的转变。
      3. 领域大模型 (Domain LLMs): 探索特定科学领域(如生物医药、金融)知识的获取机制,这些领域的知识结构和表达方式与通用语言有很大不同。
  • 个人启发与批判 (Personal Insights & Critique):

    • 启发:
      1. 系统性框架的价值: 这篇综述最大的贡献在于提供了一个结构化、全局性的视角来审视 LLM 的知识问题。将知识机制分为“利用”和“演化”两个维度,并进一步细分,极大地帮助了研究者和初学者理解这个复杂领域的全貌。
      2. “暗知识”的思考: “暗知识”假说非常具有启发性,它提醒我们 AI 的发展不仅是解决已知问题,更在于探索人类和机器的认知边界,强调了人机协作的长期必要性。
      3. 跨学科的重要性: 论文强调了从神经科学、认知科学、心理学和教育学中汲取灵感的重要性,这为 AI 的未来发展指明了更广阔的道路。
    • 批判性思考:
      1. 假说的性质: 文中提出的多个“假说”(如重用假说外推假说)在某种程度上是对现有研究发现的高度概括和命名,而非严格意义上可证伪的科学假说。它们更多是作为一种组织和理解现有工作的概念框架。

      2. 对“数据决定论”的依赖: 论文将知识脆弱性的主要原因归结为“不恰当的学习数据”,这虽然是重要因素,但可能简化了问题。模型架构本身的归纳偏置 (inductive bias)、优化算法的特性等也可能是导致这些问题的内在原因。

      3. 实践指导性: 作为一篇综述,它成功地梳理了“是什么”和“为什么”,但在“怎么办”方面提供的更多是方向性指引,而非具体的技术解决方案。如何将这些机制洞察转化为实际的、可操作的模型改进策略,仍是未来研究的核心。


附录:知识演化方法比较图

该图像为示意图,展示了参数高效微调(Parameter Efficient FT)、编辑(Editing)、知识扩充(Knowledge Augmenta… 该图展示了后训练阶段几种知识演化方法的相互关系。例如,Editing (编辑) 与 Parameter Efficient FT (参数高效微调) 和 Knowledge Augmentation (知识扩充) 都有交集,说明这些技术可以结合使用。

相似论文推荐

基于向量语义检索推荐的相关论文。

暂时没有找到相似论文。