DeepSeek-V3.2-Exp: Boosting Long-Context Efficiency with DeepSeek Sparse Attention
TL;DR 精炼摘要
DeepSeek-V3.2-Exp模型旨在解决大型语言模型处理长上下文时自注意力机制的平方复杂度瓶颈。该研究通过对DeepSeek-V3.1-Terminus模型进行继续训练,引入了创新的“DeepSeek稀疏注意力(DSA)”机制。DSA是一种由“闪电索引器”驱动的细粒度动态稀疏注意力方法,能够智能高效地选择相关词元。实验结果表明,DeepSeek-V3.2-Exp在长上下文场景中显著提升了训练和推理效率,同时保持了良好性能,并已开源。
摘要
DeepSeek-V3.2-Exp: Boosting Long-Context Efficiency with DeepSeek Sparse Attention DeepSeek-AI research@deepseek.com Abstract We introduce DeepSeek-V3.2-Exp, an experimental sparse-attention model, which equips DeepSeek-V3.1-Terminus with DeepSeek Sparse Attention (DSA) through continued train- ing. With DSA, a fine-grained sparse attention mechanism powered by a lightning in- dexer, DeepSeek-V3.2-Exp achieves significant efficiency improvements in both training and inference, especially in long-context scenarios. The model checkpoints are available at https://huggingface.co/deepseek-ai/DeepSeek-V3.2-Exp . 1. Architecture Compared with DeepSeek-V3.1-Terminus, the last version of DeepSeek-V3.1, the only architec- tural modification of DeepSeek-V3.2-Exp is the introduction of DeepSeek Sparse Attention (DSA) through continued training. Prototype of DSA. The prototype of DSA primarily consists of two components: a lightning indexer and a fine-grained token selection mechanism. The lightning indexer computes the index score 𝐼 𝑡 , 𝑠 between the query token h 𝑡 ∈ R 𝑑 and a preceding token h 𝑠 ∈ R 𝑑 , determining which tokens to be selected by the
思维导图
论文精读
中文精读
1. 论文基本信息 (Bibliographic Information)
- 标题 (Title): DeepSeek-V3.2-Exp: Boosting Long-Context Efficiency with DeepSeek Sparse Attention (DeepSeek-V3.2-Exp: 使用 DeepSeek 稀疏注意力提升长上下文效率)
- 作者 (Authors): DeepSeek-AI。这是一个研究机构,专注于大型语言模型的研究与开发。
- 发表期刊/会议 (Journal/Conference): 未明确说明,从论文格式和内容来看,这很可能是一篇技术报告或提交到预印本网站(如 arXiv)的论文,用于快速发布其最新研究成果。
- 发表年份 (Publication Year): 论文中引用了 2025 年的文献,表明这是一篇非常前沿的研究,推测发表于 2024 年下半年。
- 摘要 (Abstract): 论文介绍了一款名为
DeepSeek-V3.2-Exp的实验性稀疏注意力模型。该模型是在DeepSeek-V3.1-Terminus的基础上,通过继续训练的方式,引入了一种名为DeepSeek Sparse Attention (DSA)的新机制。DSA 是一种由高效的“闪电索引器”(lightning indexer) 驱动的细粒度稀疏注意力机制。 благодаря DSA, 模型在训练和推理过程中,尤其是在处理长上下文场景时,实现了显著的效率提升。论文还公布了模型的开源 checkpoints。 - 原文链接 (Source Link):
/files/papers/68e088fc18b383404984cb25/paper.pdf。该链接指向论文的 PDF 文件,目前处于预印本或技术报告状态。
2. 整体概括 (Executive Summary)
-
研究背景与动机 (Background & Motivation - Why):
- 核心问题: 现代大型语言模型(如 Transformer)普遍使用的标准自注意力(Self-Attention)机制,其计算复杂度和内存消耗会随着输入序列长度(上下文长度)的平方 () 增长。这使得处理非常长的文本(例如,整本书或数万行的代码)变得极其昂贵和缓慢,成为了大模型能力扩展的主要瓶颈。
- 重要性与挑战: 解决长上下文的处理效率问题,对于提升模型在文档理解、长对话、代码分析等复杂任务上的能力至关重要。现有的挑战在于,如何在不显著牺牲模型性能的前提下,有效降低注意力机制的计算成本。
- 创新思路: 论文的切入点是设计一种动态的、细粒度的稀疏注意力机制。不同于一些固定的稀疏模式,
DeepSeek Sparse Attention (DSA)能够让模型为每个查询词元(query token)动态地、智能地选择最相关的少数几个键值词元(key-value tokens)进行计算,从而将计算复杂度从 大幅降低到接近线性的 (其中 k 远小于 L)。
-
核心贡献/主要发现 (Main Contribution/Findings - What):
- 提出了
DeepSeek Sparse Attention (DSA): 这是一种新颖的稀疏注意力机制,其核心包含两个组件:一个用于快速计算相关性分数的lightning indexer和一个基于该分数进行选择的fine-grained token selection机制。 - 发布了
DeepSeek-V3.2-Exp模型: 这是一个基于强大的DeepSeek-V3.1-Terminus模型,通过继续训练(continued training)方式成功集成 DSA 的实验性模型。 - 验证了效率与性能的平衡: 实验结果表明,
DeepSeek-V3.2-Exp在处理长上下文时的推理成本显著低于其密集注意力(dense attention)版本,同时在多种基准测试中没有出现明显的性能下降,成功实现了效率和效果的兼顾。
- 提出了
3. 预备知识与相关工作 (Prerequisite Knowledge & Related Work)
-
基础概念 (Foundational Concepts):
- Transformer 与自注意力 (Transformer & Self-Attention): Transformer 是当前主流大模型的底层架构。其核心是自注意力机制,它允许模型在处理一个词元时,计算该词元与输入序列中所有其他词元的相互关系(注意力分数)。这种机制虽然强大,但由于每个词元都要和所有词元进行计算,导致了 的计算复杂度。我们称这种原始的注意力为密集注意力 (Dense Attention)。
- 稀疏注意力 (Sparse Attention): 为了解决密集注意力的效率问题,研究人员提出了稀疏注意力的概念。其核心思想是,对于每个查询词元,我们不必计算它与所有其他词元的关系,而只选择性地计算与一小部分“重要”词元的关系。
DeepSeek Sparse Attention (DSA)就是稀疏注意力的一种先进实现。 - 多查询注意力 (Multi-Query Attention, MQA): 这是一种注意力机制的优化变体。在标准的多头注意力(MHA)中,每个“头”都有一套独立的查询(Query, Q)、键(Key, K)和值(Value, V)参数。而在 MQA 中,所有的头共享同一套 K 和 V 参数,只有 Q 是独立的。这样做可以显著减少模型在推理时所需的内存带宽,加快生成速度。论文提到 DSA 是在 MQA 模式下实现的,以追求更高的计算效率。
- 多头潜在注意力 (Multi-head Latent Attention, MLA): 这是 DeepSeek-V2 模型中引入的一种注意力架构,DSA 正是基于此架构进行实例化的。MLA 可以被看作是一种更灵活的注意力框架,它可以在 MHA 和 MQA 模式之间切换。
-
前人工作 (Previous Works):
- 论文的核心对比对象是
DeepSeek-V3.1-Terminus。这不仅是前人工作,更是DeepSeek-V3.2-Exp的基座模型。DeepSeek-V3.2-Exp是直接在DeepSeek-V3.1-Terminus的权重基础上,通过继续训练的方式加入 DSA 模块的。这种做法使得两个模型之间的性能对比非常公平,能够清晰地衡量引入 DSA 带来的影响。
- 论文的核心对比对象是
-
技术演进 (Technological Evolution):
- 大模型注意力的发展经历了从标准的密集 MHA,到为了优化推理效率而提出的 MQA 和分组查询注意力(GQA),再到为了解决长上下文瓶颈而涌现的各类稀疏注意力方法。DSA 正是处在这一技术脉络的前沿,它提出了一种动态、可学习的细粒度稀疏方案。
-
差异化分析 (Differentiation):
- 与一些采用固定稀疏模式(如窗口化、全局+随机)的早期方法不同,DSA 的稀疏模式是完全动态和数据驱动的。
- 其核心创新在于解耦了选择机制和注意力计算。
lightning indexer专门负责快速、低成本地“筛选”出最重要的信息,而主注意力模块则在筛选出的这个小子集上进行精细计算。这种分工使得整个过程既高效又精准。
4. 方法论 (Methodology - Core Technology & Implementation Details)
DeepSeek-V3.2-Exp 的核心技术是 DeepSeek Sparse Attention (DSA)。下面详细拆解其构成和训练过程。
-
方法原理 (Methodology Principles): DSA 的核心思想是两步走:先快速粗选,再精确计算。
- 快速粗选: 使用一个轻量级的
lightning indexer模块,为当前查询词元 和所有在它之前的词元 计算一个相关性分数 。 - 精确计算: 根据
lightning indexer算出的分数,为每个查询词元 选出分数最高的top-k个词元。然后,主注意力模块只在这 k 个被选中的词元上执行标准的注意力计算。
- 快速粗选: 使用一个轻量级的
-
方法步骤与流程 (Steps & Procedures): 如下图所示,DSA 的工作流程可以分解为以下几个步骤:

-
1. Lightning Indexer 计算索引分数: 对于当前的查询词元(Query Token) 和任意一个它之前的词元 ,
lightning indexer按以下公式计算索引分数 :- 和 分别是第 t 个和第 s 个词元的隐藏状态向量。
- 和 是从查询词元 派生出的索引器查询向量和权重。
- 是从前序词元 派生出的索引器键向量。
- 是索引器的头数,论文提到这是一个很小的数值。
- 是激活函数。使用
ReLU而非Softmax是为了追求更高的计算吞吐量。 - 关键点: 这个索引器可以被高效实现(例如使用 FP8 格式),虽然其理论复杂度仍是 ,但实际计算开销远小于主注意力模块。
-
2. Top-k 选择器: 有了所有前序词元的索引分数 后,一个简单的
Top-k选择器会选出分数最高的 k 个词元的位置。 -
3. 稀疏注意力计算: 主注意力模块(论文中是 MLA)接收查询词元 和上一步选出的
top-k个词元对应的键值对 ,然后进行标准的注意力计算,得到最终的输出 。
-
-
训练过程 (Training Process): 由于 DSA 是在已经训练好的
DeepSeek-V3.1-Terminus模型上引入的,所以采用的是继续预训练 (Continued Pre-Training) 的策略,分为两个阶段:-
阶段一:密集预热阶段 (Dense Warm-up Stage)
- 目标: 初始化
lightning indexer,让它的判断标准接近于原始的密集注意力模型。 - 方法: 在这个阶段,主注意力模块仍然是密集的(即计算所有词元间的注意力),并且其参数被冻结。只有
lightning indexer的参数被训练。 - 损失函数: 训练目标是让索引器输出的分数分布 尽可能地接近于原始密集注意力分数的分布 。这里使用 KL 散度(KL-divergence)来衡量两个分布的差异,作为损失函数: 其中 是将原始模型所有注意力头的分数相加后进行 L1 归一化得到的。这个阶段非常短暂,仅用 2.1B tokens 进行训练。
- 目标: 初始化
-
阶段二:稀疏训练阶段 (Sparse Training Stage)
- 目标: 激活 DSA 的
Top-k稀疏选择机制,并让整个模型(包括主模块和索引器)适应这种稀疏的计算模式。 - 方法: 此时,模型的所有参数都被解冻并参与训练。主模型通过标准的语言建模损失进行优化,而
lightning indexer则继续通过 KL 散度损失进行优化,但此时的 KL 散度只在被选中的top-k个词元上计算: 其中 是被选中的top-k词元的集合。在这个阶段,模型总共训练了 943.7B tokens,k 的值被设为 2048。
- 目标: 激活 DSA 的
-
后续训练 (Post-Training): 在继续预训练之后,模型还经历了一个与
DeepSeek-V3.1-Terminus完全相同的后续训练流程,包括专家蒸馏 (Specialist Distillation) 和使用 GRPO 算法的混合强化学习 (Mixed RL Training),以对齐模型在推理、代码、Agent 等多方面的能力。
-
5. 实验设置 (Experimental Setup)
-
数据集 (Datasets):
- 预训练: 论文提到继续预训练的数据分布与用于
DeepSeek-V3.1-Terminus的 128K 长上下文扩展数据完全一致。 - 后续训练: 涵盖了数学、编程、逻辑推理、代码 Agent、搜索 Agent 等多个专业领域的数据。
- 评估: 使用了一系列公开的基准测试集,如
MMLU-Pro、GPQA-Diamond(通用能力),BrowseComp、SimpleQA(搜索 Agent),LiveCodeBench、SWE Verified(代码与代码 Agent),以及AIME 2025、HMMT 2025(数学)。
- 预训练: 论文提到继续预训练的数据分布与用于
-
评估指标 (Evaluation Metrics):
- EM (Exact Match): 精确匹配率,答案必须与标准答案完全一致。
- Pass@1: 单次生成成功通过测试用例的概率,常用于代码和数学问题评估。
- Acc. (Accuracy): 准确率,即正确分类或回答的比例。
- Rating: 评分,如 Codeforces 的 Elo 评分系统,用于评估编程竞赛水平。
-
对比基线 (Baselines):
DeepSeek-V3.1-Terminus: 这是唯一的、也是最关键的基线模型。由于DeepSeek-V3.2-Exp是在其基础上直接修改和继续训练而来,两者具有相同的模型规模、基础架构和大部分训练数据,因此对比结果能非常干净地反映出引入 DSA 机制本身带来的影响。
6. 实验结果与分析
-
核心结果分析 (Model Capabilities): 以下是论文中 Table 1 的内容,对比了两个模型在多个基准测试上的表现:
Benchmark (Metric) DeepSeek-V3.1-Terminus DeepSeek-V3.2-Exp General MMLU-PrO (EM) 85.0 85.0 GPQA-Diamond (Pass@1) 80.7 79.9 Humanity's Last Exam (Pass@1) 21.7 19.8 Search Agent BrowseComp (Acc.) 38.5 40.1 BrowseComp_zh (Acc.) 45.0 47.9 SimpleQA (Acc.) 96.8 97.1 Code LiveCodeBench (2408-2505) (Pass@1) 74.9 74.1 Codeforces-Div1(Rating) 2046 2121 Aider-Polyglot (Acc) 76.1 74.5 Code Agent SWE Verified (Agent mode) 68.4 67.8 SWE-bench Multilingual (Agent mode) 57.8 57.9 Terminal-bench (Terminus 1 framework) 36.7 37.7 Math AIME 2025(Pass@1) 88.4 89.3 HMMT 2025 (Pass@1) 86.1 83.6 - 主要发现: 总体来看,
DeepSeek-V3.2-Exp的性能与DeepSeek-V3.1-Terminus基本持平,没有出现因为引入稀疏注意力而导致的大幅性能衰退。在MMLU等关键指标上表现完全一致,在BrowseComp、Codeforces、AIME等任务上甚至略有提升。 - 性能下降分析: 在
GPQA、HLE和HMMT 2025等任务上,DeepSeek-V3.2-Exp的分数略低。论文解释称,这是因为新模型倾向于生成更少的推理步骤词元(reasoning tokens)。并且,如果使用其他生成更多词元的中间版本 checkpoint,这个性能差距会消失。这暗示性能差异可能源于模型行为的细微变化,而非核心能力的下降。
- 主要发现: 总体来看,
-
训练稳定性与推理成本分析 (Training Stability & Inference Costs):
-
训练稳定性:


上图展示了两个模型在
BrowseComp和SWE Verified任务上的 RL 训练曲线。可以看出,DeepSeek-V3.2-Exp(橙线) 和DeepSeek-V3.1-Terminus(蓝线) 的准确率曲线走势非常接近,稳步提升,这表明 DSA 机制的训练过程是稳定的,没有引入不确定性。 -
推理成本:

这张图是论文的核心亮点。它展示了在 H800 GPU 上,两个模型处理不同长度上下文的成本对比(以每百万 tokens 的美元计价)。
- 结果: 无论是在预填充(Prefilling,处理初始输入)还是解码(Decoding,逐词生成)阶段,
DeepSeek-V3.2-Exp的成本都远低于DeepSeek-V3.1-Terminus。 - 趋势: 最关键的是成本曲线的斜率。
DeepSeek-V3.1-Terminus的成本几乎随序列长度线性增长(这对应于 复杂度的总计算量),而DeepSeek-V3.2-Exp的成本曲线则平缓得多。这直观地证明了 DSA 成功地将计算瓶颈从二次方级别降低到了接近线性的级别。
- 结果: 无论是在预填充(Prefilling,处理初始输入)还是解码(Decoding,逐词生成)阶段,
-
7. 总结与思考 (Conclusion & Personal Thoughts)
-
结论总结 (Conclusion Summary): 论文成功地提出并验证了一种名为
DeepSeek Sparse Attention (DSA)的高效稀疏注意力机制。通过将其应用于DeepSeek-V3.1-Terminus模型,创造出DeepSeek-V3.2-Exp,该模型在保持与原版密集注意力模型相当性能的同时,极大地降低了长上下文处理的计算成本,为构建更经济、更高效的大型语言模型提供了有力的实践证明。 -
局限性与未来工作 (Limitations & Future Work):
- 真实世界验证: 论文作者坦诚地指出,尽管内部评估结果喜人,但模型仍需要在更广泛、更复杂的真实世界场景中进行大规模测试,以发现稀疏注意力架构潜在的未知局限性。
- 实验性标签: 模型名称中的
Exp(Experimental) 也暗示了这仍是一个探索性的版本,可能在某些方面还不够成熟。
-
个人启发与批判 (Personal Insights & Critique):
- 启发:
- 工程与研究的完美结合: 这篇论文展现了卓越的工程实践。它没有从零开始构建一个新模型,而是在一个强大的基座模型上进行“微创手术”,这种方法不仅高效,而且对比实验的结果也极具说服力。
- 解耦思想的重要性: DSA 将“选择”和“计算”两个环节解耦,用一个轻量级模块处理选择,用重量级模块处理计算。这种分工合作的思想在系统设计中非常普遍,论文成功地将其应用到了注意力机制中。
- 务实的训练策略: “密集预热 + 稀疏微调”的训练策略非常巧妙,它解决了稀疏模块冷启动时可能出现的训练不稳定问题,为相关研究提供了很好的借鉴。
- 批判性思考:
- 索引器本身的瓶颈: 尽管
lightning indexer计算开销远小于主注意力,但其理论复杂度仍是 。在未来上下文长度继续扩展到数百万甚至更长时,这个索引器本身是否会成为新的瓶颈? - 与其它稀疏方法的比较缺失: 论文只与自身的密集版本进行了对比,虽然这种对比最公平,但也缺少了与学术界其他知名稀疏注意力方法(如 Longformer, BigBird, FlashAttention 等)的横向比较,读者无法判断 DSA 相对于这些方法的优劣。
- “更少推理词元”的深层原因: 论文提到性能下降与模型生成更少推理词元有关。这是一个非常有趣的现象。这究竟是模型学会了“抄近道”导致的推理能力轻微下降,还是模型变得更“聪明”,能用更简洁的语言完成推理?这个问题值得更深入的消融实验来探究。
- 索引器本身的瓶颈: 尽管
- 启发:
相似论文推荐
基于向量语义检索推荐的相关论文。