Debunk the Myth of SFT Generalization
TL;DR 精炼摘要
本文通过决策任务揭示,监督微调(SFT)的泛化失败并非本质缺陷,而是源于模型对固定指令模板的“冻结提示”过拟合。为解决此问题,研究引入**提示多样性**训练SFT,使其能泛化到未见过的指令变体;同时,利用**链式思维监督(CoT)**显著提升了模型对更复杂任务(如更大地图、分布外数值)的泛化能力。实验证明,结合提示多样性和CoT的SFT,在指令和任务难度泛化上均能达到或超越强化学习(RL)基线,且保持了SFT的简单稳定性,从而打破了SFT泛化能力弱于RL的迷思。
摘要
A prevailing view holds that supervised fine-tuning (SFT) memorizes training data and fails to generalize, whereas reinforcement learning (RL) attains broader robustness. We revisit this claim through a systematic evaluation on two decision-making benchmarks, Sokoban and General Points, and arrive at a different conclusion. We show that much of SFT's perceived failure stems from frozen-prompt artifacts: when trained on fixed instruction templates, SFT models cling to training semantics rather than adapting to new ones. Introducing prompt diversity during training breaks this shortcut and yields strong generalization to unseen instruction variants without harming in-distribution performance. Beyond instruction shifts, we ask whether SFT can generalize to strictly harder tasks. Here, chain-of-thought (CoT) supervision provides an algorithmic scaffold that markedly improves transfer to more difficult regimes, such as larger Sokoban grids with additional boxes and arithmetic with out-of-distribution values or five-card compositions that increase combinatorial complexity. Finally, combining prompt diversity with CoT achieves the best of both worlds: robust generalization across both instruction-variant and difficulty-variant settings, matching or surpassing RL baselines on our benchmarks while retaining SFT's simplicity and stability. These findings challenge the narrative that SFT is inherently inferior to RL and support a data-centric perspective: with appropriately curated demonstrations, vanilla SFT can generalize as strongly as RL. Code reproducing the results in the paper can be found at: https://github.com/XiaofengLin7/debunking-sft-generalization.
思维导图
论文精读
中文精读
1. 论文基本信息 (Bibliographic Information)
- 标题 (Title): 揭穿 SFT 泛化的迷思 (Debunk the Myth of SFT Generalization)
- 作者 (Authors): Xiaofeng Lin (波士顿大学), Hejian Sang (领英), Zhipeng Wang (领英), Xuezhou Zhang (波士顿大学)。
- 发表期刊/会议 (Journal/Conference): 本文是一篇提交到 arXiv 的预印本 (Preprint)。预印本是未经同行评审 (Peer Review) 的学术手稿,通常用于在正式发表前快速分享研究成果。
- 发表年份 (Publication Year): 2025 (根据论文中的参考文献格式推断,但 arXiv ID
2510.00237是一个虚构的占位符)。 - 摘要 (Abstract): 传统观点认为,监督式微调 (SFT) 会死记硬背训练数据而缺乏泛化能力,而强化学习 (RL) 能获得更强的鲁棒性。本文通过在两个决策任务(推箱子和算点游戏)上的系统性评估,挑战了这一观点。研究发现,SFT 所谓的泛化失败很大程度上源于“冻结提示”现象:当模型在固定的指令模板上训练时,它会固守训练时的语义,而无法适应新的指令。通过在训练中引入提示多样性,可以打破这种“捷径学习”,使模型在不损害分布内性能的情况下,泛化到未见过的指令变体。此外,为了解决更难任务的泛化问题,论文引入了思维链 (CoT) 监督,显著提升了模型向更复杂场景(如更大的地图、更多的箱子、分布外数值的算术)的迁移能力。最终,将提示多样性与 CoT 相结合,实现了两全其美,在指令变体和难度变体上均达到或超过了 RL 基线的性能,同时保留了 SFT 的简单性和稳定性。这些发现表明,只要有精心策划的演示数据,SFT 本身并不劣于 RL。
- 原文链接 (Source Link):
- ArXiv 页面:
https://arxiv.org/abs/2510.00237 - PDF 链接:
http://arxiv.org/pdf/2510.00237v1 - 发布状态: 预印本 (Preprint)。
- ArXiv 页面:
2. 整体概括 (Executive Summary)
-
研究背景与动机 (Background & Motivation - Why):
- 核心问题: 在大语言模型 (LLM) 领域,一个普遍的看法是,监督式微调 (SFT) 倾向于“记忆”训练数据,导致其在面对与训练数据稍有不同的新情况(如指令变化或任务难度增加)时表现不佳,即泛化能力差。相比之下,强化学习 (RL) 微调被认为能学习到更通用的决策能力,从而获得更好的泛化性和鲁棒性。
- 重要性与挑战: 这个“SFT 记忆,RL 泛化”的观点影响了模型训练方法的选择。然而,RL 训练过程复杂、不稳定且计算成本高昂。如果 SFT 的泛化能力被低估了,那么找到提升 SFT 泛化能力的方法,将为模型对齐提供一条更简单、高效、稳定的路径。
- 切入点/创新思路: 本文没有从修改 SFT 算法本身入手,而是提出了一个以数据为中心 (Data-Centric) 的假设:SFT 的泛化瓶颈并非源于其最大似然目标函数,而是源于训练数据的设计缺陷。具体来说,是缺乏提示多样性 (Prompt Diversity) 和缺乏过程监督 (Process Supervision) 导致的。
-
核心贡献/主要发现 (Main Contribution/Findings - What):
- 揭示“冻结提示”现象 (Frozen-Prompt Artifacts): 论文首次明确指出,SFT 在固定指令模板上训练时,会学会忽略指令本身,只关注输入中变化的部分(如游戏状态),从而导致在指令变化时泛化失败。
- 提出并验证了两种数据增强策略:
- 提示多样性 (Prompt Diversity): 通过在训练时随机化指令(如改变动作名称),强制模型理解并遵循指令,从而解决了对指令变体 (Instruction Variants) 的泛化问题。
- 思维链监督 (Chain-of-Thought Supervision): 通过提供解题的中间步骤,为模型提供了“算法支架”,显著提升了其向更难任务(难度变体, Difficulty Variants)的泛化能力。
- 提出“SFT 黄金组合”: 将
提示多样性 + CoT结合,证明了 vanilla SFT(即标准 SFT)可以在指令和难度两个维度上实现强大的泛化,其性能足以媲美甚至超越复杂的 RL 方法。这为 SFT 的应用潜能提供了新的证据,并重塑了 SFT 与 RL 的权衡关系。
3. 预备知识与相关工作 (Prerequisite Knowledge & Related Work)
-
基础概念 (Foundational Concepts):
- 监督式微调 (Supervised Fine-Tuning, SFT): 这是训练 LLM 的一种常用技术。首先有一个经过大规模无监督预训练的基础模型 (Base Model),然后收集一批高质量的“指令-回答”对(称为专家演示数据)。SFT 的目标就是让模型学习模仿这些专家的回答,其数学目标是最小化模型生成专家回答的负对数似然 (Negative Log-Likelihood),也就是最大化模型生成正确答案的概率。
- 强化学习 (Reinforcement Learning, RL): 这是一种通过“试错”来学习的范式。模型(或称代理, Agent)与环境互动,执行动作并获得奖励 (Reward)。RL 的目标是学习一个策略 (Policy),使得长期累积奖励最大化。在 LLM 中,通常使用
PPO (Proximal Policy Optimization)等算法,通过一个奖励模型来为生成的文本打分,从而优化模型。本文中使用了GRPO (Group Relative Policy Optimization),一种PPO的变体。 - 思维链 (Chain-of-Thought, CoT): 一种提示 (Prompting) 或微调技术。它不是直接给出“问题-答案”对,而是在示例中展示从问题到答案的详细推理步骤。这能引导模型学习如何分解问题、进行逻辑推理,从而提高在复杂任务(如数学、逻辑)上的表现。
-
前人工作 (Previous Works):
- 大量先前研究(如 Chu et al. [2], Jin et al. [7])构成了“SFT 记忆,RL 泛化”的叙事。这些研究发现:
- SFT 在分布内 (In-Distribution, ID) 数据上表现很好,但在分布外 (Out-of-Distribution, OOD) 数据上性能急剧下降。
- RL 微调的模型能更好地保持与基础模型的“距离”,减少灾难性遗忘 (Catastrophic Forgetting),从而在 OOD 场景下更鲁棒。
- 从参数空间分析,SFT 倾向于让模型参数“过度专业化”于训练任务,而 RL 则能将参数调整到更具泛化性的配置。
- 同时,也有许多工作试图改进 SFT 算法,例如通过数据重加权、引入正则化项(如
PPO的裁剪思想)来缓解 SFT 的过拟合问题。
- 大量先前研究(如 Chu et al. [2], Jin et al. [7])构成了“SFT 记忆,RL 泛化”的叙事。这些研究发现:
-
技术演进 (Technological Evolution): LLM 的对齐技术经历了从简单的 SFT,到更复杂的 RLHF (Reinforcement Learning from Human Feedback),再到对 SFT 自身进行改进的阶段。本文则回归本源,探讨了在不改变 SFT 算法的前提下,仅通过优化数据就能实现强大泛化的可能性。
-
差异化分析 (Differentiation): 与之前的工作相比,本文的核心不同在于:
- 归因不同: 先前工作将 SFT 的泛化问题归咎于其目标函数(最大似然)的内在缺陷。本文则将其归咎于训练数据的设计问题(冻结提示)。
- 解决方案不同: 先前工作着重于设计更复杂的算法来改进 SFT。本文则主张使用简单的数据工程(提示多样性+CoT)来解决问题,而 SFT 算法本身保持不变。
4. 方法论 (Methodology - Core Technology & Implementation Details)
本文的核心方法论并非提出新模型,而是通过精心设计的实验来验证一个核心假设,并提出一套基于数据策划的解决方案。
-
方法原理 (Methodology Principles):
- 核心假设:冻结提示假说 (Frozen-Prompt Hypothesis): 当 SFT 训练数据中的指令部分保持不变时,模型会学会走“捷径”——它将这部分指令视为与任务无关的背景板,只学习输入中可变部分(如游戏状态)到输出的映射。因此,当测试时指令发生变化,模型由于从未学会“阅读”指令,便会泛化失败。
- 解决方案的直觉:
- 要让模型学会遵循指令,就必须让指令本身成为训练数据分布的一部分。这就是提示多样性 (Prompt Diversity) 的核心思想。
- 要让模型学会解决更难的问题,就必须教它解决问题的通用“算法”或“过程”,而不仅仅是记忆特定问题的答案。这就是思维链 (CoT) 监督的作用。
-
方法步骤与流程 (Steps & Procedures):
- 复现问题 (Replicating the Myth): 首先,作者按照先前研究的设置,在
Sokoban和General Points两个任务上使用标准 SFT 进行训练。结果复现了 SFT 在指令变体上性能崩溃的现象。 - 验证“冻结提示假说”:
- 指令有效性分析 (Instruction Validity Analysis): 作者定义了一个指标来衡量模型的输出是否遵循了测试时的指令(例如,在
Sokoban数字指令下,输出是否为数字)。实验发现,标准 SFT 模型的指令有效性在训练过程中迅速下降到零。 - 伪造环境测试 (Fake Environment Test): 作者设计了一个“伪造”环境:给模型的提示是新指令(如用数字1-4代表方向),但环境的评分标准仍然是旧指令(只接受'up', 'down'等)。结果发现,模型在伪造环境中的成功率与在原始训练任务上的成功率高度一致。这有力地证明了模型完全忽略了新指令,仍在执着地输出它在训练时记忆的旧词汇。
- 指令有效性分析 (Instruction Validity Analysis): 作者定义了一个指标来衡量模型的输出是否遵循了测试时的指令(例如,在
- 实施解决方案:
- 引入提示多样性:
- 在
Sokoban任务中,为每个训练样本从一个词汇表中随机采样四个词来代表四个方向,并在提示中明确给出该样本的映射关系。 - 在
General Points任务中,训练数据包含多种人头牌 (J, Q, K) 的数值映射规则。
- 在
- 引入思维链 (CoT) 监督:
- 作者使用一个在任务上经过 RL 微调的强模型 (
Qwen3-8B) 来生成高质量的 CoT 数据。 - 具体方法是:对每个问题,让强模型生成多个候选回答,然后通过拒绝采样 (Rejection Sampling) 筛选出正确的、包含推理过程的回答,作为 CoT 训练数据。
- 作者使用一个在任务上经过 RL 微调的强模型 (
- 引入提示多样性:
- 组合与评估: 将提示多样性与 CoT 结合,形成最终方案
Diversity + CoT,并在所有任务变体上与标准 SFT、仅使用其中一种策略的 SFT 以及 RL 基线进行全面比较。
- 复现问题 (Replicating the Myth): 首先,作者按照先前研究的设置,在
-
数学公式与关键细节 (Mathematical Formulas & Key Details):
- SFT 目标函数:
- : 模型 的参数。
- : 专家演示数据集,由查询 和参考回答 组成。
- : 模型在给定查询 的条件下,生成参考回答 的概率。
- 目标: 这个公式的目的是调整模型参数 ,以最大化模型生成专家示范回答的概率。
- RL 目标函数 (以 GRPO 为例):
- : 奖励函数,用于评估在查询 下生成回答 的好坏。
- 目标: 最大化模型生成的回答所能获得的期望奖励。
GRPO是一种具体的优化算法,它通过计算一组回答的相对优势 来稳定训练过程。
- SFT 目标函数:
5. 实验设置 (Experimental Setup)
-
数据集 (Datasets):
- Sokoban (推箱子): 一个需要长远规划的决策任务。
- 训练设置: 地图,1个箱子,指令为 "up, down, left, right"。
- 测试变体:
- 指令变体: 动作名称变为数字、字母或随机符号。
- 难度变体: 地图变大 ()、箱子增多 (2个),或两者兼有。
- General Points (算点游戏): 一个算术推理任务,类似 24 点。
- 训练设置: 4张牌,目标值24,人头牌 J, Q, K 都等于 10。
- 测试变体:
- 指令变体: J, Q, K 的值变为 5 或 7。
- 难度变体: 牌中出现更大的数字 (14-19),或使用 5 张牌。
- 混合变体: J, Q, K 的值变为 11, 12, 13,既是指令变化也是难度增加。
- Sokoban (推箱子): 一个需要长远规划的决策任务。
-
评估指标 (Evaluation Metrics):
- 成功率 (Success Rate): 衡量模型完成任务的比例。对于
Sokoban,指在规定步数内将所有箱子推到目标位置。对于General Points,指生成了使用所有给定卡牌且结果正确的数学表达式。 - 指令有效性 (Instruction Validity): 用于诊断问题,衡量模型的输出是否符合当前指令的格式和词汇要求。
- 成功率 (Success Rate): 衡量模型完成任务的比例。对于
-
对比基线 (Baselines):
- 标准 SFT (Ans.): 只使用最终答案进行监督微调。
- 多样性 SFT (Diver. + Ans.): 结合提示多样性的 SFT。
- CoT SFT (CoT): 使用思维链数据进行 SFT。
- 多样性 + CoT SFT (Diver. + CoT): 本文提出的最佳方案。
- RL (warm): 从一个 SFT 检查点开始进行热启动的 RL 微调,这是一个很强的基线,代表了当前被认为泛化能力更强的范式。
- 基础模型 (Base Models): 实验在
Qwen和Llama两个系列的模型上进行,以验证结论的通用性。
6. 实验结果与分析 (Results & Analysis)
-
核心结果分析 (Core Results Analysis):
-
标准 SFT 确实会“记忆”:
该图像为多个折线图组成的图表,展示了两种模型(Qwen-2.5-7B和Llama-3.1-8B-Instruct)在不同任务和条件下随训练步骤变化的成功率表现。图中包含六个子图,分别对应同分布任务(In distribution)、指令变体任务(Instruction variants)、伪造指令任务(Fake)及General Points任务的不同子集。总体显示两模型在简单和伪造指令任务中都能快速提升成功率,而在指令变体和部分复杂任务上表现差异明显,反映不同模型的泛化能力和指令适应能力。如上图
图像 1所示,标准 SFT (在图中未明确标出,但其行为是后续改进的基础) 在In distribution(左列) 任务上表现良好,成功率随训练步数增加而稳步提升。然而,在Instruction variants(中列) 任务上,成功率几乎为零,模型完全无法适应新的指令。与其形成鲜明对比的是,在Fake(右列) 任务中,其成功率与In distribution任务高度一致,这强有力地证明了模型在死记硬背训练时的指令词汇,而忽略了测试时的新指令。 -
指令有效性崩溃:
该图像为两个折线图,分别展示了Qwen-2.5-7B和Llama-3.1-8B-Instruct模型在SimpleSokoban和GP_ALL_5任务中的有效动作比例随训练步骤(Step)变化的趋势。图中橙线(Qwen)表现出稳定且较高的有效性,而蓝线(Llama)随训练进展有效性迅速下降,特别是在后期趋近于零。整体显示Qwen模型在这两个任务上具有更好的泛化能力和稳定性。上图
图像 2直观地展示了问题的根源。在SimpleSokobanNumerical任务中,Llama模型 (蓝线) 的指令有效性在训练开始后迅速降为零,意味着它很快就放弃了输出数字,转而输出其记忆中的 "up", "down" 等词。这正是“冻结提示”假说的直接证据。 -
数据策略的有效性 (分析 Table 1):
- 提示多样性解决指令泛化: 从论文的 Table 1 (文中提供,非图像) 可以看到,
Diver. + Ans.方法在指令变体 (Alpha.,Num.,Rand.) 上的成功率从 0 飙升至 0.8-0.9 的水平,同时Fake任务的成功率降为 0。这表明模型被成功地“教会”了阅读和遵循指令。 - CoT 解决难度泛化:
CoT方法在难度变体 (Large,TwoBoxes,Complex) 上表现出色,显著优于只用答案监督的 SFT。例如,在Sokoban的Complex任务上,Qwen模型的成功率从 0.19 提升至 0.28。这说明 CoT 提供的过程监督帮助模型学习到了更通用的解题策略。 Diversity + CoT实现最佳效果: 该组合方法在几乎所有 OOD 任务上都取得了最佳或接近最佳的性能,全面超越了其他 SFT 变体,并且在多个任务上匹配甚至超越了 RL 基线。例如,在Sokoban的所有指令和难度变体上,Diver. + CoT的Qwen模型均优于RL (warm)。这证明了精心设计数据的 vanilla SFT 具备强大的泛化能力。
- 提示多样性解决指令泛化: 从论文的 Table 1 (文中提供,非图像) 可以看到,
-
-
消融实验/参数分析 (Ablation Studies / Parameter Analysis):
- 附录 C 中的实验可以看作是一种消融分析。作者尝试了另一种提升泛化的思路:通过
KL散度或L2范数正则化来限制 SFT 模型偏离基础模型。 - 结果显示 (Table 6 和 Table 7),虽然正则化能在一定程度上提升指令泛化能力(因为限制了模型对训练指令的过拟合),但它也损害了模型学习任务特定知识的能力,导致在分布内和难度变体上的性能下降。
- 这反过来证明了本文提出的数据中心方法(提示多样性+CoT)的优越性,因为它在不牺牲任务学习效果的前提下,精准地解决了泛化问题。
- 附录 C 中的实验可以看作是一种消融分析。作者尝试了另一种提升泛化的思路:通过
7. 总结与思考 (Conclusion & Personal Thoughts)
-
结论总结 (Conclusion Summary):
- 本文有力地挑战了“SFT 记忆,RL 泛化”的传统观念,指出 SFT 的泛化失败主要源于数据设计缺陷,即“冻结提示”现象。
- 通过引入提示多样性和思维链 (CoT) 监督这两种简单而有效的数据策略,标准的 SFT 可以在指令和难度两个维度上实现强大的泛化能力。
- 最终,结合了两种策略的 SFT 在决策任务上的表现足以媲美甚至超越更复杂的 RL 方法,为大语言模型的对齐和微调提供了一条更简单、稳定、高效且同样有效的路径。
-
局限性与未来工作 (Limitations & Future Work):
- 任务和模型的局限性: 实验仅限于两个决策类任务 (
Sokoban和General Points) 和两种模型架构。结论是否能推广到更开放、更具创造性的生成任务(如写作、对话)以及其他模型上,还需要进一步验证。 - 更长的交互场景: 本文的任务交互轮次相对较短,在需要更长历史依赖的交互式环境中,SFT 的表现仍有待探索。
- 未来方向:
- 探索如何在不依赖数据增强的情况下,通过改进 SFT 算法本身(如目标函数、正则化)来提升泛化。
- 研究 SFT 和 RL 的混合方法,结合 SFT 的稳定性和 RL 的奖励优化能力,实现两全其美。
- 任务和模型的局限性: 实验仅限于两个决策类任务 (
-
个人启发与批判 (Personal Insights & Critique):
- 启发:
- 这篇论文是数据中心 AI (Data-Centric AI) 思想的绝佳范例。它告诉我们,在很多时候,与其追求更复杂的模型或算法,不如回头审视和优化我们的数据,往往能取得事半功倍的效果。
- “冻结提示”假说非常具有启发性。它提醒我们在设计训练数据时,必须确保所有希望模型理解和利用的信息都具有足够的多样性,否则模型很可能会学会“走捷径”,忽略那些看似不变的“背景信息”。
- 批判性思考:
- CoT 数据的来源: 论文中的 CoT 数据是由一个强大的、经过 RL 微调的模型生成的。这带来一个潜在的问题:SFT 的优异表现究竟是来自于 CoT 这种数据形式本身,还是来自于对一个更强的 RL 模型的知识蒸馏 (Knowledge Distillation)?虽然作者将其定位为一种高效的数据标注方法,但这确实使得 SFT 和 RL 之间的界限变得有些模糊。
- “揭穿迷思”的说法可能过于绝对: 虽然本文在选定的任务上提供了强有力的反驳证据,但“SFT 记忆,RL 泛化”的“迷思”可能在其他更复杂的、奖励信号更稀疏或需要主动探索的环境中依然部分成立。将结论推广到所有场景需要更加谨慎。
- 数据成本问题: 生成多样化的提示和高质量的 CoT 数据本身也需要成本。虽然可能低于 RL 的训练成本,但这依然是实践中需要权衡的因素。
- 启发:
相似论文推荐
基于向量语义检索推荐的相关论文。