论文
登录后可查看剩余解析次数。
标签筛选
大语言模型微调
SCALING LARGE LANGUAGE MODELS FOR NEXT-GENERATION SINGLE-CELL ANALYSIS
发表:2025/4/17
大语言模型微调单细胞RNA测序细胞文本建模生物信息合成多细胞上下文推理
本研究提出了一种基于Cell2Sentence框架的新方法,将单细胞RNA测序数据转化为文本“细胞句子”,并在超过十亿个标记的语料库上训练大型语言模型。通过将模型规模扩展至270亿参数,观察到在多细胞信息整合及高级下游任务中的持续性能提升,最终为下一代单细胞分析和“虚拟细胞”的开发奠定了基础。
03
Pharmacist: Safety Alignment Data Curation for Large Language Models
against Harmful Fine-tuning
发表:2025/10/11
有害微调风险缓解大语言模型安全机制大语言模型微调
本文提出Pharmacist,一种针对大型语言模型有害微调的安全对齐数据筛选方法。通过训练数据选择器,Pharmacist优先挑选高质量且安全关键的对齐数据,显著提升防御效果与推理性能,同时减少训练时间,优于现有防御策略。
02
Antidote: Post-fine-tuning Safety Alignment for Large Language Models
against Harmful Fine-tuning
发表:2024/8/19
有害微调风险缓解大语言模型微调大语言模型安全机制
针对大语言模型易被有害微调破坏安全对齐问题,提出Antidote,一种后微调阶段的安全恢复方法。通过一次性剪枝去除有害权重,无需依赖微调超参数。实验表明,Antidote有效降低有害输出,且保持任务准确率。代码已开源。
02
CrAM: Credibility-Aware Attention Modification in LLMs for Combating Misinformation in RAG
发表:2025/4/11
大语言模型微调检索增强推理大语言模型安全机制可信度感知注意力修改大语言模型推理能力增强
本文提出可信度感知注意力修改(CrAM)方法,通过调整大型语言模型关键注意力头的权重,减少低可信度文档对检索增强生成(RAG)的负面影响。实验证明,CrAM在多种模型和数据集上显著提升了对错误信息的抵抗力,优于监督微调。
03
A Survey on Generative Recommendation: Data, Model, and Tasks
发表:2025/10/31
生成式推荐系统大语言模型微调Diffusion模型多模态大语言模型基于大语言模型的推荐系统
本文综述生成式推荐的新范式,基于数据增强与统一、模型对齐训练及任务设计三个维度系统分析。重点探讨大型语言模型和扩散模型的创新应用,揭示生成推荐在知识整合、自然语言理解与个性化生成上的优势。
06
Booster: Tackling Harmful Fine-tuning for Large Language Models via
Attenuating Harmful Perturbation
发表:2024/9/3
有害微调风险缓解大语言模型微调大语言模型安全机制权重扰动缓解方法模型对齐阶段优化
本文提出Booster方法,通过在对齐训练阶段引入损失正则化,有效减弱模型权重的有害扰动,缓解因有害微调造成的安全风险。实验证明该方法降低有害行为生成概率,同时保持下游任务性能,提升了大语言模型的安全微调能力。
04
Grounded in Reality: Learning and Deploying Proactive LLM from Offline
Logs
发表:2025/10/29
大语言模型强化学习训练序列策略优化大语言模型微调
本文提出LearntoAsk框架,通过利用离线专家日志中的观察未来,重塑离线策略学习,实现无模拟器主动式大型语言模型训练。该方法精准推断逐轮奖励,有效分解长时程任务,并辅以自动化评分校准,在医疗领域展现优异性能,成功部署在线服务。
04
Large Language Models as Realistic Microservice Trace Generators
发表:2024/12/16
大语言模型微调微服务调用图生成合成工作负载追踪递归生成方法指令微调
本文提出利用大型语言模型微调通过递归方法生成逼真微服务调用图合成跟踪,结合指令调优增强约束学习,显著提升多样性和准确性,能有效替代真实数据并支持关键跟踪特征预测与数据补全等下游任务。
06
MiniOneRec: An Open-Source Framework for Scaling Generative
Recommendation
发表:2025/10/28
生成式推荐系统大语言模型微调大语言模型强化学习训练序列策略优化残差量化变分自编码器
提出MiniOneRec开源框架,实现生成式推荐端到端流程,利用残差量化VAE构建SID,针对0.5B7B参数Qwen模型进行后训练。验证了生成式推荐的规模效应及参数效率,通过全流程SID对齐和带约束强化学习显著提升排序精度和推荐多样性。
015
Plug-and-Play Policy Planner for Large Language Model Powered Dialogue
Agents
发表:2023/11/1
大语言模型微调大语言模型强化学习训练基于大语言模型的动作规划对话策略规划自回归强化学习自演练
提出PPDPP,一种可插拔对话策略规划器,通过监督微调与基于自玩模拟的强化学习提升大型语言模型在主动对话中的策略制定能力。该方法不仅增强了策略泛化和适应性,还在多场景主动对话任务中显著优于现有方案。
04
Training LLM Agents to Empower Humans
发表:2025/10/8
大语言模型微调基于大语言模型的动作规划无训练加速方法强化学习保持先验能力机制
本文提出一种基于最大化人类赋能的LLM微调方法,仅依赖离线文本数据,无需额外人类反馈,实现智能体更有效辅助人类。用户研究及编码环境评测显示,该方法显著提升用户接受度和编码任务成功率,缓解智能体过度独立完成任务的问题。
012
Self-Improving LLM Agents at Test-Time
发表:2025/10/8
大语言模型微调大语言模型强化学习训练大语言模型推理能力增强大语言模型置信度校准自我增强大语言模型
本文提出测试时自改进方法,通过不确定性检测、自我数据增强和测试时微调三步,实现大型语言模型智能体即时强化。TTSI显著提升准确率并大幅降低训练样本需求,TTD进一步优化复杂情境表现,展现了低成本高效自演化智能体新范式。
09
Spinning Straw into Gold: Relabeling LLM Agent Trajectories in Hindsight for Successful Demonstrations
发表:2025/10/8
大语言模型微调序列策略优化大语言模型强化学习训练长时序一致性建模大语言模型推理能力增强
本文提出事后监督学习(HSL)框架,通过辅助LLM重新标记智能体轨迹中的实际达成目标,结合不相关动作掩蔽和样本重加权,提升长时程部分可观环境中LLM智能体的微调效果。实验在ALFWorld和WebShop验证了HSL的高数据效率和兼容性,显著优于传统方法。
03
Chain of Strategy Optimization Makes Large Language Models Better
Emotional Supporter
发表:2025/3/7
序列策略优化大语言模型微调情感支持对话偏好偏置缓解基于MCTS的策略数据构建
本文提出链式策略优化(CSO)方法,以蒙特卡洛树搜索构建偏好数据集ESCPro,实现细粒度回合级策略选择优化。CSO显著提升大型语言模型在情绪支持对话中的策略准确性与偏好偏差缓解,增强模型同理心与响应适切性。
02
DeepSeekMath: Pushing the Limits of Mathematical Reasoning in Open
Language Models
发表:2024/2/6
大语言模型强化学习训练数学推理基准测试Group Relative Policy Optimization大语言模型微调公开数据驱动预训练
本文提出DeepSeekMath 7B,通过对1200亿数学相关词元的持续预训练及自然语言与代码数据结合,显著提升开放语言模型的数学推理能力。引入组相对策略优化(GRPO)算法,优化记忆并增强推理效果,实现在MATH基准上51.7%分数,接近GPT4水平。
03
Vaccine: Perturbation-aware Alignment for Large Language Models against
Harmful Fine-tuning Attack
发表:2024/2/2
有害微调风险缓解大语言模型微调大语言模型安全机制嵌入表示鲁棒性
针对微调即服务中的有害数据攻击,本文揭示有害嵌入漂移现象,提出扰动感知对齐技术“Vaccine”,通过对齐阶段逐步施加扰动,生成稳健隐层嵌入,有效抵御有害扰动引发的对齐失效,提升主流开源大模型的安全性与推理能力。
06
Large Language Diffusion Models
发表:2025/2/14
大语言模型扩散模型自回归扩散模型大语言模型微调Transformer架构概率推断生成方法
本文提出LLaDA,一种基于扩散模型的大型语言模型,通过前向掩码和逆向生成用Transformer预测词元,优化似然下界,实现概率推断。在多任务与上下文学习中表现优异,突破自回归模型限制,展现扩散模型在大规模语言建模中的潜力。
03
OneFlowSeq: Achieving One-Step Generation for Diffusion Language Models via Lightweight Distillation
发表:2025/10/8
Diffusion 模型微调自回归扩散模型大语言模型微调序列策略优化无训练加速方法
OneFlowSeq提出一种轻量蒸馏框架,将多步扩散教师模型精炼为单步生成器,利用MeanFlow监督和Jacobianvector乘积信号提高指导质量。显著提升生成速度和性能,参数量缩减1600倍,实验证明在多任务上超越传统方法。
016
LLMs Reproduce Human Purchase Intent via Semantic Similarity Elicitation
of Likert Ratings
发表:2025/10/9
大语言模型微调基于大语言模型的推荐系统语义相似度评分方法Likert量表模拟消费者行为建模
本文提出语义相似度评级(SSR)方法,通过对大语言模型生成文本与参考陈述的嵌入相似度映射,实现对人类购买意图的高效仿真。SSR在包含9300人类响应的大规模个人护理产品调查中达成90%重测信度,保持响应分布真实性及可解释性,促进可扩展消费者研究。
09
Can LLM Agents Simulate Multi-Turn Human Behavior? Evidence from Real
Online Customer Behavior Data
发表:2025/3/27
大语言模型微调大语言模型强化学习训练序列策略优化基于大语言模型的动作规划真实用户行为模拟
本文首次基于3.1万真实购物会话大规模量化评估了LLM Agent多轮模拟人类行为的能力,发现基于提示的模型准确率仅11.86%。通过微调及合成推理轨迹增强,Qwen2.57B模型准确率提升至17.26%,显著改进了行为预测的实际准确性。
03