论文
登录后可查看剩余解析次数。
标签筛选
自回归扩散模型
InfVSR: Breaking Length Limits of Generic Video Super-Resolution
发表:2025/10/1
视频超分辨率自回归扩散模型长序列视频处理视频扩散模型时序一致性评估
InfVSR创新性将视频超分辨率任务重构为自回归单步扩散模型,通过改造预训练扩散变换器实现流式高效推理,结合滚动缓存与视觉引导保障时序一致性,并通过分块像素监督与跨块分布匹配蒸馏多步扩散过程,有效突破长视频处理的效率和伪影限制。
04
Large Language Diffusion Models
发表:2025/2/14
大语言模型扩散模型自回归扩散模型大语言模型微调Transformer架构概率推断生成方法
本文提出LLaDA,一种基于扩散模型的大型语言模型,通过前向掩码和逆向生成用Transformer预测词元,优化似然下界,实现概率推断。在多任务与上下文学习中表现优异,突破自回归模型限制,展现扩散模型在大规模语言建模中的潜力。
03
dLLM-Cache: Accelerating Diffusion Large Language Models with Adaptive
Caching
发表:2025/5/17
Diffusion模型微调扩散模型高效推理大语言模型推理能力增强无训练加速方法自回归扩散模型
本文针对扩散大语言模型(dLLMs)推理延迟高问题,提出未经训练的自适应缓存框架dLLMCache。其结合长间隔提示缓存与基于特征相似性的部分响应更新,实现了对中间计算的高效重用,在LLaDA 8B和Dream 7B上最高加速9.1倍,同时保证输出质量。
04
OneFlowSeq: Achieving One-Step Generation for Diffusion Language Models via Lightweight Distillation
发表:2025/10/8
Diffusion 模型微调自回归扩散模型大语言模型微调序列策略优化无训练加速方法
OneFlowSeq提出一种轻量蒸馏框架,将多步扩散教师模型精炼为单步生成器,利用MeanFlow监督和Jacobianvector乘积信号提高指导质量。显著提升生成速度和性能,参数量缩减1600倍,实验证明在多任务上超越传统方法。
016