论文
登录后可查看剩余解析次数。
标签筛选
自回归生成模型
One-Minute Video Generation with Test-Time Training
发表:2025/4/8
视频生成模型自回归生成模型基于Transformer的视频生成Test-Time Training复杂多场景故事生成
本文提出了一种新颖的测试时训练(TTT)层,解决了生成一分钟视频的挑战。通过引入TTT层到预训练的Transformer中,研究者能够根据文本故事生成更连贯的视频。实验表明,与现有方法相比,TTT层在故事连贯性上有显著提升,尽管仍存在伪影问题,且效率有待改善。
03
VideoGPT: Video Generation using VQ-VAE and Transformers
发表:2021/4/21
视频生成模型VQ-VAE 和 Transformer 联合应用BAIR 机器人数据集UCF-101 数据集自回归生成模型
本文提出了VideoGPT,采用VQVAE和简洁的Transformer架构用于自然视频的生成。模型分为两个阶段:首先通过3D卷积和轴向自注意力机制学习视频的离散潜在表示,然后使用自回归方式建模。这种方法在BAIR机器人数据集上生成的样本质量优于先进的GAN模型,在UCF101和TGIF数据集上也能生成高保真的自然视频,具有可复现性。
04
Hotspot-Driven Peptide Design via Multi-Fragment Autoregressive Extension
发表:2024/11/26
热点驱动肽设计自回归生成模型肽药物开发基于片段的肽生成能量密度模型
本文提出了PepHAR,一个热点驱动的自回归生成模型,用于设计针对特定蛋白质的肽。通过聚焦具有更高相互作用潜力的热点残基,并结合片段扩展与优化,PepHAR可以有效生成具有正确几何结构的肽,从而推动肽类药物开发。
03