AiPaper

论文

登录后可查看剩余解析次数。
标签筛选
Sieve: Attention-based Sampling of End-to-End Trace Data in Distributed Microservice Systems
发表:2021/9/1
分布式微服务追踪采样基于注意力的采样方法端到端追踪数据分析异常模式检测Robust Random Cut Forest
本文提出Sieve——一种基于注意力机制的在线采样器,通过路径向量与鲁棒随机切分森林识别结构与时间上不常见的追踪,从而高效捕获信息量大的异常轨迹。实验证明Sieve显著提高采样信息丰富度并降低存储成本,适用于大规模微服务系统。
01
Mint: Cost-Efficient Tracing with All Requests Collection via Commonality and Variability Analysis
发表:2025/2/6
分布式追踪数据压缩通用性与变异性分析成本高效追踪框架全请求采集追踪数据存储优化
本文提出Mint框架,通过共性与变异性分析方法,突破传统“采样0或1”的限制,实现对所有请求追踪数据的成本高效采集。实验证明,Mint在保留更多追踪信息的同时,将存储和网络开销分别降低至约2.7%和4.2%。
01
PEARL: Towards Permutation-Resilient LLMs
发表:2025/2/20
大语言模型强化学习训练大语言模型推理能力增强序列策略优化无训练加速方法
本文提出排列弹性学习(PEARL),通过分布鲁棒优化和排列提议网络结合最优传输算法,针对最坏排列情况提升大型语言模型的鲁棒性。PEARL有效抵御排列攻击,并在多样上下文场景下显著增强模型性能和泛化能力。
06
EdgeShard: Efficient LLM Inference via Collaborative Edge Computing
发表:2024/5/23
大语言模型推理能力增强无训练加速方法边缘计算协同推理模型分片部署动态规划优化算法
EdgeShard提出协作边缘计算框架,将大语言模型分片并部署于分布式异构设备,通过动态规划优化设备选择和模型切分,实现推理延迟降低50%、吞吐量提升两倍,有效缓解云端依赖带来的延迟、带宽和隐私问题。
04
Learning to Reason without External Rewards
发表:2025/5/26
大语言模型强化学习训练序列策略优化无训练加速方法强化学习数学推理
本文提出InTuIToR,一种基于模型自我确信度的无外部奖励强化学习方法,实现大型语言模型的无监督复杂推理训练。利用组相对策略优化替代传统奖励函数,InTuIToR在数学和代码生成任务中展现优异泛化能力,免除对标注数据依赖。
03
Drivel-ology: Challenging LLMs with Interpreting Nonsense with Depth
发表:2025/9/4
Drivelology语言现象研究多语言Drivelology数据集大语言模型语用理解缺陷隐含语义推理任务语言模型生成与分类评测
本文提出“废话学”现象,指表面荒谬但语用含义深刻的语句,挑战大语言模型的上下文推理和情感解读能力。构建1200多语种数据集,经专家严格审核,系统评测模型在分类、生成和推理上的不足,揭示其理解深层隐含意义的局限。
02
MQuant: Unleashing the Inference Potential of Multimodal Large Language Models via Static Quantization
发表:2025/10/25
多模态大语言模型静态量化方法后训练量化框架视觉与文本模态量化大语言模型推理能力增强
本文提出MQuant,一种针对多模态大型语言模型的训练后静态量化框架。通过模态特定静态量化、注意力不变灵活切换和旋转幅度抑制,显著降低推理延迟和异常值影响,提高推理效率,支持多主流模型部署。
04
AceParse: A Comprehensive Dataset with Diverse Structured Texts for Academic Literature Parsing
发表:2024/9/16
学术文献结构化文本解析多模态模型微调公式与算法解析数据集结构化文本解析数据集
AceParse 构建了首个涵盖公式、表格、列表、算法及嵌入数学表达式句子的多样化学术结构文本数据集,推动数据中心AI发展。基于此,微调的多模态模型 AceParser 显著提升解析准确率,优于现有最先进方法。
05
SP-MoE: Speculative Decoding and Prefetching for Accelerating MoE-based Model Inference
发表:2025/10/12
Mixture-of-Experts 推理加速投机解码机制专家预取策略计算-通信流水线多token并行验证
SPMoE提出针对混合专家模型推理中推测解码引发的显存膨胀与带宽瓶颈的感知卸载框架。通过推测性专家预取、剪裁层策略及流水线运行时设计,有效预加载专家并隐藏加载延迟,实现最高3.5倍推理速度提升。
08
Contrastive Incomplete Cross-Modal Hashing
发表:2024/6/14
跨模态哈希技术不完整跨模态数据处理语义相似性协调模块语义感知对比哈希上下文对应对齐
提出对比式不完整跨模态哈希(CICH)方法,解决现实中跨模态数据不完整导致的语义与模态相似性崩溃及对应关系不确定问题。通过原型语义相似性协调和语义感知对比哈希模块,重建不完整跨模态相似性,实现更准确的跨模态检索。
05
ORCA: A Distributed Serving System for Transformer-Based Generative Models
Transformer大型生成模型推理服务迭代级调度机制选择性批处理技术分布式推理系统大规模模型推理加速
提出ORCA分布式推理系统,通过迭代级调度和选择性批处理优化Transformer生成模型的推理效率。该系统针对多轮自回归生成请求,改进批次调度机制,实现灵活高效的执行,GPT3 175B测试中吞吐量提升近37倍。
03
Quality-Guided Vision-Language Learning for Long-Term Action Quality Assessment
发表:2025/1/1
动作质量评估视觉语言学习细粒度质量评分语义渐进学习策略动作评分文本提示
本文提出质量引导视觉语言学习方法,通过质量相关文本提示引导视觉特征映射至细粒度分数区间,并设计渐进式语义学习模块,从粗到细精炼评分,适用于所有动作场景且无需额外标注。实验验证此法在多个长期动作质量评估数据集上表现优异。
03
DeepSeekMath: Pushing the Limits of Mathematical Reasoning in Open Language Models
发表:2024/2/6
大语言模型强化学习训练数学推理基准测试Group Relative Policy Optimization大语言模型微调公开数据驱动预训练
本文提出DeepSeekMath 7B,通过对1200亿数学相关词元的持续预训练及自然语言与代码数据结合,显著提升开放语言模型的数学推理能力。引入组相对策略优化(GRPO)算法,优化记忆并增强推理效果,实现在MATH基准上51.7%分数,接近GPT4水平。
03
Large Language Model Offloading using Active Inference in 6G Symbiotic IoT
发表:2025/1/1
大语言模型卸载策略主动推理方法6G边缘计算资源调度云边协同计算协生物联网
本文提出基于主动推理的大语言模型卸载方法,融合6G边缘计算与云边协同,优化共生物联网中资源调度与计算负载,实现高效智能推理服务,提升系统性能与资源利用率。
03
Learning with Semantics: Towards a {Semantics-Aware} Routing Anomaly Detection System
发表:2024/1/1
BGP路由异常检测网络表示学习自治系统角色学习基于语义的网络安全大规模路由数据分析
本文提出基于BEAM的语义感知BGP路由异常检测系统,通过融合BGP语义精准学习自治系统的路由角色,实现异常检测转化为路由角色变化的监测。系统在18个真实数据集上验证,能有效准确发现历次路由异常,降低训练开销,提高结果可解释性。
05
Vaccine: Perturbation-aware Alignment for Large Language Models against Harmful Fine-tuning Attack
发表:2024/2/2
有害微调风险缓解大语言模型微调大语言模型安全机制嵌入表示鲁棒性
针对微调即服务中的有害数据攻击,本文揭示有害嵌入漂移现象,提出扰动感知对齐技术“Vaccine”,通过对齐阶段逐步施加扰动,生成稳健隐层嵌入,有效抵御有害扰动引发的对齐失效,提升主流开源大模型的安全性与推理能力。
06
Distributed Learning and Inference Systems: A Networking Perspective
发表:2025/1/9
分布式机器学习系统分布式推理框架隐私保护分布式训练数据与动态感知网络网络视角下的AI系统设计
本文提出基于网络视角的数据与动态感知推理训练网络(DAITN),旨在突破中心化机器学习的隐私风险、高存储和计算资源需求等瓶颈,实现分布式AI系统的高效管理。讨论了框架组件、功能与面临的关键挑战,推动分布式学习和推理研究发展。
04
DreamClear: High-Capacity Real-World Image Restoration with Privacy-Safe Dataset Curation
发表:2024/10/24
现实场景图像修复Diffusion Transformer隐私安全数据集构建文本到图像扩散模型多模态大语言模型辅助修复
本文提出GenIR数据策划流程,通过双提示词学习生成百万级隐私安全图像数据集,解决现有数据集容量和版权问题。同时引入基于扩散Transformer的DreamClear模型,结合生成先验与多模态大语言模型,实现对多样真实降解的高效自适应图像修复,显著提升恢复效果。
06
Effective Diffusion Transformer Architecture for Image Super-Resolution
发表:2024/9/29
Diffusion模型图像超分辨率Diffusion Transformer多尺度层次特征提取频率自适应时步条件模块
提出DiTSR扩散Transformer架构,采用U型多尺度层次特征提取和统一各向同性设计,提升计算资源利用效率。引入频率自适应时间步条件模块,强化不同时间步频率信息处理能力。在无预训练下达到并超越先验方法的超分辨率效果。
05
Residual corrective diffusion modeling for km-scale atmospheric downscaling
发表:2025/2/24
残差校正扩散模型千米尺度大气降尺度生成式扩散模型区域气象模拟多尺度气象数据融合
本文提出结合确定性模型与生成式扩散模型的两步法,实现从25公里再分析数据到台湾地区2公里业务天气模型的高效降尺度。该方法恢复气象数据的幂律关系,提升天气现象梯度锐度和台风强度,展现出良好确定性与概率性技能,拓展了全球到区域机器学习模拟的应用前景。
03