论文状态:已完成

MA-LMM: Memory-Augmented Large Multimodal Model for Long-Term Video Understanding

发表:2024/04/09
原文链接PDF 下载
价格:0.100000
价格:0.100000
已有 3 人读过
本分析由 AI 生成,可能不完全准确,请以原文为准。

TL;DR 精炼摘要

本文提出了一种新的记忆增强大型多模态模型MA-LMM,以实现长时视频理解。模型通过在线方式处理视频,利用记忆库存储历史视频信息,突破了现有大型模型在处理视频帧数量上的限制。广泛的实验表明,MA-LMM在诸如视频问答和字幕生成等任务上均取得了最先进的性能。

摘要

With the success of large language models (LLMs), integrating the vision model into LLMs to build vision-language foundation models has gained much more interest recently. However, existing LLM-based large multimodal models (e.g., Video-LLaMA, VideoChat) can only take in a limited number of frames for short video understanding. In this study, we mainly focus on designing an efficient and effective model for long-term video understanding. Instead of trying to process more frames simultaneously like most existing work, we propose to process videos in an online manner and store past video information in a memory bank. This allows our model to reference historical video content for long-term analysis without exceeding LLMs' context length constraints or GPU memory limits. Our memory bank can be seamlessly integrated into current multimodal LLMs in an off-the-shelf manner. We conduct extensive experiments on various video understanding tasks, such as long-video understanding, video question answering, and video captioning, and our model can achieve state-of-the-art performances across multiple datasets. Code available at https://boheumd.github.io/MA-LMM/.

思维导图

论文精读

中文精读

1. 论文基本信息

1.1. 标题

MA-LMM: Memory-Augmented Large Multimodal Model for Long-Term Video Understanding

中文翻译:MA-LMM:用于长时视频理解的记忆增强大型多模态模型

论文标题清晰地揭示了其核心内容:

  • MA-LMM: 论文提出的模型名称。
  • Memory-Augmented: 核心技术,即“记忆增强”,指明了模型通过引入记忆机制来提升性能。
  • Large Multimodal Model (LMM): 模型类别,属于当前热门的大型多模态模型领域,这类模型通常结合了大型语言模型(LLM)和视觉模型。
  • Long-Term Video Understanding: 主要应用场景和目标任务,即理解时长较长的视频内容,这是一个具有挑战性的研究方向。

1.2. 作者

Bo He, Hengduo Li, Young Kyun Jang, Menglin Jia, Xuefei Cao, Ashish Shah, Abhinav Shrivastava, Ser-Nam Lim。

作者分别来自马里兰大学帕克分校 (University of Maryland, College Park)、Meta 公司以及中佛罗里达大学 (University of Central Florida)。这表明该研究是学术界与工业界(特别是像 Meta 这样在 AI 领域有深厚积累的公司)紧密合作的产物。

1.3. 发表期刊/会议

arXiv 预印本

本文于 2024 年 4 月 8 日提交至 arXiv。arXiv 是一个开放获取的学术论文预印本平台,允许研究者在同行评审之前快速分享他们的研究成果。这意味着该论文在发表时尚未经过正式的同行评审流程,但其思路和结果已经可以被学术社区所了解和讨论。

1.4. 发表年份

2024

1.5. 摘要

随着大型语言模型 (LLMs) 的成功,将视觉模型集成到 LLMs 中以构建视觉-语言基础模型近来引起了广泛关注。然而,现有的基于 LLM 的大型多模态模型(如 Video-LLaMAVideoChat)只能处理有限数量的视频帧,适用于短视频理解。本研究主要致力于设计一个高效且有效的模型以实现长时视频理解。与大多数现有工作试图同时处理更多帧不同,我们提出以在线方式 (online manner) 处理视频,并将过去的视频信息存储在记忆库 (memory bank) 中。这使得我们的模型能够在不超出 LLM 上下文长度限制或 GPU 显存限制的情况下,参考历史视频内容进行长时分析。我们的记忆库可以以即插即用 (off-the-shelf) 的方式无缝集成到当前的多模态 LLM 中。我们在多种视频理解任务(如长时视频理解、视频问答和视频字幕生成)上进行了广泛实验,我们的模型在多个数据集上均取得了最先进的性能。

1.6. 原文链接

2. 整体概括

2.1. 研究背景与动机

2.1.1. 核心问题

当前,基于大型语言模型(LLM)的大型多模态模型(LMM)在处理图文任务上取得了巨大成功,但在处理视频,尤其是长时视频(如电影、教学视频等)时,面临着严峻的挑战。

2.1.2. 问题的重要性与挑战

长时视频包含丰富而复杂的动态信息、情节发展和因果关系,理解这些内容对于实现更高级的人工智能至关重要。然而,现有方法存在以下核心挑战(Gap):

  1. LLM 上下文长度限制: LLM 能够处理的输入 词元 (token) 数量是有限的(例如,LLaMA 的上下文长度为 2048)。视频由大量帧组成,如果将每一帧都转换为视觉词元并送入 LLM,很容易就会超出其上下文长度限制。
  2. 计算资源瓶颈: 同时处理大量视频帧会消耗巨大的 GPU 显存和计算资源,使得训练和推理成本高昂,不具备可扩展性。
  3. 信息损失与建模不足:
    • 朴素解决方案: 一些方法,如 Video-ChatGPT,对所有帧的特征进行时间上的平均池化 (average pooling),这种方式虽然节省了资源,但严重损失了视频的时序动态信息。
    • 复杂解决方案: 另一些方法,如 Video-LLaMA,通过增加一个额外的视频 查询变换器 (Q-Former) 来专门建模时间关系。但这增加了模型复杂度和训练参数,并且这种“一次性”处理所有帧的离线 (offline) 模式不适用于需要实时分析的在线场景。

2.1.3. 论文的切入点与创新思路

针对上述挑战,本文提出了一个全新的范式:不再试图一次性“看”完整个长视频,而是模仿人类理解视频的方式——逐帧顺序观看,并将看过的关键信息存入“记忆”中

具体而言,论文的创新思路是:

  1. 在线处理 (Online Processing): 模型以自回归的方式顺序处理视频的每一帧或每一小段。
  2. 记忆增强 (Memory-Augmented): 引入一个长时记忆库 (long-term memory bank),用于累积和存储过去帧的视觉信息。当处理新的一帧时,模型可以访问这个记忆库,从而将当前信息与历史背景联系起来。
  3. 效率与可扩展性: 这种设计巧妙地规避了 LLM 的上下文长度限制(因为送入 LLM 的始终是经过高度概括的少量词元),并大大降低了 GPU 显存占用,使得处理任意长度的视频成为可能。

2.2. 核心贡献/主要发现

论文的主要贡献可以总结为以下三点:

  1. 提出了一种新颖的长时记忆库设计:该记忆库可以作为一种即插即用 (plug-and-play) 的模块,无缝集成到现有的 LMM 架构中,赋予它们处理长时视频的能力。
  2. 提出了一种高效的在线视频处理框架:通过顺序处理视频帧并利用记忆库,显著降低了 GPU 显存使用,并解决了 LLM 的上下文长度限制问题,为长时视频理解提供了一个可行的解决方案。
  3. 在多个基准测试上取得了最先进的性能:实验证明,MA-LMM 在长时视频理解、视频问答(VQA)和视频字幕生成 (Video Captioning) 等多项任务上均表现出色,验证了该方法的有效性和泛化能力。

3. 预备知识与相关工作

3.1. 基础概念

3.1.1. 大型语言模型 (Large Language Models, LLMs)

LLM 是一种在海量文本数据上进行预训练的深度学习模型,通常基于 Transformer 架构。它们展现了强大的自然语言理解和生成能力,可以执行问答、翻译、摘要、代码生成等多种任务。代表模型有 GPT 系列、LLaMA 等。LLM 的一个核心局限是其上下文窗口 (context window),即模型一次能处理的文本长度(以 词元 (token) 为单位)是固定的。

3.1.2. 大型多模态模型 (Large Multimodal Models, LMMs)

LMM 是将 LLM 的能力扩展到多模态领域(如图像、视频、音频)的模型。其典型结构是“视觉编码器 + 适配器 + LLM”

  • 视觉编码器 (Vision Encoder): 负责从图像或视频帧中提取视觉特征。常用的有 Vision Transformer (ViT)
  • LLM: 作为模型的大脑,负责理解和推理。
  • 适配器 (Adapter): 负责将视觉特征“翻译”成 LLM 能够理解的语言空间中的嵌入(词元),起着桥梁作用。

3.1.3. 查询变换器 (Querying Transformer, Q-Former)

Q-FormerBLIP-2 模型中提出的一种高效的适配器模块。它的核心思想是使用一小组可学习的查询 (learnable queries) 来从视觉编码器产生的海量视觉特征中“查询”出与文本最相关的、固定数量的特征。这组查询就像是向图像提出了 N 个“问题”,得到的 N 个“答案”就构成了对图像的紧凑表示,然后被送入 LLM。这种机制有效地将可变的、高维的视觉信息压缩成了固定长度、低维的表示,极大地减轻了 LLM 的负担。

3.1.4. 注意力机制 (Attention Mechanism)

Attention 机制是 Transformer 架构的核心,它允许模型在处理一个序列时,动态地为序列中的不同部分分配不同的权重。其最常见的形式是缩放点积注意力 (Scaled Dot-Product Attention),即使本文未复述,其计算公式也是理解 Q-FormerLLM 内部工作原理的关键: Attention(Q,K,V)=softmax(QKTdk)V \mathrm{Attention}(Q, K, V) = \mathrm{softmax}\left(\frac{QK^T}{\sqrt{d_k}}\right)V

  • QQ (Query): 查询,代表当前正在处理的元素。

  • KK (Key): 键,代表序列中可以被关注的元素。QQKK 的相似度决定了注意力权重。

  • VV (Value): 值,代表序列中元素的内容。注意力权重最终作用于 VV 上,得到加权和。

  • dkd_k: 键向量的维度。除以 dk\sqrt{d_k} 是为了进行缩放,防止点积结果过大导致 softmax 函数梯度消失。

    Q-Former交叉注意力 (cross-attention) 层中,QQ 来自可学习查询,KKVV 来自视觉特征。在 Transformer自注意力 (self-attention) 层中,Q, K, V 都来自同一个输入序列。

3.2. 前人工作

作者在论文中回顾了三类相关工作:

  1. 图像-语言模型 (Image-language models):

    • Flamingo, BLIP-2, LLaVA 等模型通过将预训练的视觉编码器和 LLM 连接起来,在图文任务上取得了巨大成功。BLIP-2 提出的 Q-Former 是一种轻量级且高效的连接方式。LLaVA 则使用更简单的线性层进行投射。这些模型为 MA-LMM 提供了基础架构的参考。
  2. 视频-语言模型 (Video-language models):

    • 简单扩展: FlamingoBLIP-2 等模型通过将视频帧特征展平为一维序列来处理视频,但这种方式无法有效捕捉时序动态。
    • 特定设计: Video-LLaMABLIP-2 基础上增加了一个视频 Q-Former 来显式建模时间关系,但模型更复杂、成本更高。Video-ChatGPT 则采用简单的平均池化,损失了大量信息。
    • 核心问题: 这些模型主要为短视频设计,无法扩展到长时视频。
  3. 长时视频模型 (Long-term video models):

    • 传统方法: 早期的工作通过预提取特征 (pre-extracted features)稀疏采样 (sparse video sampling) 来降低计算量。
    • 新架构: 近期的工作如 ViS4merS5 利用状态空间模型 (State Space Models, SSM) 来实现对长序列的线性复杂度建模。
    • 记忆机制: 也有工作受到记忆库 (memory bank) 设计的启发,如 MeMViT,它在 Vision Transformer 中引入记忆机制来处理长视频分类任务。MA-LMM 正是借鉴了这种记忆机制的思想,并将其创新性地应用于 LMM 框架。

3.3. 技术演进

视频理解技术的发展脉络大致如下:

  1. 图像模型 -> 短视频模型: 将成功的图像模型(如 ViT)扩展到视频领域,通过处理少量采样帧来理解短视频。
  2. “一次性”处理 -> 效率优化: 意识到同时处理所有帧的局限性,研究者开始探索更高效的方式,如稀疏采样、池化等,但往往以牺牲信息为代价。
  3. 复杂建模 -> 结构创新: 为了更好地捕捉时序关系,出现了如 SlowFast 网络、时空 Transformer 等更复杂的架构。
  4. 长序列建模新范式: 近年来,为了应对长视频挑战,出现了两种主要趋势:一是 S5 等状态空间模型,通过循环结构高效处理长序列;二是 MeMViT 和本文 MA-LMM 等采用的记忆机制,通过在线处理和信息存储来模拟人类的认知过程。MA-LMM 的工作正处在将记忆机制大型多模态模型相结合的前沿。

3.4. 差异化分析

MA-LMM 与相关工作的主要区别和创新点在于:

  • vs. Video-LLaMA/Video-ChatGPT: MA-LMM 不采用一次性处理所有帧的离线 (offline) 模式,而是采用在线 (online) 顺序处理模式。这从根本上解决了可扩展性问题。它既不像 Video-ChatGPT 那样通过粗暴的平均池化丢失信息,也不像 Video-LLaMA 那样增加额外的复杂模块。

  • vs. MeMViT: MeMViT 同样使用了记忆库,但其应用场景是传统的视频分类任务,且模型架构是纯粹的 Vision TransformerMA-LMM 的创新在于将记忆库思想成功地迁移并适配到了 LMM 框架中,使其能够执行更复杂的、基于语言的生成和推理任务(如问答)。

  • vs. S5/ViS4mer: S5 等状态空间模型通过一种隐式的循环状态来传递历史信息,而 MA-LMM 的记忆库则是一种显式的、可访问的历史信息存储,模型可以通过注意力机制直接“回顾”过去任意时刻的原始特征。

  • vs. Token Merging [24, 25, 26, 27]: MA-LMM 提出的记忆库压缩 (MBC) 技术受到了 Token Merging 的启发,但应用方式更独特。它不是简单地在一次前向传播中合并词元,而是在一个自回归 (auto-regressive) 的处理流程中动态地压缩历史记忆,以维持记忆库的大小。

    下图(原文 Figure 1)直观展示了 MA-LMM 的设计思路和其在资源消耗上的优势。该图像是示意图,展示了MA-LMM模型的结构,包括视觉编码器、长时记忆库和查询变换器,旨在进行长期视频理解。询问框架通过记忆库存储与视频相关的信息,以克服长短期记忆的挑战。 该图像是示意图,展示了MA-LMM模型的结构,包括视觉编码器、长时记忆库和查询变换器,旨在进行长期视频理解。询问框架通过记忆库存储与视频相关的信息,以克服长短期记忆的挑战。

  • (a) 部分显示了 MA-LMM 的核心思想:通过长时记忆库自回归地存储和累积过去的视频信息,而不是像之前的方法那样直接将所有视觉输出送入查询变换器。

  • (b) 部分对比了不同方法在处理长视频时的 GPU 显存和词元数量。可以看出,随着视频帧数增加,其他方法的资源消耗急剧上升,而 MA-LMM (红线) 保持了非常低且平稳的资源占用,展示了其卓越的效率和可扩展性。

4. 方法论

4.1. 方法原理

MA-LMM 的核心原理是模仿人类处理长时视觉信息的方式:顺序处理、关联记忆、选择性保留。模型不试图一次性消化整个视频,而是以一种自回归的方式逐帧处理。在处理每一帧时,它都会访问一个不断更新的记忆库 (memory bank),该记忆库存储了所有先前帧的信息。这使得模型能够在理解当前画面的同时,还能关联到完整的历史上下文。处理完当前帧后,其信息也会被整合进记忆库中,供后续帧使用。

下图(原文 Figure 2(a))展示了 MA-LMM 的整体框架。

该图像是示意图,展示了 MA-LMM 模型的框架概述,包括视觉编码器、长期记忆库以及 Q-Former。图中包含了处理视频帧与计算相似度的步骤,通过 \(t_i\) 计算相邻帧的余弦相似度,并选择最高相似度进行特征平均化。该模型旨在实现长视频理解。 该图像是示意图,展示了 MA-LMM 模型的框架概述,包括视觉编码器、长期记忆库以及 Q-Former。图中包含了处理视频帧与计算相似度的步骤,通过 tit_i 计算相邻帧的余弦相似度,并选择最高相似度进行特征平均化。该模型旨在实现长视频理解。

整体架构分为三个主要部分:

  1. 视觉特征提取 (Visual Feature Extraction): 使用一个冻结的视觉编码器提取每帧的视觉特征。
  2. 长时序建模 (Long-term Temporal Modeling): 使用一个带记忆库的可训练 Q-Former 来对齐视觉和文本空间。这是模型的核心创新。
  3. 文本解码 (Text Decoding): 使用一个冻结的 LLM 根据 Q-Former 的输出生成文本。

4.2. 核心方法详解 (逐层深入)

4.2.1. 步骤 1: 视觉特征提取 (Sec. 3.1)

给定一个包含 TT 帧的视频序列,模型首先对每一帧进行处理。

  1. 特征提取: 每一帧图像被送入一个预训练并冻结 (frozen) 的视觉编码器(如 ViT-G/14),提取出该帧的视觉特征。对于第 tt 帧,其特征为 vtRP×Cv_t \in \mathbb{R}^{P \times C},其中 PP 是图像被切分成的图块 (patch) 数量, CC 是每个图块特征的维度。

  2. 位置编码: 为了让模型感知到帧的先后顺序,需要为每帧的特征添加一个位置嵌入 (Positional Embedding, PE)。最终得到的第 tt 帧的特征 ftf_t 计算如下:

    ft=vt+PE(t),ftRP×C f_t = v_t + PE(t), \quad f_t \in \mathbb{R}^{P \times C}

    • ftf_t: 注入了时序信息后的第 tt 帧特征。
    • vtv_t: 从视觉编码器中提取的原始第 tt 帧特征。
    • PE(t): 对应于时间步 tt 的位置嵌入向量。

4.2.2. 步骤 2: 使用记忆库进行长时序建模 (Sec. 3.2)

这是 MA-LMM 的核心创新所在。模型使用 Q-Former 来连接视觉和语言模态,但与标准 BLIP-2 不同,它为 Q-Former交叉注意力自注意力层分别配备了视觉记忆库查询记忆库

4.2.2.1. 视觉记忆库 (Visual Memory Bank)

  • 功能: 存储所有过去帧的原始视觉特征。它为模型提供了一个可以回顾视频中任何历史时刻原始画面细节的通道。
  • 构建: 在处理第 tt 帧时,视觉记忆库 FtF_t 是从第 1 帧到第 tt 帧所有特征 ftf_t 的拼接: Ft=Concat[f1,f2,,ft],FtRtP×C F_t = \mathsf{Concat}[f_1, f_2, \dots, f_t], \quad F_t \in \mathbb{R}^{tP \times C}
  • 应用:Q-Former交叉注意力 (cross-attention) 层中,该记忆库被用作键 (Key)值 (Value)。当前时刻 tt 的可学习查询 ztz_t 作为查询 (Query)
    • 注意力计算的第一步: Q=ztWQ,K=FtWK,V=FtWV Q = z_t W_Q, \quad K = F_t W_K, \quad V = F_t W_V
    • 注意力计算的第二步: O=Attn(Q,K,V)=Softmax(QKTC)V O = Attn(Q, K, V) = \mathrm{Softmax}\left(\frac{QK^T}{\sqrt{C}}\right)V
    • 解释: 这个过程意味着,在提取当前帧的信息时,模型(通过 ztz_t)可以关注到包括当前帧在内的所有历史帧 (FtF_t) 的视觉细节。这使得模型能够进行跨越长时间的视觉关联。所有 Q-Former 块中的交叉注意力层共享这一个视觉记忆库。

4.2.2.2. 查询记忆库 (Query Memory Bank)

  • 功能: 存储所有过去帧的查询嵌入。如果说视觉记忆库存储的是“原始记忆”,那么查询记忆库存储的就是模型对过去每一帧“理解”后的“加工记忆”或“摘要”。
  • 构建: 在处理第 tt 帧时,查询记忆库 ZtZ_t 是从第 1 帧到第 tt 帧所有查询嵌入 ztz_t 的拼接: Zt=Concat[z1,z2,,zt],ZtRtN×C Z_t = \mathrm{Concat}[z_1, z_2, \dots, z_t], \quad Z_t \in \mathbb{R}^{tN \times C} (注:这里的 ztz_t 指的是在 Q-Former 内部逐层传递和演变的查询表示,而非初始的静态查询。)
  • 应用:Q-Former自注意力 (self-attention) 层中,该记忆库被用作键 (Key)值 (Value)。当前时刻的查询嵌入 ztz_t 作为查询 (Query)
    • 注意力计算的第一步(形式同上): Q=ztWQ,K=ZtWK,V=ZtWV Q = z_t W_Q, \quad K = Z_t W_K, \quad V = Z_t W_V
    • 解释: 这个过程允许模型在处理当前帧时,不仅进行内部信息的整合,还能关联到它对所有历史帧的理解 (ZtZ_t)。由于查询嵌入在 Q-Former 的不同层级中会演化出不同抽象层次的表示,因此每个自注意力层都拥有自己独特的查询记忆库。

4.2.2.3. 记忆库压缩 (Memory Bank Compression, MBC)

  • 问题: 上述的记忆库会随着视频长度 tt 线性增长,这最终仍然会导致计算和存储的瓶颈。
  • 解决方案: 论文提出了一种新颖的记忆库压缩 (MBC) 技术,通过合并时间上最相似(即最冗余)的相邻特征来动态地压缩记忆库,同时保留所有历史信息。
  • 算法流程 (以视觉记忆库为例,见原文 Figure 2(b)):
    1. 当记忆库的长度超过预设阈值 MM 时,每当一个新帧的特征 fM+1f_{M+1} 加入,就触发一次压缩。
    2. 计算相似度: 在每个空间位置 ii (即每个 patch),计算所有时间上相邻的两个特征向量之间的余弦相似度。 sti=cos(fti,ft+1i),t[1,M],i[1,P] s_t^i = \cos(f_t^i, f_{t+1}^i), \quad t \in [1, M], i \in [1, P]
    3. 找到最冗余的时间步: 在所有时间步中,找到相似度最高的那一对相邻帧,即最冗余的一对。 k=argmaxt(sti) k = \mathrm{argmax}_t(s_t^i) (注:原文这里的表述 stis_t^i 略有歧义,最合理的解释是找到在所有空间位置上平均相似度最高的相邻时间步 kkk+1k+1。)
    4. 合并特征: 将找到的最相似的两个相邻帧的特征进行平均。 f^ki=(fki+fk+1i)/2 \hat{f}_k^i = (f_k^i + f_{k+1}^i) / 2 然后用这个合并后的新特征 f^k\hat{f}_k 替换掉原来的 fkf_kfk+1f_{k+1},从而使记忆库的长度减少 1。
  • 优势: 这种方法相比于简单的 FIFO (先进先出,即丢弃最老的帧) 策略,能够理论上保留所有历史信息,只是信息密度增加了。相比于引入额外的可学习池化层,它不增加任何训练参数。同样的压缩流程也适用于查询记忆库。

4.2.3. 步骤 3: 文本解码 (Sec. 3.3)

  1. 最终表示: 由于模型是自回归处理的,当处理完最后一帧(第 TT 帧)时,Q-Former 的输出已经通过记忆库机制聚合了整个视频的信息。
  2. 输入 LLM: 因此,只需将最后一帧的 Q-Former 输出(包含 NN 个词元,如 32 个)送入冻结的 LLM 即可。这极大地减少了 LLM 的输入负担,从原本可能需要的 N×TN \times T 个词元减少到了 NN 个。
  3. 训练: 模型使用标准的自回归损失函数(交叉熵损失)进行训练,目标是最大化生成真实标注文本的概率。 L=1Si=1SlogP(wiw<i,V) \mathcal{L} = - \frac{1}{S} \sum_{i=1}^{S} \log P(w_i | w_{<i}, V)
    • L\mathcal{L}: 损失函数值。
    • SS: 目标文本序列的长度。
    • wiw_i: 第 ii真值 (Ground Truth) 文本词元。
    • w<iw_{<i}: 在 wiw_i 之前的所有真实文本词元。
    • VV: 输入的视频。 在训练期间,只有 Q-Former 的参数被更新,视觉编码器和 LLM 的参数保持冻结。

5. 实验设置

5.1. 数据集

论文在多个不同类型的视频理解任务上对 MA-LMM 进行了评估:

  • 长时视频理解 (Long-term Video Understanding):

    • LVU [32]: 包含约 3 万个从电影中提取的视频片段,每个片段时长 1-3 分钟。任务是进行分类,如关系、说话风格、场景、导演、类型等。
    • Breakfast [56]: 包含 1712 个制作早餐过程的视频,平均长度约 2.7 分钟,任务是活动分类。
    • COIN [57]: 一个大规模教学视频数据集,包含约 1.2 万个视频,平均长度 2.36 分钟,任务是步骤分类。
  • 视频问答 (Video Question Answering):

    • MSRVTT-QA [62], MSVD-QA [62]: 主要包含 10-15 秒的短视频。
    • ActivityNet-QA [63]: 包含平均时长 2 分钟的长视频。
    • 示例 (来自 ActivityNet-QA): 针对一段视频提问 What are people doing in the ground in video? (视频中地面上的人在做什么?),模型需要回答 play football (踢足球)。
  • 视频字幕生成 (Video Captioning):

    • MSRVTT [66], MSVD [67]: 包含短视频,任务是为视频生成一段描述性文字。
    • Youcook2 [68]: 烹饪视频数据集。
    • 示例 (来自 YouCook2): 针对一段制作洋葱圈的视频,真实标注为 remove the onions and place on paper towel (把洋葱圈捞出并放在厨房纸上)。
  • 在线动作预测 (Online Action Prediction):

    • EpicKitchens-100 [69]: 包含 700 个总时长 100 小时的第一人称视角烹饪视频,任务是预测即将发生的动作。

      选择这些数据集的目的是全面验证 MA-LMM 在不同视频长度、不同任务类型下的性能和泛化能力。

5.2. 评估指标

论文中使用了多种评估指标,以下对主要指标进行详细解释。

5.2.1. Top-1 准确率 (Top-1 Accuracy)

  • 概念定义: 这是分类任务中最常用的指标。它衡量的是模型预测的概率最高的那个类别与真实类别完全一致的样本比例。简而言之,就是“模型首选答案猜对了多少”。
  • 数学公式: Accuracy=Number of Correct PredictionsTotal Number of Predictions \text{Accuracy} = \frac{\text{Number of Correct Predictions}}{\text{Total Number of Predictions}}
  • 符号解释:
    • Number of Correct Predictions: 模型预测的类别与真实标注类别相符的样本总数。
    • Total Number of Predictions: 测试集中的样本总数。

5.2.2. METEOR

  • 概念定义: METEOR (Metric for Evaluation of Translation with Explicit ORdering) 是一种用于评估机器翻译和文本生成质量的指标。它通过计算生成文本和参考文本之间的对齐 (alignment) 来工作。与简单的 BLEU 不同,METEOR 不仅考虑精确匹配,还考虑了同义词、词干和词形变化。它计算基于 unigram(单个词)的精确率和召回率,并使用调和平均数(F-mean)进行组合,同时引入一个惩罚项来处理语块不连续的问题。
  • 数学公式: METEOR=(1Pen)10PmRmRm+9Pm \text{METEOR} = (1 - \text{Pen}) \cdot \frac{10 \cdot P_m \cdot R_m}{R_m + 9 \cdot P_m}
  • 符号解释:
    • PmP_m: 基于匹配 unigram 的精确率。
    • RmR_m: 基于匹配 unigram 的召回率。
    • Pen: 惩罚因子,用于惩罚生成文本中不连续的匹配语块。计算方式为 Pen=0.5(#chunks#matches)3\text{Pen} = 0.5 \cdot \left(\frac{\#\text{chunks}}{\#\text{matches}}\right)^3,其中 #chunks 是匹配的语块数,#matches 是匹配的 unigram 总数。

5.2.3. CIDEr

  • 概念定义: CIDEr (Consensus-based Image Description Evaluation) 是一种专门为图像/视频字幕生成任务设计的评估指标。它的核心思想是“好的描述应该与大多数人(参考字幕)的描述相似”。它将每个生成句和参考句都看作一个“文档”,然后使用 TF-IDF (Term Frequency-Inverse Document Frequency) 为每个 n-gram(通常是 1-gram 到 4-gram)进行加权,最后计算生成句和所有参考句之间的平均余弦相似度。
  • 数学公式: CIDErn(ci,Si)=1mj=1mgn(ci)gn(sij)gn(ci)gn(sij) \text{CIDEr}_n(c_i, S_i) = \frac{1}{m} \sum_{j=1}^{m} \frac{g^n(c_i) \cdot g^n(s_{ij})}{||g^n(c_i)|| \cdot ||g^n(s_{ij})||}
  • 符号解释:
    • cic_i: 待评估的生成字幕。
    • Si={si1,,sim}S_i = \{s_{i1}, \dots, s_{im}\}: 对应视频的 mm 个参考字幕集合。
    • gn()g^n(\cdot): 一个向量函数,表示句子的 n-gram 的 TF-IDF 权重向量。
    • 最终的 CIDEr 分数是不同 n-gram 长度的 CIDErn\text{CIDEr}_n 分数的加权平均。

5.2.4. Recall@Top-5

  • 概念定义: Recall@Top-5(Top-5 召回率)常用于推荐或多标签分类任务中。它衡量的是在所有真实为正例的样本中,有多少比例的样本其真实标签出现在了模型预测的概率最高的 5 个结果之中。
  • 数学公式: Recall@k=1UuUTopK(u)GroundTruth(u)GroundTruth(u) \text{Recall@k} = \frac{1}{|U|} \sum_{u \in U} \frac{|\text{TopK}(u) \cap \text{GroundTruth}(u)|}{|\text{GroundTruth}(u)|}
  • 符号解释:
    • UU: 用户或样本集合。
    • TopK(u)\text{TopK}(u): 模型为样本 uu 预测的 top-K 个结果的集合。
    • GroundTruth(u)\text{GroundTruth}(u): 样本 uu 的真实标签集合。
    • |\cdot|: 集合中元素的数量。

5.3. 对比基线

论文将 MA-LMM 与一系列代表性的模型进行了比较,包括:

  • 长时视频模型: S5, ViS4mer, VideoBERT, Object Transformer 等,这些是专门为长时视频分类设计的 SOTA 模型。
  • 通用视频-语言模型: Video-LLaMA, VideoCoCa, mPLUG-2 等,这些是当前主流的大型多模态模型,可用于问答和字幕生成任务。 将 MA-LMM 与这两类模型进行对比,可以全面地展示其在特定长时任务上的优势以及在通用视频理解任务上的竞争力。

6. 实验结果与分析

6.1. 核心结果分析

6.1.1. 长时视频理解 (Tables 1 & 2)

在专门为长时视频设计的基准测试上,MA-LMM 表现出强大的能力。

以下是原文 Table 1 的结果:

Model Content Metadata Avg
Relation Speak Scene Director Genre Writer Year
Obj_T4mer [32] 54.8 33.2 52.9 47.7 52.7 36.3 37.8 45.0
Performer [53] 50.0 38.8 60.5 58.9 49.5 48.2 41.3 49.6
Orthoformer [54] 50.0 38.3 66.3 55.1 55.8 47.0 43.4 50.8
VideoBERT [55] 52.8 37.9 54.9 47.3 51.9 38.5 36.1 45.6
LST [35] 52.5 37.3 62.8 56.1 52.7 42.3 39.2 49.0
VIS4mer [35] 57.1 40.8 67.4 62.6 54.7 48.8 44.8 53.7
S5 [36] 67.1 42.1 73.5 67.3 65.4 51.3 48.0 59.2
Ours 58.2 44.8 80.3 74.6 61.0 70.4 51.9 63.0

以下是原文 Table 2 的结果:

Model Breakfast COIN
TSN [58] - 73.4
VideoGraph [59] 69.5 -
Timeception [31] 71.3 -
GHRM [60] 75.5 -
D-Sprv. [61] 89.9 90.0
ViS4mer [35] 88.2 88.4
S5 [36] 90.7 90.8
Ours 93.0 93.2
  • 分析: 在 LVU 数据集上(Table 1),MA-LMM 的平均准确率达到了 63.0%,显著超过了之前的最先进模型 S5(59.2%),提升了 3.8%。特别是在 SceneDirectorWriter 等需要综合长时信息的任务上,优势尤为明显。在 Breakfast 和 COIN 数据集上(Table 2),MA-LMM 同样将 Top-1 准确率提升到了新的 SOTA 水平(分别为 93.0%93.2%)。这些结果强有力地证明了记忆库机制在捕捉和利用长时序依赖方面的有效性

6.1.2. 视频问答与字幕生成 (Tables 3 & 4)

MA-LMM 不仅擅长长时分类,在通用的视频-语言生成任务上也表现优异。

以下是原文 Table 3 的结果:

Model MSRVTT MSVD ActivityNet
JustAsk [74] 41.8 47.5 38.9
FrozenBiLM [75] 47.0 54.8 43.2
SINGULARITY [76] 43.5 44.1
VIOLETv2 [77] 44.5 54.7
GiT [78] 43.2 56.8
mPLUG-2 [79] 48.0 58.1
UMT-L [80] 47.1 55.2 47.9
VideoCoCa [81] 46.3 56.9 56.1
Video-LLaMA [12] 46.5 58.3 45.5
Ours 48.5 60.6 49.8

以下是原文 Table 4 的结果:

Model MSRVTT MSVD YouCook2
M C M C M C
UniVL [82] 28.2 49.9 29.3 52.8 127.0
SwinBERT [83] 29.9 53.8 41.3 120.6 15.6 109.0
GIT [78] 32.9 73.9 51.1 180.2 17.3 129.8
mPLUG-2 [79] 34.9 80.3
VideoCoca [81] 73.2 48.4 165.8 128.0
Video-LLaMA 32.9 71.6 49.8 175.3 16.5 123.7
Ours 33.4 74.6 51.0 179.1 17.6 131.2
  • 分析: 在视频问答任务上(Table 3),MA-LMM 在 MSRVTT 和 MSVD 数据集上均取得了 SOTA,并显著优于同样基于 LLaMA 的 Video-LLaMA。这表明即使对于短视频,记忆库也能通过聚合多帧信息带来好处。在长视频数据集 ActivityNet 上,虽然未超过使用大规模视频预训练的 VideoCoCa,但仍远超 Video-LLaMA。在视频字幕生成任务上(Table 4),MA-LMM 同样在三个数据集上取得了极具竞争力的 SOTA 结果。这证明了 MA-LMM 强大的泛化能力和自由文本生成质量。

6.2. 消融实验/参数分析

6.2.1. 各组件的贡献 (Table 6)

以下是原文 Table 6 的结果:

Visual Query LVU Breakfast COIN
X X 48.3 74.6 72.3
X 61.5 91.8 92.4
X 58.0 81.4 88.5
63.0 93.0 93.2
  • 分析:
    • 基线 (无记忆库): 移除所有记忆库后,性能大幅下降,证明了时序建模的重要性。
    • 单个记忆库: 无论是只加视觉记忆库 (Visual) 还是查询记忆库 (Query),性能都有显著提升。其中,视觉记忆库的提升更大,论文推测是因为它显式地存储了原始视频特征,信息更丰富。
    • 组合: 两者结合使用时效果最好,表明它们是互补的。视觉记忆库提供原始细节,查询记忆库提供抽象理解。

6.2.2. 即插即用能力 (Table 7)

以下是原文 Table 7 的结果:

MB MSRVTT MSVD ActivityNet LVU
X 19.5 38.8 29.9 23.6
20.3 40.0 37.2 32.8
  • 分析: 该实验在不进行任何训练的情况下,直接将记忆库模块(MB)插入到 InstructBLIP 基线模型中进行评估。结果显示,仅靠插入记忆库,模型性能就得到了普遍提升,尤其是在长视频数据集 ActivityNet 和 LVU 上,分别提升了 7.3%9.2%。这强有力地证明了记忆库模块的即插即用 (plug-and-play) 特性和强大的零样本泛化能力。

6.2.3. 时序建模方法对比 (Table 8)

以下是原文 Table 8 的结果:

Method #Frame #Token GPU LVU Breakfast COIN
Concat 60 1920 49.2 62.6 90.4 93.0
Avg Pool 100 32 21.2 57.6 80.6 87.6
ToMe 100 200 22.2 61.5 91.3 91.5
FIFO 100 32 19.1 61.3 88.5 90.4
MBC 100 32 19.1 63.0 93.0 93.2
  • 分析:
    • Concat(拼接所有帧特征)虽然性能不错,但需要处理的词元数量(1920)和 GPU 显存(49.2G)都非常巨大,不具扩展性。
    • Avg Pool(平均池化)虽然资源消耗低,但性能最差,信息损失严重。
    • FIFO(先进先出队列)是一种简单的记忆管理策略,性能优于池化,但不如 MBC
    • MBC (本文方法): 在保持与 Avg PoolFIFO 同样低的词元数量(32)和 GPU 显存(19.1G)的同时,取得了最好的性能。这证明了通过合并冗余信息来压缩记忆库的策略,远优于丢弃旧信息(FIFO)或无差别平均(Avg Pool)。

6.2.4. 记忆库长度影响 (Figure 3)

下图(原文 Figure 3)展示了不同记忆库长度对性能的影响。

Figure 3. Impact of different memory bank lengths. 该图像是图表,展示了不同记忆库长度对模型在Top-1准确率上的影响。可以看到,LVU的准确率随着记忆库长度的增加而相对平稳,而Breakfast和COIN在记忆库长度为5及以上时,准确率均达到了90%以上。

  • 分析: 随着记忆库长度增加,模型性能 inicialmente 上升,因为可以存储更多的历史信息。然而,当长度达到 10-20 左右时,性能趋于饱和。这验证了论文的假设:长视频中存在大量的时间冗余,不需要一个无限大的记忆库就能捕捉到关键信息,一个相对较小的、经过智能压缩的记忆库就足够了。

6.2.5. 可视化分析

  • 问答对比 (Figure 4): MA-LMM 在细节识别上更胜一筹,例如能准确识别出 7 号球员的球衣是红色(而 Video-LLaMA 误认为蓝色),并正确数出视频中出现了 2 名守门员(而 Video-LLaMA 只数出 1 名)。这体现了记忆库在保留和检索精确信息方面的优势。

  • 记忆库压缩可视化 (Figure 5): MA-LMM 的压缩记忆库在时间轴上将相似的连续帧分组,效果类似于无监督的时序分割。例如,一段烹饪视频被自然地聚类成“切菜”、“下锅”、“翻炒”、“出锅”等几个语义连贯的片段。这直观地展示了 MBC 算法如何识别和聚合时间上的冗余内容。

    Figure 5. Visualization of the compressed visual memory bank. 该图像是一个示意图,展示了制作炸薯条的步骤,包括切土豆、晾干、油炸以及最后上盘的过程,每一步都有相应的说明文字。

7. 总结与思考

7.1. 结论总结

本论文成功地提出了一种名为 MA-LMM 的新型大型多模态模型,其核心是记忆增强 (Memory-Augmented) 机制。通过在线处理 (online processing) 视频帧并将历史信息存储在长时记忆库 (long-term memory bank) 中,MA-LMM 有效地解决了现有 LMM 在处理长时视频时面临的上下文长度限制GPU 显存瓶颈两大核心痛点。

主要贡献和发现包括:

  1. 设计了一个即插即用的记忆库模块,可以轻松集成到现有 LMM 架构中,赋予其长时视频理解能力。

  2. 提出的记忆库压缩 (MBC) 算法能够在不增加参数的情况下,高效地管理记忆库大小,保留关键历史信息。

  3. 实验证明,MA-LMM 不仅在长时视频理解任务上取得了最先进 (state-of-the-art) 的性能,在通用的短视频问答和字幕生成任务上也表现出色,展示了其方法的有效性和广泛适用性。

    总而言之,MA-LMM 为长时序多模态理解提供了一个高效、可扩展且有效的范式,为未来相关领域的研究开辟了新的方向。

7.2. 局限性与未来工作

论文作者坦诚地指出了当前方法的局限性,并展望了未来的改进方向:

  • 局限性:

    • 处理时间: 虽然 MA-LMM 显著降低了显存消耗,但其自回归的顺序处理方式导致处理时间与视频长度成正比。对于极长的视频(如数小时的电影),推理时间可能会变得过长。
  • 未来工作:

    1. 分层处理: 针对处理时间过长的问题,作者建议采用一种分层 (hierarchical) 的方法。先将超长视频切分成多个片段,用 MA-LMM 对每个片段进行处理和概括,然后再用另一个模型来建模这些片段之间的关系。
    2. 更强的视觉编码器: 将当前基于图像的视觉编码器替换为基于视频或视频片段的编码器,可以更好地捕捉短期的时序动态,从而为长时记忆库提供更高质量的输入。
    3. 大规模视频预训练: 在大规模的视频-文本配对数据集上进行预训练,有望进一步提升模型的泛化能力和性能上限。
    4. 更强的 LLM: 将模型中的语言解码器替换为更先进、能力更强的 LLM(如 GPT-4 等),可以直接提升模型的推理和生成能力。

7.3. 个人启发与批判

  • 启发:

    1. 范式转变的价值: MA-LMM 最具启发性的一点在于它从根本上转变了解决问题的思路。当“一次性处理更多数据”的路径遇到瓶颈时,转向“模仿人类认知过程的顺序处理+记忆”范式,不仅优雅地解决了问题,还带来了更高的效率和可扩展性。这一思想可以被广泛应用于处理其他类型的长序列数据。
    2. 模块化与即插即用: 记忆库作为一个独立的、即插即用的模块,其设计思想非常具有工程实用价值。它使得升级现有模型变得简单,而无需从头重新设计和训练整个庞大的系统。
    3. 显式与隐式记忆: MA-LMM 的双记忆库设计(视觉记忆库和查询记忆库)也很有趣。它结合了对原始细节的显式存储(视觉库)和对抽象理解的隐式演化(查询库),这种组合可能比单一类型的记忆更强大。
  • 批判与思考:

    1. 压缩算法的细节: 论文中对记忆库压缩(MBC)算法的描述,特别是在如何从所有 patch 的相似度中选择最终的合并时间步 kk 这一点上,略显模糊。是全局取最大值,还是按 patch 平均后再取最大值?这个细节可能会影响复现效果。
    2. 极端长程依赖问题: MBC 算法通过合并最相似的相邻帧来压缩记忆。对于需要关联视频开头和结尾处某个不明显线索的极端长程依赖任务,关键信息是否存在被过度压缩或“平均掉”的风险?例如,一部悬疑电影中,开头的某个道具在结尾才揭示其作用。如果中间过程很长,这个道具的视觉特征是否能被有效保留到最后?这需要更具挑战性的实验来验证。
    3. 实时性权衡: 论文指出的处理时间线性增长问题是其应用于实时场景(如实时监控分析、机器人交互)的一个主要障碍。虽然提出了分层解决方案,但该方案尚未被实现和验证,其带来的额外复杂度和可能的性能损失仍是未知数。在实际应用中,显存效率和处理速度之间的权衡将是一个需要仔细考量的问题。

相似论文推荐

基于向量语义检索推荐的相关论文。

暂时没有找到相似论文。