Deep Residual Learning for Image Recognition
TL;DR 精炼摘要
该研究提出残差学习框架(ResNet),以解决深度神经网络训练难和性能退化问题。其核心方法是让网络层学习输入与输出间的残差函数,通过跳跃连接实现恒等映射。此创新使得模型优化更容易,成功构建了前所未有的超深网络(如152层),并显著提升了图像识别准确率。ResNet在ILSVRC 2015分类任务中夺冠,ImageNet错误率降至3.57%,同时大幅改进了COCO目标检测性能。
摘要
Deeper neural networks are more difficult to train. We present a residual learning framework to ease the training of networks that are substantially deeper than those used previously. We explicitly reformulate the layers as learning residual functions with reference to the layer inputs, instead of learning unreferenced functions. We provide comprehensive empirical evidence showing that these residual networks are easier to optimize, and can gain accuracy from considerably increased depth. On the ImageNet dataset we evaluate residual nets with a depth of up to 152 layers---8x deeper than VGG nets but still having lower complexity. An ensemble of these residual nets achieves 3.57% error on the ImageNet test set. This result won the 1st place on the ILSVRC 2015 classification task. We also present analysis on CIFAR-10 with 100 and 1000 layers. The depth of representations is of central importance for many visual recognition tasks. Solely due to our extremely deep representations, we obtain a 28% relative improvement on the COCO object detection dataset. Deep residual nets are foundations of our submissions to ILSVRC & COCO 2015 competitions, where we also won the 1st places on the tasks of ImageNet detection, ImageNet localization, COCO detection, and COCO segmentation.
思维导图
论文精读
中文精读
1. 论文基本信息 (Bibliographic Information)
- 标题 (Title): Deep Residual Learning for Image Recognition (用于图像识别的深度残差学习)
- 作者 (Authors): Kaiming He (何恺明), Xiangyu Zhang (张祥雨), Shaoqing Ren (任少卿), Jian Sun (孙剑)。这些作者当时均隶属于微软亚洲研究院 (Microsoft Research Asia, MSRA),是计算机视觉领域的顶尖研究者。
- 发表期刊/会议 (Journal/Conference): 该论文最初于 2015 年在预印本网站 arXiv 上发布,并赢得了 ILSVRC 2015(ImageNet 大规模视觉识别挑战赛)的冠军。后于 2016 年被计算机视觉领域的顶级会议 CVPR (Conference on Computer Vision and Pattern Recognition) 接收,并荣获最佳论文奖。CVPR 是全球计算机视觉三大顶级会议之一,具有极高的学术声誉和影响力。
- 发表年份 (Publication Year): 2015 (arXiv 预印本), 2016 (CVPR 正式发表)
- 摘要 (Abstract): 摘要指出,更深的神经网络更难训练。为了解决这一问题,论文提出了一个残差学习框架 (residual learning framework),该框架可以轻松地训练比以往模型深得多的网络。其核心思想是,不再让网络层直接学习一个目标函数,而是学习一个关于层输入的残差函数 (residual function)。大量的经验证据表明,这种残差网络 (Residual Networks, ResNets) 更容易优化,并且可以通过显著增加深度来获得更高的准确率。在 ImageNet 数据集上,作者评估了深度高达 152 层的残差网络,其深度是 VGG 网络的 8 倍,但计算复杂度却更低。这些残差网络的集成模型在 ImageNet 测试集上达到了 3.57% 的错误率,赢得了 ILSVRC 2015 分类任务的第一名。论文还在 CIFAR-10 数据集上展示了 100 层和 1000 层的模型分析。由于其强大的深度表示能力,该方法在 COCO 目标检测任务上也取得了 28% 的相对性能提升,并包揽了 ILSVRC & COCO 2015 竞赛中图像检测、定位、分割等多个赛道的第一名。
- 原文链接 (Source Link): https://arxiv.org/abs/1512.03385v1 (此为 arXiv 上的预印本链接)
2. 整体概括 (Executive Summary)
-
研究背景与动机 (Background & Motivation - Why):
- 核心问题: 在深度学习领域,人们普遍认为增加网络深度可以提升模型性能。然而,实践中发现,当网络深度增加到一定程度后,模型的性能反而会下降。这种现象被称为“网络退化” (Degradation Problem)。
- 问题重要性: 网络退化问题严重阻碍了深度神经网络向更深层次的发展。更令人困惑的是,这种性能下降并非由过拟合 (overfitting) 引起,因为在训练集上的误差也会随深度的增加而升高。理论上,一个更深的模型至少可以达到和较浅模型一样的性能(只需让多出来的层学习一个恒等映射 (identity mapping)),但实际的优化算法却很难找到这样的解。
- 创新思路: 论文作者推断,让多层非线性网络直接拟合一个恒等映射可能非常困难。因此,他们提出了一个颠覆性的思路:不直接学习目标函数 ,而是学习一个残差函数 。这样,原始的目标函数就变成了 。如果恒等映射是最优解,那么优化器只需将残差 学习为零即可,这远比拟合一个恒等映射要容易。
-
核心贡献/主要发现 (Main Contribution/Findings - What):
- 提出了残差学习框架 (Residual Learning Framework): 论文的核心贡献是设计了一种全新的网络结构——残差网络 (ResNet)。它通过引入“快捷连接”或“跳跃连接” (Shortcut/Skip Connection) 来实现残差学习,使得信息流可以跨越多层直接传递,极大地缓解了深度网络的训练难度。
- 解决了网络退化问题: 实验证明,ResNet 成功地解决了网络退化问题。随着网络深度的增加,模型的准确率也随之稳定提升。论文成功训练了 152 层甚至超过 1000 层的网络,这在当时是前所未有的。
- 实现了 SOTA 性能: 凭借极深的 ResNet 模型,作者团队在 ILSVRC 2015 图像分类、检测、定位以及 COCO 检测、分割等多个权威竞赛中取得了第一名,刷新了多项纪录,证明了该方法的强大性能和泛化能力。
3. 预备知识与相关工作 (Prerequisite Knowledge & Related Work)
-
基础概念 (Foundational Concepts):
- 卷积神经网络 (Convolutional Neural Network, CNN): 一种专门用于处理具有网格状拓扑结构数据(如图像)的深度学习模型。它通过卷积层、池化层和全连接层等结构,能够自动学习图像中的层次化特征(从边缘、角点到复杂纹理和物体部件)。
- 网络深度 (Network Depth): 指的是神经网络中包含的具有可学习参数的层的数量。通常认为,更深的网络可以学习到更抽象、更复杂的特征表示,从而获得更好的性能。
- 梯度消失/爆炸 (Vanishing/Exploding Gradients): 在训练深度神经网络时,梯度通过反向传播算法逐层传递。由于链式法则的累乘效应,梯度可能会变得非常小(梯度消失)或非常大(梯度爆炸),导致网络无法有效更新权重,训练失败。论文提到,这个问题已通过规范化初始化和中间归一化层(如批量归一化 (Batch Normalization, BN))在很大程度上得到解决。
- 批量归一化 (Batch Normalization, BN): 一种用于加速深度网络训练并提高其稳定性的技术。它对每一层网络的输入(或激活值)进行归一化处理,使其均值为 0、方差为 1,从而减少了所谓的“内部协变量偏移” (Internal Covariate Shift),使得梯度传播更稳定,网络对初始化和学习率等超参数的敏感度也降低了。
-
前人工作 (Previous Works):
- VGGNets: 由 Simonyan 和 Zisserman 提出的非常深的网络模型。其特点是结构简单,完全由 3x3 的小尺寸卷积核和 2x2 的池化层堆叠而成。VGG 证明了增加网络深度可以显著提升性能,为后续的深度探索奠定了基础。但 VGG 网络参数量大,且在更深时也面临退化问题。
- GoogLeNet (Inception): 由 Google 团队提出,其核心是
Inception模块,该模块并行使用不同尺寸的卷积核,并在最后将特征图拼接起来,以在不同尺度上捕捉特征。GoogLeNet 为了解决梯度消失问题,在网络的中间层引入了辅助分类器。 - Highway Networks: 与 ResNet 同期提出的工作,也使用了“门控” (gating) 机制的快捷连接。这些门控单元是数据依赖且带有参数的,可以控制信息流的通过比例。
-
技术演进 (Technological Evolution): 深度学习在图像识别领域的演进路径可以看作是对“深度”的不断探索。从 AlexNet (8层) 到 VGG (16-19层) 再到 GoogLeNet (22层),网络深度不断增加,性能也随之提升。然而,当人们尝试构建更深的网络(如30层以上)时,遇到了“网络退化”这一瓶颈。这表明,简单地堆叠层数不再是提升性能的有效手段。ResNet 的出现,打破了这一瓶颈,使得构建数百甚至上千层的超深度网络成为可能,将深度学习带入了一个新的阶段。
-
差异化分析 (Differentiation):
- 与 VGG/Plain Networks 的区别: 普通网络(Plain Networks)是简单地将卷积层串联堆叠。ResNet 在此基础上,增加了恒等快捷连接 (identity shortcut connections),不引入额外参数和计算量(除元素加法外),从而构建残差学习单元。
- 与 GoogLeNet 的区别: GoogLeNet 的快捷连接是用于连接中间层和辅助分类器,目的是解决梯度消失问题。而 ResNet 的快捷连接是网络结构的基本组成部分,用于构建残差学习,目的是解决网络退化问题。
- 与 Highway Networks 的区别: Highway Networks 的快捷连接是带参数的门控机制,信息流是否通过由网络学习决定。而 ResNet 的核心思想是无参数的恒等映射,信息流总是无障碍通过,网络只需学习附加的残差部分。ResNet 的设计更简洁,且论文证明了即使是无参数的恒等连接也足以解决退化问题并获得巨大性能提升。
4. 方法论 (Methodology - Core Technology & Implementation Details)
-
方法原理 (Methodology Principles):
- 核心思想: 假设我们想要学习的目标映射为 。传统方法是直接让一叠网络层去拟合 。ResNet 的核心思想是,将学习目标重新定义为学习一个残差映射 (Residual Mapping) ,其中 。
- 直觉: 这样,原始的映射就变成了 。作者假设,优化残差映射 比优化原始映射 更容易。在一个极端情况下,如果恒等映射 是最优的,那么优化器只需将 的权重推向零即可,这比用一堆非线性层去拟合一个恒等函数要简单得多。在实际情况中,最优函数可能更接近于一个恒等映射而非一个零映射,因此将恒等映射作为参考(预处理),可以让优化器更容易地找到对恒等映射的“扰动”。
-
方法步骤与流程 (Steps & Procedures):
-
残差块 (Residual Block): 残差学习是通过一个称为“残差块”的构建单元实现的。如下图所示,一个残差块包含两个或多个权重层(如卷积层)以及一个从输入 直接连接到输出的“快捷连接”。
这是一个示意图,展示了残差学习单元的结构。图中输入信号x经过两层带权重的层和ReLU激活后得到映射函数𝔽(x),同时x通过恒等映射直接与𝔽(x)相加,最后再经过ReLU激活输出。这体现了残差块通过学习残差函数𝔽(x) = H(x) - x来简化深层网络训练。 -
流程描述:
- 输入 同时进入两条路径。
- 主路径: 经过一系列权重层(例如两个
3x3卷积层)和非线性激活函数(如 ReLU),得到一个非线性变换 。 - 快捷路径 (Shortcut Path): 不经过任何处理,直接前传。这被称为恒等映射 (Identity Mapping)。
- 合并: 主路径的输出 和快捷路径的输出 进行逐元素相加 (element-wise addition)。
- 最终激活: 相加后的结果再经过一个非线性激活函数(如 ReLU),得到该残差块的最终输出 。
-
网络架构 (Network Architectures):
-
Plain Network vs. Residual Network: 论文对比了两种网络。
Plain Network是直接堆叠卷积层(受 VGG 启发)。Residual Network(ResNet) 则是在Plain Network的基础上,每两层(或三层)增加一个快捷连接,将其变为残差块。
该图像为神经网络结构示意图,展示了VGG-19、普通34层卷积网络和平衡34层残差网络的层级构成和连接关系。图中详细标注了卷积核大小、通道数和池化操作。残差网络通过旁路连接实现跳跃连接,缓解了深层网络训练困难的问题。 -
处理维度变化: 当主路径的输出和输入的维度(如通道数或特征图尺寸)不一致时,快捷连接需要做相应调整。论文提出了两种策略:
- A) 零填充 (Zero-Padding): 对 进行零填充以增加维度,不引入额外参数。
- B) 投影快捷连接 (Projection Shortcut): 使用
1x1卷积来匹配维度。这会引入额外参数。
-
瓶颈设计 (Bottleneck Design): 为了在更深的网络(如50/101/152层)中降低计算成本,作者提出了一种“瓶颈”残差块。它使用
1x1->3x3->1x1的卷积层序列。第一个1x1卷积用于降维,3x3卷积在低维空间进行计算,最后一个1x1卷积再恢复维度。这在保持相似时间复杂度的同时,使得网络可以变得更深。
该图像为示意图,展示了深度残差网络中两种残差块结构。左侧为基础残差块,包含两个3x3卷积层,并在跳跃连接处进行元素相加后激活;右侧为瓶颈残差块,包含1x1、3x3和1x1三层卷积,跳跃连接后同样进行相加和激活处理,体现了不同维度的特征映射转换。
-
-
-
数学公式与关键细节 (Mathematical Formulas & Key Details):
-
基础残差块 (Basic Residual Block):
- 符号解释:
- : 残差块的输入向量(或特征图)。
- : 残差块的输出向量(或特征图)。
- : 待学习的残差映射,由一个或多个权重层组成。例如,对于一个两层块,它可以表示为 ,其中 代表 ReLU 激活函数, 和 是权重矩阵。为了简化,偏置项被省略。
+: 逐元素相加。
- 符号解释:
-
维度变化时的残差块 (Residual Block for Dimension Change):
- 符号解释:
- : 一个线性投影矩阵(通常通过
1x1卷积实现),用于将输入 的维度与输出 的维度相匹配。
- : 一个线性投影矩阵(通常通过
- 符号解释:
-
5. 实验设置 (Experimental Setup)
-
数据集 (Datasets):
- ImageNet 2012: 一个大规模图像分类数据集,包含 1000 个类别,约 128 万张训练图像和 5 万张验证图像。这是评估模型性能的主要基准。
- CIFAR-10: 一个小规模图像分类数据集,包含 10 个类别,5 万张 32x32 的训练图像和 1 万张测试图像。该数据集用于进行更深入的分析,例如训练超过 1000 层的超深网络。
- PASCAL VOC 2007 & 2012 / MS COCO: 用于目标检测和分割任务的数据集。这些数据集用于验证 ResNet 学习到的特征在其他视觉任务上的泛化能力。
-
评估指标 (Evaluation Metrics):
-
Top-1/Top-5 Error Rate (Top-1/Top-5 错误率):
- 概念定义: 这是图像分类任务中最常用的评估指标。
Top-1 Error: 指模型预测的概率最高的类别不是真实类别的样本比例。它衡量模型“首选答案”的准确性。Top-5 Error: 指模型预测的概率最高的五个类别中,都不包含真实类别的样本比例。它衡量模型是否能将正确答案“圈入”一个较小的候选范围,容忍度更高。
- 数学公式:
- 符号解释:
Correct Predictions: 对于 Top-1,指预测概率最高的类别与真实标签一致;对于 Top-5,指真实标签在预测概率最高的五个类别之中。Total Number of Samples: 测试集中的总样本数。
- 概念定义: 这是图像分类任务中最常用的评估指标。
-
mean Average Precision (mAP, 平均精度均值):
- 概念定义: 这是目标检测任务的标准评估指标。它综合衡量了模型在所有类别上的定位和分类性能。
mAP首先计算每个类别的Average Precision (AP),然后对所有类别的AP取平均值。AP是通过“精度-召回率曲线” (Precision-Recall Curve) 下的面积来计算的,它能很好地反映模型在不同置信度阈值下的综合表现。 - 数学公式:
首先定义精度 (Precision) 和召回率 (Recall):
AP是在不同召回率点上的精度值的加权平均(或曲线下面积的近似): 最终,mAP是所有 C 个类别的AP的平均值: - 符号解释:
TP(True Positive): 正确检测到的目标。FP(False Positive): 错误检测到的目标。FN(False Negative): 未能检测到的目标。- : 在召回率为 时的精度。
- : 召回率从
k-1到 的变化量。 - AP_c: 第 c 个类别的平均精度。
- C: 总类别数。
mAP@.5: 表示计算mAP时,判断检测框是否正确的IoU(Intersection over Union, 交并比) 阈值设为 0.5。mAP@[.5, .95]: COCO 数据集的标准指标,表示在一系列IoU阈值(从 0.5 到 0.95,步长 0.05)上分别计算mAP,然后取平均值。这个指标更严格,要求定位更精确。
- 概念定义: 这是目标检测任务的标准评估指标。它综合衡量了模型在所有类别上的定位和分类性能。
-
-
对比基线 (Baselines):
- Plain Networks: 作者自己构建的、没有快捷连接的普通深度网络,其层数、卷积核等参数与对应的 ResNet 完全相同,用于公平地证明残差学习的有效性。
- VGG-16/19: 当时最先进的深度网络之一,作为性能和复杂度的重要参考。
- GoogLeNet / PReLU-net / BN-inception: 其他在 ImageNet 上取得顶尖性能的同期模型。
6. 实验结果与分析
-
核心结果分析 (Core Results Analysis):
-
网络退化问题的验证: 论文首先用实验清晰地复现了网络退化问题。如下图所示,在 CIFAR-10 数据集上,一个 56 层的
plain网络比 20 层的plain网络具有更高的训练误差和测试误差。
该图像为两个折线图,分别展示了56层和20层网络在训练过程中的训练误差和测试误差随迭代次数(单位为1万次迭代)的变化趋势。左图显示训练误差随着迭代增加逐渐下降,20层网络误差低于56层网络;右图展示测试误差,20层网络的测试误差也低于56层网络,表明深层网络训练难度较大且易出现过拟合。 -
ResNet 解决退化问题: 在 ImageNet 上的实验结果(下图)显示,
plain网络中,34 层模型比 18 层模型误差更高(左图);而在ResNet中,情况完全反转,34 层模型比 18 层模型误差显著更低(右图)。这强有力地证明了残差学习解决了退化问题,并能从增加的深度中获益。
该图像为图表,展示了在训练过程中不同深度网络的错误率(error %)随迭代次数(iteration)的变化。左图比较了18层和34层的普通网络(plain-18与plain-34),右图比较了18层和34层的残差网络(ResNet-18与ResNet-34)。图中显示残差网络在相同深度下具有更低的错误率,训练效果更优,且34层网络性能明显优于18层。 -
深度带来的收益: 如下方转录的 Table 3 和 Table 4 所示,随着 ResNet 的深度从 34 层增加到 50、101、152 层,其在 ImageNet 上的
top-1和top-5错误率持续下降,表明模型性能随深度稳步提升。152 层的 ResNet 单模型性能(top-5错误率 4.49%)已经超过了之前所有方法的集成模型结果。注意:此表格为根据原文数据转录,非原始图像。
model top-1 err. top-5 err. VGG-16 [41] 28.07 9.33 GoogLeNet [44] - 9.15 PReLU-net [13] 24.27 7.38 plain-34 28.54 10.02 ResNet-34 A 25.03 7.76 ResNet-34 B 24.52 7.46 ResNet-34 C 24.19 7.40 ResNet-50 22.85 6.71 ResNet-101 21.75 6.05 ResNet-152 21.43 5.71 注意:此表格为根据原文数据转录,非原始图像。
method top-1 err. top-5 err. VGG [41] (ILSVRC'14) - 8.43† GoogLeNet [44] (ILSVRC'14) 7.89 VGG [41] (v5) 24.4 7.1 PReLU-net [13] 21.59 5.71 BN-inception [16] 21.99 5.81 ResNet-34 B 21.84 5.71 ResNet-34 C 21.53 5.60 ResNet-50 20.74 5.25 ResNet-101 19.87 4.60 ResNet-152 19.38 4.49 -
超深网络探索: 在 CIFAR-10 数据集上,作者成功训练了 110 层甚至 1202 层的网络(如下图),证明了 ResNet 框架在优化超深网络上的鲁棒性。1202 层的网络虽然训练误差极低,但测试误差略高于 110 层网络,作者推测这是由于在小数据集上发生了过拟合。
该图像为图表,展示了不同深度的普通网络(plain)和残差网络(ResNet)在训练过程中的错误率变化。左图显示普通网络随深度加深,训练错误率下降但测试误差提高,表明过拟合和退化现象;中图体现残差网络在测试误差上的明显优势,深层网络误差更低且稳定;右图聚焦超深残差网络(110层与1202层)测试误差曲线,显示极深网络仍能有效训练且保持较低误差。整体反映残差学习框架极大缓解深层网络训练难题。 -
层响应分析: 作者分析了网络中各层输出响应的标准差。如下图所示,ResNet 中各层的响应(即残差函数 的输出)普遍比
plain网络中各层的响应要小。这支持了作者的初始动机:残差函数可能比非残差函数更接近于零,因此更容易学习。
该图像为图表,展示了不同网络结构(plain和ResNet,不同层数)的层输出标准差(std)随层索引变化的趋势。上图按原始层顺序排列,下图按标准差大小排序。结果显示ResNet网络层的输出标准差更集中、数值更低,表明其特征分布更稳定,有助于训练更深层网络。
-
-
消融实验/参数分析 (Ablation Studies / Parameter Analysis):
- 快捷连接类型的比较: 论文在 Table 3 中比较了三种快捷连接策略:(A) 恒等映射+零填充,(B) 恒等映射+投影快捷连接,(C) 全部使用投影快捷连接。结果显示,三者性能都远超
plain网络。B 比 A 稍好,C 又比 B 稍好。这表明投影快捷连接并非解决退化问题的关键,无参数的恒等快捷连接已经足够有效且更经济(参数少、计算快)。因此,作者在后续的“瓶颈”设计中主要采用恒等快捷连接。
- 快捷连接类型的比较: 论文在 Table 3 中比较了三种快捷连接策略:(A) 恒等映射+零填充,(B) 恒等映射+投影快捷连接,(C) 全部使用投影快捷连接。结果显示,三者性能都远超
7. 总结与思考 (Conclusion & Personal Thoughts)
-
结论总结 (Conclusion Summary):
- 论文成功识别并解决了阻碍神经网络走向更深层次的“网络退化”问题。
- 提出了一个简洁而强大的残差学习框架 (ResNet),通过引入无参数的快捷连接,让网络学习残差函数,极大地简化了深度网络的优化过程。
- ResNet 使得训练前所未有的深度(如 152 层甚至 1000+ 层)的网络成为现实,并证明了增加深度能持续带来性能增益。
- 基于 ResNet 的模型在 ILSVRC & COCO 2015 等多个主流计算机视觉竞赛中取得了压倒性胜利,树立了新的行业标杆。
-
局限性与未来工作 (Limitations & Future Work):
- 过拟合问题: 论文提到,在 CIFAR-10 上训练的 1202 层超深模型出现了过拟合现象,其测试性能不如 110 层模型。这表明对于特定的数据集,并非网络越深越好,需要结合更强的正则化技术(如
maxout或dropout)来防止过拟合。 - 优化难题的根源: 论文虽然解决了网络退化问题,但并未从根本上解释为什么深度
plain网络难以优化。作者提到,这可能是因为深度plain网络的收敛速度呈指数级降低,并表示这部分将是未来的研究方向。
- 过拟合问题: 论文提到,在 CIFAR-10 上训练的 1202 层超深模型出现了过拟合现象,其测试性能不如 110 层模型。这表明对于特定的数据集,并非网络越深越好,需要结合更强的正则化技术(如
-
个人启发与批判 (Personal Insights & Critique):
- 范式转移的典范: ResNet 是一个完美的例子,展示了如何通过改变“思考角度”(从学习目标函数到学习残差)来解决看似棘手的工程难题。它的设计哲学——“如果某些东西难以学习,那就为它创造一个更容易学习的等价形式”——影响了后续非常多的研究。
- 模块化设计的力量: 残差块的设计非常简洁、优雅且易于实现,可以作为一个“即插即用”的模块,轻松地应用到各种网络架构中。这种模块化的思想促进了深度学习架构的快速迭代和创新。
- 深远影响: ResNet 不仅统治了它所处的时代,其核心思想“快捷连接”也成为了后续几乎所有先进网络架构(如 DenseNet, U-Net, Transformer 等)的标配。可以说,没有 ResNet,就没有今天如此深、如此强大的深度学习模型。它为整个领域打开了通往“超深度”的大门。
- 潜在改进思考: 尽管 ResNet 取得了巨大成功,但其简单的逐元素相加操作可能不是最优的特征融合方式。后续的研究(如 DenseNet 的特征拼接)也探索了其他融合策略。此外,残差块内部的激活函数和归一化层的位置顺序也存在优化空间(后续有论文专门研究了
pre-activationResNet)。
相似论文推荐
基于向量语义检索推荐的相关论文。