Automating cancer diagnosis using advanced deep learning techniques for multi-cancer image classification
TL;DR 精炼摘要
本研究旨在克服传统癌症诊断耗时且具侵入性的缺点,提出一种基于深度学习的自动化多癌种图像诊断系统。论文评估了DenseNet121等十种卷积神经网络(CNN)模型在七种癌症图像数据集上的性能,并结合图像分割和轮廓特征提取。结果显示,人工智能显著提升了诊断准确性,其中DenseNet121表现最为突出,取得了99.94%的验证准确率和极低的均方根误差,有力证明了深度学习在实现高效、精准癌症检测方面的巨大潜力。
摘要
Automating cancer diagnosis using advanced deep learning techniques for multi-cancer image classification Yogesh Kumar 1 , Supriya Shrivastav 2 , Kinny Garg 5 , Nandini Modi 1 , Katarzyna Wiltos 3 , Marcin Woźniak 3 & Muhammad Fazal Ijaz 4 Cancer detection poses a significant challenge for researchers and clinical experts due to its status as the leading cause of global mortality. Early detection is crucial, but traditional cancer detection methods often rely on invasive procedures and time-consuming analyses, creating a demand for more efficient and accurate solutions. This paper addresses these challenges by utilizing automated cancer detection through AI-based techniques, specifically focusing on deep learning models. Convolutional Neural Networks (CNNs), including DenseNet121, DenseNet201, Xception, InceptionV3, MobileNetV2, NASNetLarge, NASNetMobile, InceptionResNetV2, VGG19, and ResNet152V2, are evaluated on image datasets for seven types of cancer: brain, oral, breast, kidney, Acute Lymphocytic Leukemia, lung an
思维导图
论文精读
中文精读
1. 论文基本信息 (Bibliographic Information)
- 标题 (Title): Automating cancer diagnosis using advanced deep learning techniques for multi-cancer image classification (使用先进深度学习技术进行多癌种图像分类,实现癌症诊断自动化)
- 作者 (Authors): Yogesh Kumar¹, Supriya Shrivastav², Kinny Garg⁵, Nandini Modi, Katarzyna Wiltos³, Marcin Wozniak³ & Muhammad Fazal Ijaz⁴. 作者来自印度、波兰和巴基斯坦等多个国家的研究机构,显示了该研究是一项国际合作。
- 发表期刊/会议 (Journal/Conference): 论文正文末尾的版权信息显示其发表在 Scientific Reports,这是 Nature 出版集团旗下的一个多学科、开放获取的知名科学期刊,具有较好的声誉和广泛的影响力。
- 发表年份 (Publication Year): 2024 (根据论文接收和发表日期推断)
- 摘要 (Abstract): 癌症是全球主要的死亡原因,早期检测至关重要。传统方法耗时且具有侵入性,因此需要更高效的方案。本文利用基于人工智能 (AI) 的深度学习模型,特别是卷积神经网络 (CNN),来自动化癌症检测。研究评估了10种CNN模型(包括
DenseNet121、DenseNet201、Xception等)在七种癌症(脑癌、口腔癌、乳腺癌、肾癌、急性淋巴细胞白血病、肺癌与结肠癌、宫颈癌)图像数据集上的表现。图像首先经过分割和轮廓特征提取。结果显示,DenseNet121模型表现最佳,取得了99.94%的验证准确率、0.0017的损失值,以及最低的训练(0.036056)和验证(0.045826)均方根误差(RMSE)。这表明AI技术能显著提升癌症检测的准确性,而DenseNet121是本次研究中最有效的模型。 - 原文链接 (Source Link): 论文中提供的链接为本地文件路径
/files/papers/68ebccbf00e47ee3518bc8a5/paper.pdf。根据论文末尾的发表信息,该论文已于2024年10月23日在线发表,属于正式发表文章。
2. 整体概括 (Executive Summary)
-
研究背景与动机 (Background & Motivation - Why):
- 核心问题: 传统的癌症诊断方法,如人工阅片,通常依赖侵入性操作、分析过程耗时、且结果易受主观因素影响,导致效率和准确性有待提高。
- 重要性与挑战: 癌症是全球头号致死原因,早期精准诊断是提高患者生存率的关键。然而,同时识别多种癌症类型对传统方法来说是一个巨大挑战。
- 研究空白 (Gap): 尽管已有许多研究使用深度学习进行单一癌症类型的诊断,但缺乏对多种先进模型在多个癌症数据集上进行系统性、综合性的比较评估,尤其是在结合了特定的图像预处理和分割流程之后。
- 切入点: 本文的切入点是构建一个统一的深度学习框架,该框架能够对七种不同类型的癌症组织病理学图像进行分类。通过系统性地比较10个主流的预训练CNN模型的性能,并结合一套复杂的图像预处理流程,旨在找到一个在多癌种分类任务上表现最优的模型。
-
核心贡献/主要发现 (Main Contribution/Findings - What):
- 主要贡献:
- 综合性框架开发: 提出了一个包含数据预处理、图像分割、特征提取和深度学习分类的完整自动化框架,用于多癌种图像的分类。
- 广泛模型评估: 对10种广泛使用的迁移学习模型在七种不同癌症的组织病理学图像上进行了全面的性能评估和比较。
- 先进预处理应用: 应用了一套复杂的图像预处理技术(如Otsu二值化、分水岭变换)和轮廓特征提取,以增强癌症区域的识别效果。
- 关键结论:
- 在所有测试的模型中,
DenseNet121表现出最优的综合性能,在验证集上达到了 99.94% 的准确率和极低的损失值。 - 实验结果证明,基于深度学习的自动化技术在提高癌症检测准确性方面具有巨大潜力,能够为早期和准确的诊断提供有力支持。
- 在所有测试的模型中,
- 主要贡献:
3. 预备知识与相关工作 (Prerequisite Knowledge & Related Work)
本部分旨在为初学者铺垫理解论文所需的基础知识。
-
基础概念 (Foundational Concepts):
- 组织病理学图像 (Histopathology Images): 指的是通过显微镜观察染色后的组织切片所获得的图像。这些图像是癌症诊断的“金标准”,病理医生通过分析细胞的形态、大小和排列来判断组织是否癌变。
- 深度学习 (Deep Learning, DL): 机器学习的一个分支,它使用包含多个处理层的神经网络模型从大量数据中学习复杂的模式。在图像识别领域尤其强大。
- 卷积神经网络 (Convolutional Neural Network, CNN): 一种专门为处理图像等网格状数据而设计的深度学习模型。它通过卷积层、池化层和全连接层来自动学习和提取图像的层次化特征(从边缘、纹理到复杂形状)。
- 迁移学习 (Transfer Learning): 一种机器学习技术,指的是将一个在大型数据集(如ImageNet)上预先训练好的模型,应用到一个新的、通常是数据量较小的相关任务上。本文使用的10个模型都是基于迁移学习,利用它们在通用图像识别任务上学到的强大特征提取能力,来处理特定的医学图像。
-
前人工作 (Previous Works): 论文的“Background”部分和
Table 1总结了前人的相关工作。这些工作为本文的研究奠定了基础,并暴露了一些局限性。以下是论文引用的部分前人工作及其局限性总结的表格:
作者/年份 研究癌症类型 使用技术 主要成果 局限性 Anilkumar et al. (2022) 急性淋巴细胞白血病 (ALL) AlexNet, LuekNet 准确率 94.12% 数据集规模小 Saedi et al. (2023) 脑癌 2D CNN, Autoencoder 准确率 ~96% 数据集有限 Jubair et al. (2022) 口腔癌 自定义 CNN 准确率 85% 仅限于舌部病变图像 Abunasser et al. (2023) 乳腺癌 BCCNN 准确率 98.28% 耗时较长 Kalbhor and Shinde (2023) 宫颈癌 ResNet, GoogleNet 准确率 ~96% 泛化能力不足 从这些工作中可以看出,大部分研究集中于单一癌症类型,并且常常受限于数据集规模小或泛化能力弱等问题。
-
技术演进 (Technological Evolution): 早期计算机辅助诊断系统依赖于手动设计的特征。随着深度学习的兴起,特别是CNN的成功,研究转向了端到端的特征学习。近年来,利用在大型通用数据集上预训练的CNN模型进行迁移学习已成为医学图像分析的主流范式,因为它能有效解决医学领域数据稀缺的问题。本文正是在这一技术脉络下,将多种先进的迁移学习模型系统地应用于一个更复杂的多癌种分类任务中。
-
差异化分析 (Differentiation): 与之前的工作相比,本文的核心差异化在于:
- 广度: 同时处理七种不同的癌症类型,而不是单一类型。
- 深度: 系统性地比较了十种不同的、具有代表性的CNN架构,而非仅使用一两种模型。
- 流程完整性: 结合了一套详尽的图像分割和特征提取流程,旨在提高分类的精确度,并对其进行了详细描述。
4. 方法论 (Methodology - Core Technology & Implementation Details)
本部分详细拆解论文的技术方案,其整体流程如下图所示。
图1展示了本研究的整体系统设计。从左侧的Multi-cancer dataset(多癌种数据集)输入开始,依次经过Data Pre-processing(数据预处理)、Segmentation(分割)、Feature extraction(特征提取)、Classifier(分类器)处理,最终由Prediction Model(预测模型)输出癌症类型。整个流程通过Evaluation Parameters(评估参数)进行性能衡量。
-
方法原理 (Methodology Principles):
- 核心思想: 论文的核心思想是,通过一系列精细的图像处理步骤(预处理和分割)来凸显和分离出图像中的癌症病变区域,然后利用强大的预训练深度学习模型(通过迁移学习)来学习这些区域的区分性特征,从而实现对多种癌症类型的高精度自动分类。
-
方法步骤与流程 (Steps & Procedures):
-
数据预处理与分割 (Data Pre-processing and Segmentation): 这是模型训练前的关键准备工作,旨在净化图像并突出感兴趣区域(ROI)。如下图所示,这个过程包含多个步骤:
图2直观展示了对七种癌症图像应用分割技术的过程。每种癌症都经过了原始图像、灰度转换、Otsu二值化、噪声去除、距离变换和分水岭变换六个步骤,最终得到清晰的分割结果。- 步骤1:灰度转换 (Grayscale Conversion): 将三通道的彩色(RGB)图像转换为单通道的灰度图像,以降低计算复杂性。
- 步骤2:Otsu二值化 (Otsu Binarization): 一种自动阈值分割方法,将灰度图像转换为黑白二值图像,从而将前景(如细胞核)与背景分离开。
- 步骤3:噪声去除 (Noise Removal): 使用高斯滤波器平滑图像,去除图像中的随机噪声,避免干扰后续处理。
- 步骤4:距离变换 (Distance Transform): 计算二值图像中每个前景像素到最近背景像素的距离。这有助于识别和分离相互接触或重叠的细胞。
- 步骤5:分水岭变换 (Watershed Transformation): 一种经典的分割算法,它将图像看作地形图,根据“集水盆”和“分水岭”的概念来分割图像,特别适用于分离粘连的物体。
-
特征提取 (Feature Extraction): 在图像分割后,从识别出的轮廓中提取定量的形态学特征。这些特征为模型提供了关于病变区域几何形状和纹理的额外信息。论文中提取的特征包括:
-
Area:轮廓所包围的面积。 -
Perimeter:轮廓的周长。 -
Epsilon:用于轮廓近似的参数。 -
Aspect Ratio:边界框的宽高比。 -
Extent:轮廓面积与边界框面积之比。 -
Mean Color:轮廓内像素的平均颜色强度。下表转录自原文
Table 3,展示了不同癌症类型图像在分割后提取的轮廓特征参数示例。转录自原文 Table 3: Contour characteristics of images of various classes of cancer dataset Parameters ALL Kidney Cervical Brain Breast Oral Lung and Colon Area 2.0 2.0 4.0 6.5 0.0 2.0 0.5 Perimeter 6.0 6.82 7.65 13.07 10.0 5.65 3.414 Epsilon 0.60 0.682 0.765 1.307 1.0 0.565 0.3414 -
应用分类器 (Applied Classifiers): 使用10个在ImageNet上预训练的CNN模型作为特征提取器和分类器。这些模型架构各异,代表了CNN发展的不同方向。
-
DenseNet(121, 201): 核心是“密集连接”,每一层的输出都直接连接到后续所有层,极大地促进了特征重用和梯度流动。 -
ResNet152V2: 核心是“残差连接”(跳跃连接),允许信息直接跨层传递,有效解决了深度网络训练中的梯度消失问题。 -
Inception家族 (InceptionV3,InceptionResNetV2): 核心是“Inception模块”,在同一层内使用不同尺寸的卷积核并行提取多尺度特征,然后将它们拼接起来,增强了模型的宽度和适应性。InceptionResNetV2还融入了残差连接。 -
Xception: “极端Inception”,将标准卷积分解为深度可分离卷积,先对每个通道独立进行空间卷积,再通过逐点卷积进行通道融合,在提升性能的同时降低了计算量。 -
轻量级模型 (
MobileNetV2,NASNetMobile): 专为移动和嵌入式设备设计。MobileNetV2同样使用深度可分离卷积,并引入了“倒置残差”和“线性瓶颈”结构。NASNet家族则利用神经架构搜索(NAS)技术自动设计高效的网络结构。 -
VGG19: 一种经典的深层CNN模型,以其简单统一的结构(堆叠的3x3卷积层)而闻名。 -
NASNetLarge:NASNet的大型版本,计算量更大,性能更强。下表转录自原文
Table 4,展示了部分模型的层级结构和参数量。转录自原文 Table 4: Layered architecture of applied classifiers (示例) Models Layer Output Shape Param# DenseNet121 densenet121 (None, 1, 1, 1024) 7,037,504 flatten_1 (None, 1024) 0 dense_1 (None, 60) 61,500 dense_2 (None, 10) 610 VGG19 vgg19 (None, 7, 7, 512) 20,024,384 flatten_9 (None, 25088) 0 dense_18 (None, 60) 1,505,340 dense_19 (None, 10) 610
-
-
-
-
数学公式与关键细节 (Mathematical Formulas & Key Details):
- 灰度转换:
- 符号解释:
- : 输出的灰度图像像素值。
- : 输入的彩色图像中红色(Red)、绿色(Green)、蓝色(Blue)通道的像素强度值。
- 符号解释:
- Otsu二值化 (类间方差):
- 符号解释:
- : 在阈值为 时的类间方差。Otsu方法的目标是找到使该值最大的阈值 。
- : 由阈值 分割出的背景和前景像素所占的比例。
- : 背景和前景像素的平均灰度值。
- 符号解释:
- ResNet (残差连接):
- 符号解释:
Input: 某个残差块的输入。- : 残差块内的卷积、批归一化等一系列操作。
Output: 残差块的输出,是原始输入和经过变换后的结果之和。
- 符号解释:
- 灰度转换:
5. 实验设置 (Experimental Setup)
-
数据集 (Datasets): 实验使用了7个公开可用的数据集,涵盖了7种不同的癌症类型。数据集被划分为70%的训练集,15%的验证集和15%的测试集。
下表转录自原文
Table 2,详细列出了每个数据集的图像分布情况。注意: 数据集之间存在严重的类别不平衡问题,例如肺癌和结肠癌数据集有25,000张图像,而脑癌数据集只有3,064张。这会对模型的训练和评估产生影响。转录自原文 Table 2: Dataset distribution of various types of cancer Cancer Type Training Set Validation Set Test Set Total Images Lung and Colon Cancer 17,500 3,750 3,750 25,000 Breast Cancer 5,536 1,186 1,186 7,909 Brain Cancer 2,144 459 459 3,064 Kidney Cancer 8,712 1,866 1,866 12,446 Cervical Cancer 2,834 607 607 4,049 Acute Lymphocytic Leukemia 2,280 488 488 3,256 Oral Cancer 4,946 120 126 5,192 -
评估指标 (Evaluation Metrics):
- 准确率 (Accuracy)
- 概念定义: 衡量分类器正确分类的样本占总样本数的比例。它是最直观的性能指标,但在类别不平衡的数据集上可能具有误导性。
- 数学公式:
- 符号解释:
True Positive (TP): 真正例,实际为正类,预测也为正类。True Negative (TN): 真负例,实际为负类,预测也为负类。False Positive (FP): 假正例,实际为负类,但预测为正类(误报)。False Negative (FN): 假负例,实际为正类,但预测为负类(漏报)。
- 精确率 (Precision)
- 概念定义: 衡量所有被预测为正类的样本中,有多少是真正的正类。它关注预测的“准确性”,即“宁缺毋滥”。
- 数学公式:
- 符号解释: 同上。
- 召回率 (Recall)
- 概念定义: 衡量所有真实的正类样本中,有多少被成功地预测出来。它关注模型的“查全率”,即“宁可错杀,不可放过”。在癌症检测等场景中,高召回率尤其重要,因为漏诊的代价极高。
- 数学公式:
- 符号解释: 同上。
- F1分数 (F1 Score)
- 概念定义: 精确率和召回率的调和平均数,是综合评价模型性能的常用指标。它同时考虑了精确率和召回率,当两者都较高时,F1分数也较高。
- 数学公式:
- 符号解释: 同上。
- 均方根误差 (Root Mean Square Error, RMSE)
- 概念定义: 衡量模型预测值与真实值之间差异的常用指标。它计算的是预测误差的平方和的均值的平方根。RMSE对较大的误差给予更高的权重,因此对异常值很敏感。在分类任务中,它通常用于评估模型输出的概率与真实标签(如0或1)之间的差距。
- 数学公式:
- 符号解释:
Actual Value: 样本的真实标签值。Predicted Value: 模型对样本的预测值(通常是概率)。Number of observations: 样本总数。
- 准确率 (Accuracy)
-
对比基线 (Baselines): 本文没有设置外部的基线模型,而是将所评估的10个CNN模型相互作为对比基线。通过在相同的数据集和实验条件下进行评估,来比较这些模型在多癌种分类任务上的相对性能优劣。
6. 实验结果与分析
-
核心结果分析 (Core Results Analysis):
-
总体性能 (
Table 5): 该表总结了10个模型在训练集和验证集上的总体准确率和损失。-
所有模型的准确率都非常高(普遍在99.5%以上),表明这些先进的CNN架构在结合了精细的预处理后,能够非常有效地学习区分不同癌症的特征。
-
DenseNet121在验证集上取得了最高的准确率 (99.94%) 和最低的损失 (0.0017),这使其成为本次研究中综合表现最好的模型。下表转录自原文
Table 5。转录自原文 Table 5: Evaluation of classifiers for Multi-cancer dataset Models Training Validation Accuracy (%) Loss Accuracy (%) Loss DenseNet121 99.95 0.0019 99.94 0.0017 DenseNet201 99.50 0.0013 99.93 0.0021 ... (其他模型) ... ... ... ... -
RMSE 分析 (
Fig. 3):
图3展示了各模型在训练和验证集上的RMSE值。蓝色柱代表训练RMSE,橙色柱代表验证RMSE。- 从图中可以看出,
DenseNet201的训练和验证RMSE都非常低,表现稳定。 - 重要矛盾点: 论文摘要声称
DenseNet121取得了最低的RMSE值,但该图显示DenseNet121的训练RMSE值异常高(约0.14),而验证RMSE(约0.046)虽然较低,但并非所有模型中最低。结果部分的文本也指出DenseNet201在RMSE上表现最好,并警告DenseNet121的RMSE值相对较高。这表明论文的摘要与其实验结果图表和正文分析之间存在明显矛盾。
- 从图中可以看出,
-
学习曲线分析 (
Fig. 4, 5, 6):
该图像是多癌症数据集上多种深度学习分类器训练与验证的学习曲线图,分别展示了DenseNet121、DenseNet201、InceptionResNetV2和InceptionV3模型在不同训练轮次(epoch)下的准确率和损失变化趋势,用以评估模型的训练效果和泛化能力。
该图像是多个深度学习模型(包括MobileNetV2、NASNetLarge、NASNetMobile和ResNet152V2)在训练过程中准确率与损失值的折线图。图中展示了不同训练周期(Epochs)下各模型训练准确率(training_accuracy)、验证准确率(val_accuracy)、训练损失(training_loss)及验证损失(val_loss)的变化趋势,用以评估模型性能。
上图展示了所有10个模型的训练和验证学习曲线。- 所有模型的准确率曲线(左侧)都快速上升并趋于平稳,损失曲线(右侧)则迅速下降并收敛。
- 训练曲线和验证曲线非常贴近,表明模型没有出现明显的过拟合 (Overfitting),泛化能力良好。这可能得益于迁移学习的有效性以及数据增强等正则化技术。
-
分类性能分析 (
Table 6):- 所有模型的精确率、召回率和F1分数都极高(普遍在99.5%以上),再次验证了这些模型在多癌种分类任务上的强大性能。例如,
DenseNet201的F1分数最高,为99.63%。
- 所有模型的精确率、召回率和F1分数都极高(普遍在99.5%以上),再次验证了这些模型在多癌种分类任务上的强大性能。例如,
-
按癌种分析 (
Table 7,Fig. 5,Fig. 7):-
不同模型在特定癌症类型上表现各异。例如,
ResNet152V2在脑癌分类上表现突出,而InceptionV3在口腔癌上表现良好。这表明不存在一个在所有任务上都绝对最优的模型,模型选择应考虑具体任务的特点。 -
Fig. 7(图像9) 的预测评估显示,绝大多数模型的预测都是准确的,只有一个例外:InceptionV3将一张真实的口腔癌图像错误地预测为了乳腺癌,这直观地展示了即使是高性能模型也可能出现失误。
该图像是多个深度学习模型对多癌症图像分类结果的示意图,展示了不同模型(如DenseNet121、DenseNet201、InceptionResNetV2等)在口腔癌、宫颈癌及肺结肠癌病理图像上的预测结果与真实标签的对比,用于评估各模型的分类准确性。
-
-
训练时间分析 (
Fig. 6):
图8展示了不同模型的训练时间。- 模型的计算成本差异巨大。
NASNetLarge训练时间最长(超过400分钟),反映了其复杂性。而DenseNet121和MobileNetV2等模型则相对高效。这揭示了在模型选择时需要在性能和计算资源之间进行权衡。
- 模型的计算成本差异巨大。
-
-
消融实验/参数分析 (Ablation Studies / Parameter Analysis):
- 缺失关键实验: 论文没有进行消融实验。例如,作者强调了图像分割流程的重要性,但并未提供一组不使用分割直接训练模型的对比实验结果。因此,这套复杂的预处理流程对性能提升的具体贡献度(究竟提升了多少)是未知的。这是一个重要的实验设计缺陷。
7. 总结与思考 (Conclusion & Personal Thoughts)
-
结论总结 (Conclusion Summary):
- 本研究成功地构建并评估了一个用于多癌种组织病理学图像自动分类的深度学习框架。
- 通过对10个先进CNN模型的综合比较,
DenseNet121在验证准确率和损失方面表现最佳,证明了其在多癌种分类任务中的巨大潜力。 - 研究结果有力地支持了AI技术,特别是深度学习,在辅助医生进行早期、快速、准确的癌症诊断方面的应用价值。
-
局限性与未来工作 (Limitations & Future Work):
- 局限性:
- 癌症类型有限: 研究仅涵盖了七种癌症,其结论对其他癌症类型的普适性未知。
- 分割依赖性: 模型的优异表现高度依赖于复杂的图像分割流程,但该流程的必要性和成本效益未得到充分验证。
- 模型选择局限: 未包含更先进的架构,如基于Transformer的模型(例如Vision Transformer, ViT)。
- 计算资源需求: 许多高性能模型(如
NASNetLarge)训练时间长、计算成本高,限制了其在资源受限环境中的应用。
- 未来方向:
- 扩展数据集: 纳入更多种类和数量的癌症图像,以提升模型的泛化能力。
- 探索新架构: 引入并比较ViT等更新的模型架构。
- 进行消融研究: 通过对比有无分割流程的实验,来量化分割步骤的实际贡献。
- 优化模型效率: 探索模型轻量化技术,以降低计算成本,促进临床部署。
- 局限性:
-
个人启发与批判 (Personal Insights & Critique):
- 核心矛盾值得警惕: 论文中最严重的问题是摘要中关于RMSE的结论与正文结果(图表和文字)的明显矛盾。摘要称
DenseNet121RMSE最低,而结果部分显示DenseNet201更优。这可能是一个严重的疏忽,影响了读者对最佳模型的判断,也降低了研究的严谨性。 - “黑盒”预处理的贡献成谜: 如前所述,缺乏消融实验是本文最大的方法论缺陷。作者投入大量篇幅介绍复杂的分割流程,但没有实验证明这个流程相比简单的预处理(如仅调整大小和归一化)到底带来了多大的性能提升。这使得读者无法判断高准确率是源于模型本身的能力,还是这个耗时耗力的预处理流程。
- 数据集不平衡问题处理模糊: 论文提到了使用技术处理数据集不平衡,但并未详细说明具体方法(如类别加权、过采样、欠采样等)以及如何应用于训练。鉴于各癌种数据集大小差异悬殊(最大是最小的8倍多),这是一个无法回避的关键细节,但论文对此的描述过于笼统。
- 启发: 尽管存在上述问题,这项研究仍然提供了一个有价值的横向评测。它系统地比较了多种主流CNN模型在多癌种分类任务上的表现,为后续研究者选择基础模型提供了重要的参考。此外,其对图像预处理流程的详细描述也具有一定的教学意义,展示了在深度学习应用于医学图像时可以采用的一整套技术栈。
- 核心矛盾值得警惕: 论文中最严重的问题是摘要中关于RMSE的结论与正文结果(图表和文字)的明显矛盾。摘要称
-
相似论文推荐
基于向量语义检索推荐的相关论文。