卷积神经网络在生物医学图像上的应用进展(7)
2.2.3 乳腺医学影像
乳腺癌是全球范围内女性死亡的主要原因之一,乳腺癌在侵入性癌症中占22.9%,在全球女性癌症相关死亡中占13.7%[54]。借助数字乳房X线光片观测乳房中是否含有特定肿块是常用的乳腺癌诊断方法。由于乳腺与肿瘤在X线光片下均呈现白色,外观上的相似性给肿瘤检测任务带来重大挑战。针对这一问题,Akselrod-Ballin等[55]首先利用基于阈值分割的方法实现乳腺和纤维腺组织的分割,从而产生一个解剖学的先验知识。然后将图像分割为多个重叠的网格,利用Faster R-CNN来实现乳腺肿瘤区域的检测和分类。该方法在850 张临床数据上检测的准确率达到72%,分类的准确率达到77%。Almasni 等[56]使用在ImageNet 上预训练的YOLO[22]模型实现了数字乳房X光片中肿块的检测及分类。该模型首先利用多个卷积层进行特征提取,然后基于置信模型进行肿块的检测,最后使用全连接神经网实现乳腺肿块良恶性的判定。该方法在DDSM[57]数据库中肿瘤检测的准确率为99.7%,良恶性病变分类的准确率达97%。为了能够小数据集上获得性能更好的模型,Sheng等[58]提出了基于RNN+CNN的注意力记忆网络进行乳腺癌诊断。该方法中使用注意力模块来提取图像特征,使用记忆模块在RNN 模型中加入注意力权重来增强特征描述。使用INbreast 数据集上的测试结果比Inceptionv2、ResNet50、VGG16模型的结果都要好,准确率达到84.1%,且运行时间更快。
在组织密度变高或发生组织重叠时,使用数字乳房X 光片难以准确诊断肿瘤类别。数字乳腺断层合成(Digital Breast Tomosynthesis,DBT)通过使用多个乳房X线透视图构建三维乳房影像,可以清晰显示乳房肿块,因此癌症检测灵敏度比数字乳房X 线更高。目前,DBT图像相对稀缺,公开数据集也较少。Samala等[59]使用迁移学习来解决这一问题,该方法利用乳房X光片来对CNN 模型进行预训练,然后使用DBT 图像来训练最后一层卷积层和全连接层,最终实现乳房肿块的检测和分类。该方法在94 张DBT-UM[60]测试数据集上检测的最大灵敏度达到90%,分类的AUC达到0.90。
2.2.4 肺医学影像
肺癌是全球癌症死亡的主要原因之一,肺癌约占每年新增癌症数量的13%,占癌症相关死亡的19.5%[61]。肺癌非常具有侵袭性,患者的长期生存率低,因此早期发现对肺癌的治疗意义重大[62]。胸部CT影像是肺癌诊断的有力工具[63]。肺结节被定义为胸部CT中肺上的斑点,大多数肺癌由小的恶性结节引起的。肺结节分割的挑战在于它们的形状、大小以及纹理等方面存在的异质性。为解决以上问题,Shen 等[64]提出了一种多尺度CNN模型来提取肺结节的判别特征。为了捕捉肺结节的异质性,该模型使用三个并行的CNN 分别处理不同大小的图像块再将它们提取的特征进行通道拼接,然后利用支持向量机和随机森林分类器实现肺结节良恶性分类,最终在LIDC-IDRI数据集[65]中对恶性结节的分类准确率为86.84%。为了更好地提取不同尺度的结节,Shen 等[66]使用一种多次裁剪池化层替换上述模型的最大池化层,该模型将卷积特征图裁剪成不同的区域,分别使用不同次数的最大池化操作,来提取结节不同尺度的显著性信息。该方法在LIDC-IDRI 数据集上的分类准确率达到87.14%。
肺结节是以三维立体形式存在的,通过多视图、多层相邻切片的方法可以充分利用肺结节的三维上下文信息,从而能够有效提高肺结节的分类准确率。在多视图方面,Ciompi 等[67]首先使用ImageNet 上预训练的OverFeat[68]模型来分别提取轴向、冠状和矢状视图上的肺结节特征向量,然后为每个特定视图训练一个支持向量机或随机森林分类器,最后将多个分类器的结果进行融合生成最终分类结果。该方法在从NELSON[69]中心搜集的数据集上的分类AUC 达到0.847。Setio 等[70]提出了一个多视图CNN 模型对CT 图像中是否存在肺结节进行诊断,该方法分别针对实性结节、亚实型性结节和大结节设计形态学方法提取肺结节候选区域,并将检测到的肺结节候选区域分解成9个固定视图平面(矢状面、冠状面、轴向面和六对角面)分别传入到一个2D CNN 进行训练,最后融合这9 个CNN 的输出来实现肺结节分类。该方法很大程度上减小了结果的假阳性,在LIDC-IDRI 数据集的检测灵敏度达到了90.1%。Xie等[71]提出了另一种融合多视图多外观的知识协同深度模型来分类肺结节,该方法将已知中心位置的三维结节分解成9 个固定视图,然后针对每个视图进行如下操作:首先使用U-Net 分割肺结节;然后微调3 个预训练ResNet-50 子模型来分别描述结节的整体外观、体素和形状异质性;最后对3 个子模型的输出结果进行加权求和。此方法对9 个视图并行训练,最后将它们的结果进行自适应加权融合从而产生分类结果。该方法在LIDC-IDRI 数据集[65,72-73]上对肺结节分类的准确率为91.60%,灵敏度为86.52%,AUC 为0.957。Li 等[74]提出的基于CNN的多层面二阶特征融合模型提取肺结节的3个相邻层面的切片中的特征,来避免肺结节周围毛细血管、组织器官等干扰。该模型首先提取每一个切片的特征,然后融合3 个切片的特征用于肺结节3 种恶性程度的评估。该方法在LIDC-IDRI 数据集上精确度为91.27%,灵敏度为89.48%,AUC达到0.924。
文章来源:《生物医学工程学杂志》 网址: http://www.swyxgcxzzzz.cn/qikandaodu/2021/0619/606.html