Self-supervised learning (SSL) has garnered substantial interest within the machine learning and computer vision communities. Two prominent approaches in SSL include contrastive-based learning and self-distillation utilizing cropping augmentation. Lately, masked image modeling (MIM) has emerged as a more potent SSL technique, employing image inpainting as a pretext task. MIM creates a strong inductive bias toward meaningful spatial and semantic understanding. This has opened up new opportunities for SSL to contribute not only to classification tasks but also to more complex applications like object detection and image segmentation. Building upon this progress, our research paper introduces a scalable and practical SSL approach centered around more challenging pretext tasks that facilitate the acquisition of robust features. Specifically, we leverage multi-scale image reconstruction from randomly masked input images as the foundation for feature learning. Our hypothesis posits that reconstructing high-resolution images enables the model to attend to finer spatial details, particularly beneficial for discerning subtle intricacies within medical images. The proposed SSL features help improve classification performance on the Curated Breast Imaging Subset of Digital Database for Screening Mammography (CBIS-DDSM) dataset. In pathology classification, our method demonstrates a 3\% increase in average precision (AP) and a 1\% increase in the area under the receiver operating characteristic curve (AUC) when compared to state-of-the-art (SOTA) algorithms. Moreover, in mass margins classification, our approach achieves a 4\% increase in AP and a 2\% increase in AUC.


翻译:自监督学习(SSL)在机器学习和计算机视觉领域引起了广泛关注。SSL中两种主要方法包括基于对比的学习和利用裁剪增强的自蒸馏。最近,掩码图像建模(MIM)作为一种更强大的SSL技术出现,它以图像修复作为前置任务。MIM为有意义的空间和语义理解创造了强烈的归纳偏置。这为SSL开辟了新的机遇,使其不仅能够应用于分类任务,还能贡献于更复杂的应用,如目标检测和图像分割。基于这一进展,我们的研究论文提出了一种可扩展且实用的SSL方法,其核心是更具挑战性的前置任务,以促进鲁棒特征的获取。具体而言,我们利用从随机掩码输入图像中进行多尺度图像重建作为特征学习的基础。我们的假设认为,重建高分辨率图像使模型能够关注更精细的空间细节,这对于识别医学图像中的细微复杂结构尤为有益。所提出的SSL特征有助于提升在数字乳腺筛查数据库精选子集(CBIS-DDSM)数据集上的分类性能。在病理分类中,与最先进(SOTA)算法相比,我们的方法在平均精度(AP)上提高了3%,在受试者工作特征曲线下面积(AUC)上提高了1%。此外,在肿块边缘分类中,我们的方法实现了AP提升4%和AUC提升2%。

0
下载
关闭预览

相关内容

【AAAI2024】LAMM: 多模态提示学习的标签对齐
专知会员服务
41+阅读 · 2023年12月14日
【KDD2022】GraphMAE:自监督掩码图自编码器
专知会员服务
23+阅读 · 2022年6月12日
ICLR'21 | GNN联邦学习的新基准
图与推荐
12+阅读 · 2021年11月15日
NAACL 2019 | 一种考虑缓和KL消失的简单VAE训练方法
PaperWeekly
20+阅读 · 2019年4月24日
国家自然科学基金
2+阅读 · 2016年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
相关VIP内容
【AAAI2024】LAMM: 多模态提示学习的标签对齐
专知会员服务
41+阅读 · 2023年12月14日
【KDD2022】GraphMAE:自监督掩码图自编码器
专知会员服务
23+阅读 · 2022年6月12日
相关资讯
相关基金
国家自然科学基金
2+阅读 · 2016年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员