LOADING

加载过慢请开启缓存 浏览器默认开启

U-Net

image-20240916141619732

论文发布日期:2015-05-18

发布会议/期刊:MICCAI 2015(CCF-B)

阅读时,请注意以下观点发布的时间是在2015年

Abstract

  • 人们普遍认为成功训练深度网络需要上千个带标号的样本
  • 作者提出了一种网络和训练策略,依赖于数据增强的强力应用来更有效地使用标号样本
  • 该架构由一个捕捉上下文的收缩路径和实现精确定位的对称扩展路径组成
  • 该网络可以从很少图像中进行端到端的训练,并且取得了SOTA

Introduction

目标

如何在仅有少量样本时,能充分利用图片上下文并保持像素定位精度,来对生物医学图像进行精准分割

动机

  1. 过去卷积神经网络通常用于为每张图输出分类标签,然而在许多视觉任务例如生物医学图像处理中,所需的输出应该包括定位,即应该为每个像素分配一个类标签
  2. 在生物医学任务中,数以千计的训练图像通常是遥不可及的。过去Ciresan等人的工作设置滑动窗口来训练网络,通过提供该像素周围的局部区域(patch)作为输入来预测每个像素的类标签。这种方法有两个缺点:一是非常慢并且有大量冗余。二是定位精度和上下文选择之间需要权衡,因为较大的patch需要更大的最大池化,会降低定位精度,而较小的patch仅仅看到了很少的上下文
  3. 最近有方法提出考虑多层特征分类器输出,可以实现同时良好的定位和使用上下文信息

解决方法

  1. U-Net包含一个收缩路径(用于捕捉上下文信息)和一个对称的扩张路径(用于精确定位),并且还有两个路径特征图的skip connection,可以增强前后文信息传递
  2. 生物医学图像标注较少,U-Net通过弹性形变进行数据增强,更好地利用了标注样本
  3. Overlap-tile strategy用于任意大图像的无缝分割,即滑动窗口重叠。因为特征图大小不匹配,还用镜像推断用周边镜像数据预测输出

image-20240916155916184

Network Architecture

image-20240916145638148

要点解析

  1. 卷积层conv 3*3没有padding会减少长宽,后跟ReLU
  2. 下采样后经过的两层卷积会将channel翻倍
  3. 上采样(up-conv)利用转置卷积实现,每次上采样后channel减半
  4. 将之前对应的channel的特征图进行中心裁剪后与上采样后的concat,再通过两层卷积减半channel
  5. 最后一层通过conv 1*1无ReLU,卷积核的个数与需要分类的个数有关,原文只有背景和前景两类

主流改进

  1. 将conv 3*3层加上padding,不改变图像大小
  2. 卷积和ReLU中会加上Batch Normalization层,即BN层

这样最后会生成与原图一样大小的特征图

Training

  1. 训练策略

    • batch size = 1
    • 动量2. 加权损失函数

    损失函数加权意味着细胞边界的细小分割会被给大权重,而多背景的部分会被赋极小权重

    image-20240916160847510

  2. 医学图像数据增强(略)

Experiments

image-20240916160950897

image-20240916160959499

Conclusion

U-Net再不同的生物医学分割应用中实现了好性能,只需要很少带标注的图像就可以在GPU中实现极快的训练。