Abstract
深度网络的成功训练需要数千个带注释的训练样本,这是一个很大的共识。在本文中,我们提出了一种网络和训练策略,它依赖于数据增强的强大使用,以更有效地使用可用的带注释的样本。该体系结构由捕获上下文的收缩路径和支持精确本地化的对称扩展路径组成。我们表明,这样的网络可以从很少的图像中进行端到端训练,并且在电子显微镜堆栈中分割神经元结构的ISBI挑战中优于先前的最佳方法(滑动窗口卷积网络)。使用在透射光学显微镜图像(相位对比和DIC)上训练的相同网络,我们在这些类别中以较大的优势赢得了2015年ISBI细胞跟踪挑战。此外,网络速度很快。在最新的GPU上,分割512x512的图像只需不到一秒。完整的实现(基于Caffe)和经过训练的网络可在http://lmb.informatik.uni-freiburg.de/people/ronneber/u-net上获得。
结论
u-net架构在非常不同的生物医学细分应用中实现了非常好的性能。由于具有弹性变形的数据增强,它只需要很少的注释图像,并且在NVidia Titan GPU (6 GB)上的训练时间仅为10小时。我们提供完整的基于Caffe[6]的实现和训练过的网络4。我们相信,u-net体系结构可以很容易地应用于更多的任务。