这篇论文主要介绍了如何使用图片级标注对像素级分割任务进行训练。想法很简单却达到了比较好的效果。文中所提到的loss比较有启发性。
大体思路:
首先同FCN一样,这个网络只有8层(5层VGG,3层全卷积)。不同的是由于图片只有image-level的标注,所以输出图像的清晰度无法保证,所以没有反卷积。图片的分辨率很低很低,但这相对于我们的期望已经很好了。
FCN框图
LOSS:
这个loss说明了很多道理,我们先贴原文:
我们只关注
1.该图片中有label的dense output
2.含有该label的最大值
仅仅对这些label计算loss。
第一点还是挺有道理的,因为大多数标记并不是对全局进行的标记,我们有较大把握对这个图里面有什么进行判断,但对这个图里面没有什么却没有把握去判断。
第二点意义我并不是很明确,感觉应该是一个训练上的trick。如果对所有的正确的label进行backpropagation应该很容易过拟合或者输出最大比例的label。可能今后在实践中可以回答这个问题。
效果
虽然IOU挺低的,但是看图的话觉得效果不错。
IOU