我正在阅读一篇实现 CNN 的论文,但我不明白这句话 我们没有使用最大池化层来减小特征图的大小,而是使用步幅增加的卷积层。
我不知道这如何取代最大池化,我缺少什么?
最佳答案
天真地说,CNN 的过滤器通过在每个可能的位置上移动过滤器矩阵(例如,为简单起见,如下图所示为 3x3x1)来工作。这意味着您每次都将过滤器向右移动一位,当该行准备好时,您可以前后移动。
在下面的 gif 中,原始图像是虚线,过滤器是灰色的,结果是绿色图像:
但是,您也可以每次移动 2。这与您简单地对结果进行二次采样是一样的。如果以 2 的步幅移动,则将特征图维度除以 2(两者)。这意味着您的特征图只有原始大小的 1/4。这与池化减少特征图大小的方式完全相同。事实上,卷积滤波器可以学习平均和最大池化。
关于machine-learning - 减少卷积神经网络(CNN)中特征图的大小,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/41922904/