OverFeat:Integrated Recognition, Localization and Detection using Convolutional Networks

目录

Sermanet P., Eigen D., Zhang X., Mathieu M., Fergus R., LeCun Y. OverFeat:integrated recognition, localization and detection using convolutional networks. In International Conference on Learning Representations (ICLR), 2014.

通常的sliding windows需要大量的计算量: 首先我们需要框出一个区域, 再将该区域进行判断, 当区域(windows)的数量很多的时候, 这么做是非常耗时的.

但是本文作者发现, 通过卷积, 可以将所有的区域一次性计算, 使得大量重复计算能够节省下来. 个人觉得还是非常有意思的.

主要内容

OverFeat:Integrated Recognition, Localization and Detection using Convolutional Networks

如上图所示, 第一行展示了对一个普通图片进行判断的过程:

  1. input: \(14 \times 14 \times *\), 经过\(5 \times 5\)的卷积核(stride=1, padding=0), 得到:
  2. \(10 \times 10 \times *\)的mappings, 再经过\(2 \times 2\)的pooling (stride=2, padding=0), 得到:
  3. \(5 \times 5 \times *\)的mappings, 到此为特征提取阶段;
  4. 接下来, 是分类器部分, 实际上, 原本是全连接层部分, 我们首先以全连接层的角度过一遍, 令\(d_1=5 \times 5 \times *\):
  5. 通过\(W \in \mathbb{R}^{d_2 \times d_1}\) 将特征映射为\(d_2\)的向量;
  6. 再通过\(W‘ \in \mathbb{R}^{C \times d_2}\) 将特征映射为\(C\)的向量(C表示类别数目);
  7. 既然全连接层是特殊的卷积, 4相当于
  8. \(d_1\)\(5 \times 5\)的卷积作用于特征, 5相当于
  9. \(d_2\)\(1 \times 1\)的卷积, 6相当于
  10. \(C\)\(1 \times 1\)的卷积.

再来看第二行, 其输入为\(16 \times 16\)大小的图片, 输出是\(2 \times 2 \times C\), 而且蓝色部分之间是相互对应的. 设想, 我们将\(16 \times 16\)的图片通过sliding windows (stride=2)可以划分出四幅图片, 而这四个图片经过网络所得到的logits正好是最后输出的\(2\times 2\)中所对应的位置, 这意味着我们一次性计算了所有的windows, 但是计算量却并没有太多增加.

那么, 相应的windows是怎么划分的呢?

倘若网络每一层的核的stride为\(s_1, s_2, \cdots, s_k\), 那么windows之间的stride应该为

\[s_1 \times s_2 \times \cdots \times s_k. \]

注: stride是固定的, 但是图片的大小不一定固定, 像ResNet, 由于全连接层前有一个average pooling的操作, 故我们可以传入大小不定的图片进去.

问: 但是有些卷积核还有padding的操作, 这个该如何理解呢?(小误差?)

OverFeat:Integrated Recognition, Localization and Detection using Convolutional Networks

上一篇:Maven打包报错: Failed to execute goal org.apache.maven.plugins:maven-surefire-plugin:2.12.4:test (default-test) on project Mybatis: There are test failures.


下一篇:webpack5学习(三)