CNN反向传播:从直觉到起源

CNN反向传播:从直觉到起源

Convolutional Neural Networks backpropagation: from intuition to derivation

这里假设你已经对多层感知器、损失函数、反向传播等有一定掌握,如果还没有了解过,最好先去了解一下

开篇

Convolutional Neural Networks(CNN)现在是做图像分类的标准方式,现在已经有许多开源的深度学习框架、训练好的模型和服务等,配置框架环境所花的时间甚至比真正开始做图像分类的时间还多。同时,现在已经有许多网课和电子书让你去直接了解和使用这些强大深度学习思想,“零距离接触”吴恩达大佬、Yoshua Bengio、Yann Lecun等,跟随他们的步伐进行学习

然而当我要深入了解CNN的时候,我发现找不到“CNN反向传播——笨蛋也看得懂的教程”等类似的文章。更多的我找到的是“如果你了解过标准神经网络中的反向传播,那CNN中的反向传播对你来说肯定不成问题”或者是“除了矩阵乘法变成了卷积,其它的都一样”。。。当然,我也见过许多已经推导好的数学公式,但是对于新手不友好啊

让我感到安慰的是,我发现我并不是一个人!比如我看到有人问:Hello,为什么计算CNN中的梯度的时候要把权值进行旋转?

别着急,这个问题的答案将在下面这篇长文给出

正文

我们刚开始都是从多层感知器开始入门,并且根据教程小心翼翼地计算误差

CNN反向传播:从直觉到起源

从图中可以看到最左上角的单元,其“看到”的梯度\(\delta^1_1\)​与下一层三个单元"看到"的梯度乘上相应的三个权值之和成正比,也就是图中的式子

但我们怎么将多层感知器(MLP)的概念与CNN联系起来呢,看下面的将MLP转化为CNN:

CNN反向传播:从直觉到起源

如果你依然对这个过程感到不明觉厉,也就是对connections cutting和weights sharing的概念感到不明觉厉,我觉得下面这张图(CNN中的正向传播)会对你有点启发

CNN反向传播:从直觉到起源

也就是说右边这种神经网络和左边的二维卷积操作结果是相同的,其中的权值只是作为滤波器filters(也叫作核kernels、卷积矩阵convolution matrices、masks)

现在回到计算梯度,但这次我们把注意力放在CNN的梯度计算上来,见下图(反向传播也需要卷积)

CNN反向传播:从直觉到起源

这图是不是很熟悉呢,是的就是之前介绍的MLP反向传播过程,现在结合到了CNN中,自行体会一下。下面可以开始讲讲卷积了...

CNN反向传播:从直觉到起源

CNN反向传播:从直觉到起源

看起来与之前的前向传播不太一样。之前我们做的是"valid convolution",这里我们做了"full convolution"(命名法见此)。另外,我们还把卷积核旋转了180°

现在:

  1. 在正向和反向传播中,矩阵点乘都变成了卷积运算
  2. 在继续之前,我们要证明上面的过程

在标准的MLP中,我们对神经元j的误差定义为

\(\delta^l_j = \frac{\partial C}{\partial z^l_j}\)​​

其中\(z^l_j = \sum_k {w^l_{jk}a^{l-1}_k+b^l_j}\)​​

为了表达得更清楚些,\(a^l_j=\sigma(z^l_j)\)​,其中的激活函数可以是simoid,tanh或者relu等

但在CNN中,我们不用MLP矩阵乘法,而是用卷积(符号为*)。所以我们用\(z_{x,y}\)​来表示线性输出,因为是二维卷积,其中x,y分别表示行和列

\(z^{l+1}_{x,y}=w^{l+1}*\sigma(z^l_{x,y})+b^{l+1}_{x,y}=\sum_a\sum_b w^{l+1}_{a,b}\sigma(z^l_{x-a,y-b})+b^{l+1}_{x,y}\)

上面的式子就是在CNN在正向传播中进行的卷积操作

现在我们可以继续探讨一开始提出的问题:Hello,为什么计算CNN中的梯度的时候要把权值进行旋转?

看到下面的式子:

\(\delta^l_{x,y}=\frac{\partial C}{\partial z^{l+1}_{x',y'}}=\sum_{x'}\sum_{y'}\frac{\partial C}{\partial z^{l+1}_{x',y'}}\frac{\partial z^{l+1}_{x',y'}}{\partial z^l_{x,y}}\)​​

我们知道\(z^l_{x,y}\)与\(z^{l+1}_{x',y'}\)是相关的,通过上面“反向传播也需要卷积”这张图片。所以上面等式就是链式求导法则的结果,让我们接着往下看(latex太他妈长了,不写了):

CNN反向传播:从直觉到起源

式子好像变得更长了,不用担心,这里只是把\(z^{l_1}_{x',y'}\)代入了式子而已,后面你会发现十分方便化简,经过化简我们得到

CNN反向传播:从直觉到起源

如果CNN反向传播:从直觉到起源CNN反向传播:从直觉到起源那么显然有CNN反向传播:从直觉到起源CNN反向传播:从直觉到起源,所以又可以写成

CNN反向传播:从直觉到起源

OK,最终式子化成了

CNN反向传播:从直觉到起源

所以说好的权值旋转180°呢??,实际上,CNN反向传播:从直觉到起源

所以问题的答案很简单:权值的旋转只是CNN反向传播求导中某步的化简结果

最后,反向传播还有一步:参数的更新,下面给出最终的参数求导公式(根据上面的推导):

CNN反向传播:从直觉到起源

总结

最后,CNN的反向传播算法总结如下:

  1. 输入x,对输入层设置合适的激活函数
  2. 正向传播:对每层计算线性部分\(z^l_{x,y}=w^l*\sigma(z^{l-1}_{x,y})\)和非线性部分\(a^l_{x,y}=\sigma(z^l_{x,y})\)​,像MLP那样,只不过矩阵乘法变成了卷积运算
  3. 计算最后一层的导数
  4. 反向传播
  5. 得出参数的导数
上一篇:数据透视:Excel数据透视和Python数据透视


下一篇:AI视觉 DAY3 学习笔记