以Alexnet和VGGnet为例,设计好之后,输入图片的大小是有固定要求的.
全卷积神经网络FCN,可以输入任意大小的图片来作为输入.
全卷积神经网络顾名思义,即该网络中全部使用卷积层进行连接.
卷积神经网络简单结构示意可以表示为:输入>>>卷积层>>>Flatten>>>全连接层>>>输出
全卷积神经网络无需Flatten操作,其结构可以简单的表示为: 输入>>>卷积层>>>卷积层(卷积核大小为1*1)>>>输出
1*1卷积核
作用:
(1)增加非线性,该卷积核的卷积过程相当于全连接的计算过程,并且还加入了非线性激活函数,从而可以增加网络的非线性,使得网络可以表达更加复杂的特征.
(2)特征降维,通过控制卷积核的数量达到通道数大小的缩放.
(3)实现跨通道的交互和信息整合(具有线性修正特性,实现多个feature map的线性组合,可以实现feature map在通道数上的变化,想象成跨通道的pooling,)
该卷积核只有一个参数,在图片上进行滑动,相当于给输入数据乘上一个系数(对于单通道核单个卷积核而言是可以这样理解的),该卷积核可以看作一种全连接,例如:
例如:第一层有六个神经元分别从a1-a6,通过全连接以后,到第二次变成五个神经元,分别是b1-b5,第一层的6各神经元需要和第二层的5个神经元进行全连接,其中b1为a1-a6的加权和,权数对应于就是w1-w6,第一层的6个神经元其实相当于输入特征的通道数:6,而第二层的5个神经元相当于1*1卷积之后的新的特征通道数:5.w1-w6是一个卷积核的权系数,显然要计算b2-b5还需要4个尺度相同的卷积核.
由于没有了全连接层的限制,所以卷积层的输入可以接受不同尺寸的图像,也就不要求输入训练和测试图像的尺寸一样了.