Alexnet网络

Alexne

t网络
Alexnet网络

从这个图我们可以很清楚地看到Alexnet的整个网络结构是由5个卷积层和3个全连接层组成的,深度总共8层。图片上已经有一个较清楚的层与层直接转换的过程,那么接下来就对各层做个简单的解读。

conv1

  • 输入Input的图像规格: 224X224X3(RGB图像),实际上会经过预处理变为227X227X3
  • 使用的96个大小规格为11X11X3的过滤器filter,或者称为卷积核(步长为4),进行特征提取,卷积后的数据:
    55X55X96 [(227-11)/4+1=55]
    (注意,内核的宽度和高度通常是相同的,深度与通道的数量是相同的。)
  • 使用relu作为激励函数,来确保特征图的值范围在合理范围之内。
    relu1后的数据:55X55X96
  • 降采样操作pool1
    pool1的核:3X3 步长:2,降采样之后的数据为27X27X96 [(55-3)/2+1=27]
    [注意:Alexnet中采用的是最大池化,是为了避免平均池化的模糊化效果,从而保留最显著的特征,并且AlexNet中提出让步长比池化核的尺寸小,这样池化层的输出之间会有重叠和覆盖,提升了特征的丰富性,减少了信息的丢失。]

conv2

  • 输入数据 27X27X96

  • conv2中使用256个5X5大小的过滤器filter(步长1)对27X27X96个特征图,进行进一步提取特征,但是处理的方式和conv1不同,过滤器是对96个特征图中的某几个特征图中相应的区域乘以相应的权重,然后加上偏置之后所得到区域进行卷积。经过这样卷积之后,然后在在加上宽度高度两边都填充2像素,会的到一个新的256个特征图.特征图的大小为:
    (【27+2X2 - 5】/1 +1) = 27 ,也就是会有256个27X27大小的特征图.

  • .然后进行relu操作,relu之后的数据27X27X96

  • 降采样操作pool2
    pool1的核:3X3 步长:2,pool2(池化层)降采样之后的数据为13X13X96 [(27-3)/2+1=13

conv3

  • 没有降采样层
  • 得到【13+2X1 -3】/1 +1 = 13 , 384个13X13的新特征图(核3X3,步长为1)

conv4

  • 没有降采样层
  • 得到【13+2X1 -3】/1 +1 = 13 , 384个13X13的新特征图(核3X3,步长为1)

conv5

  • 输出数据为13X13X256的特征图
  • 降采样操作pool3
    pool3的核:3X3 步长:2,pool3(池化层)降采样之后的数据为6X6X256 [(13-3)/2+1=6]

fc6

全连接层,这里使用4096个神经元,对256个大小为6X6特征图,进行一个全连接,也就是将6X6大小的特征图,进行卷积变为一个特征点,然后对于4096个神经元中的一个点,是由256个特征图中某些个特征图卷积之后得到的特征点乘以相应的权重之后,再加上一个偏置得到,之后再进行一个dropout,也就是随机从4096个节点中丢掉一些节点信息(值清0),然后就得到新的4096个神经元。

fc7

和fc6类似。

fc8

采用的是1000个神经元,然后对fc7中4096个神经元进行全链接,然后会通过高斯过滤器,得到1000个float型的值,也就是我们所看到的预测的可能性。

补充说明

上一篇:权限


下一篇:CV 第九课 CNN框架 全连接层