CNN炼丹瞎记录 mobilenet & se-resnet

mobilenet

v1:深度可分离卷积 depthwise separable convolution
首先利用3×3的深度可分离卷积提取特征,然后利用1×1的卷积来扩张通道。用这样的block堆叠起来的MobileNetV1既能较少不小的参数量、计算量,提高网络运算速度,又能的得到一个接近于标准卷积的还不错的结果

v2:linear bottleneck
ReLU导致了信息损耗,将最后一个ReLU替换成线性激活函数

可以发现,V2和resnet都采用了 1×1 -> 3 ×3 -> 1 × 1 的模式,以及都使用Shortcut结构。但是不同点呢:

ResNet 先降维 (0.25倍)、卷积、再升维。
MobileNetV2 则是 先升维 (6倍)、卷积、再降维。
刚好V2的block刚好与Resnet的block相反,作者将其命名为Inverted residuals。就是论文名中的Inverted residuals。

CNN炼丹瞎记录 mobilenet & se-resnet

se-resnet

中心思想:对于每个输出channel,预测一个常数权重,对每个channel加权一下。

对于每一输出通道,先global average pool,每个通道得到1个标量,C个通道得到C个数,然后经过FC-ReLU-FC-Sigmoid得到C个0到1之间的标量,作为通道的权重,然后原来的输出通道每个通道用对应的权重进行加权(对应通道的每个元素与权重分别相乘),得到新的加权后的特征,作者称之为feature recalibration。

第一步每个通道HxW个数全局平均池化得到一个标量,称之为Squeeze,然后两个FC得到01之间的一个权重值,对原始的每个HxW的每个元素乘以对应通道的权重,得到新的feature map,称之为Excitation。

Global Average Pooling-FC-ReLU-FC-Sigmoid

CNN炼丹瞎记录 mobilenet & se-resnet

CNN炼丹瞎记录 mobilenet & se-resnet

上一篇:Json和CString之间的互转


下一篇:都已经十岁的 Apache Dubbo,还能再乘风破浪吗?