深度学习-1x1大小的卷积核、Inception网络

两个作用:

1、改变通道数,在inception网络中作为瓶颈,明显降低参数数量以及计算成本。 并且经过证明,合理的使用1x1的卷积并不会影响之后的影响。(具体的合理怎么规定?这里以后再说)

2、可以单纯的RELU的非线性,可以学习到更为复杂的函数。

深度学习-1x1大小的卷积核、Inception网络

 

inception提出的动机:不用人工选择卷积核的大小,而是由网络自行决定选什么。

主要思想:运用1x1大小的卷积核 明显降低了 之后使用其他卷积核的参数,从120M降低到12M

深度学习-1x1大小的卷积核、Inception网络

深度学习-1x1大小的卷积核、Inception网络

 

 

深度学习-1x1大小的卷积核、Inception网络

 

上一篇:随机心理魔法


下一篇:作业