1.传统一维卷积:
2.改变groups:
将Input的通道分成groups个独立的通道,分别进行卷积。相应的卷积核的通道数也会减小,如下图所示。
下图将64个通道分成32个groups,每个组由两个通道构成,时间维保持不变。一个1d卷积核的大小为(64 / 32, kernel)。
由于output_channels = 128。
对每个group卷积一次会得到输出的一个channel,所以需要对32个group卷积(output_channels / groups = 128/32)4遍。因此要求output_channels / groups必须是可以除尽的。
3.深度可分离卷积
就是让groups等于input_channels.
相关文章
- 12-20全连接-普通卷积-深度可分离卷积-分组卷积-计算量和参数量
- 12-20「深度学习一遍过」必修14:基于pytorch研究深度可分离卷积与正常卷积的性能差异
- 12-20【论文阅读】《深度卷积网络下的驾驶检测与分类》
- 12-20[人工智能-深度学习-20]:卷积神经网络CNN - 全连接网络的缺点与CNN的使命
- 12-20普通卷积,分组卷积,深度可分离卷积
- 12-20[人工智能-深度学习-29]:卷积神经网络CNN - 全连接网络与卷积网络结构的互为等效与性能比较
- 12-20[Pytorch系列-41]:卷积神经网络 - 模型参数的恢复/加载 - 搭建LeNet-5网络与MNIST数据集手写数字识别
- 12-20深度可分离卷积
- 12-20深度学习原理与框架-Tensorflow卷积神经网络-cifar10图片分类(代码) 1.tf.nn.lrn(局部响应归一化操作) 2.random.sample(在列表中随机选值) 3.tf.o
- 12-20深度卷积神经网络(AlexNet)--Pytorch实现