torch.nn.Conv2d() 用法讲解

本文是深度学习框架 pytorch 的API : torch.nn.Conv2d() 函数的用法。本博客介绍了 torch.nn.Conv2d() 各个参数的含义和用法,学会使用 pytorch 创建 卷积神经网络。
参考:官方文档和其它博客

一、用法

  • Conv2d(in_channels, out_channels, kernel_size, stride=1,padding=0, dilation=1, groups=1,bias=True, padding_mode=‘zeros’)

二、参数

  • in_channels:输入的通道数目 【必选】
  • out_channels: 输出的通道数目 【必选】
  • kernel_size:卷积核的大小,类型为int 或者元组,当卷积是方形的时候,只需要一个整数边长即可,卷积不是方形,要输入一个元组表示 高和宽。【必选】
  • stride: 卷积每次滑动的步长为多少,默认是 1 【可选】
  • padding: 设置在所有边界增加 值为 0 的边距的大小(也就是在feature map 外围增加几圈 0 ),例如当 padding =1 的时候,如果原来大小为 3 × 3 ,那么之后的大小为 5 × 5 。即在外围加了一圈 0 。【可选】
  • dilation:控制卷积核之间的间距(什么玩意?请看例子)【可选】

    如果我们设置的dilation=0的话,效果如图:(蓝色为输入,绿色为输出,卷积核为3 × 3)
    torch.nn.Conv2d() 用法讲解
    如果设置的是dilation=1,那么效果如图:(蓝色为输入,绿色为输出,卷积核仍为 3 × 3 。)
    但是这里卷积核点与输入之间距离为1的值相乘来得到输出。
    torch.nn.Conv2d() 用法讲解

  • groups:控制输入和输出之间的连接。(不常用)【可选】

    举例来说:
    比如 groups 为1,那么所有的输入都会连接到所有输出
    当 groups 为 2的时候,相当于将输入分为两组,并排放置两层,每层看到一半的输入通道并产生一半的输出通道,并且两者都是串联在一起的。这也是参数字面的意思:“组” 的含义。
    需要注意的是,in_channels 和 out_channels 必须都可以整除 groups,否则会报错(因为要分成这么多组啊,除不开你让人家程序怎么办?)

  • bias: 是否将一个 学习到的 bias 增加输出中,默认是 True 。【可选】
  • padding_mode : 字符串类型,接收的字符串只有 “zeros” 和 “circular”。【可选】

注意:参数 kernel_size,stride,padding,dilation 都可以是一个整数或者是一个元组,一个值的情况将会同时作用于高和宽 两个维度,两个值的元组情况代表分别作用于 维度。

三、相关形状

假设输入形状为:
(N,Cin,H,W)(N, C_{\text{in}}, H, W)(N,Cin​,H,W)
则输出形状为:
(N,Cout,Hout,Wout)(N, C_{\text{out}}, H_{\text{out}}, W_{\text{out}})(N,Cout​,Hout​,Wout​)
其中 HoutH_{out}Hout​ 为:
Hout=Hin+2×padding[0]dilation[0]×(kernel_size[0]1)1stride[0]+1H_{out} = \left\lfloor\frac{H_{in} + 2 \times \text{padding}[0] - \text{dilation}[0] \times (\text{kernel\_size}[0] - 1) - 1}{\text{stride}[0]} + 1\right\rfloorHout​=⌊stride[0]Hin​+2×padding[0]−dilation[0]×(kernel_size[0]−1)−1​+1⌋
WoutW_{out}Wout​ 为:
Wout=Win+2×padding[1]dilation[1]×(kernel_size[1]1)1stride[1]+1W_{out} = \left\lfloor\frac{W_{in} + 2 \times \text{padding}[1] - \text{dilation}[1] \times (\text{kernel\_size}[1] - 1) - 1}{\text{stride}[1]} + 1\right\rfloorWout​=⌊stride[1]Win​+2×padding[1]−dilation[1]×(kernel_size[1]−1)−1​+1⌋

四、示例

入门学习者请不要过度关注某一些细节,建立一个简单的卷积层使用这个 API 其实很简单,大部分参数保持默认值就好,下面是简单的一个示例,创建一个简单的卷积神经网络:

class CNN(nn.Module):
    def __init__(self,in_channels:int,out_channels:int):
        """
        创建一个卷积神经网络
        网络只有两层
        :param in_channels: 输入通道数量
        :param out_channels: 输出通道数量
        """
        super(CNN).__init__()
        self.conv1=nn.Conv2d(in_channels,10,3,stride=1,padding=1)
        self.pool1=nn.MaxPool2d(kernel_size=2,stride=1)
        self.conv2=nn.Conv2d(10,out_channels,3,stride=1,padding=1)
        self.pool2=nn.MaxPool2d(kernel_size=2,stride=1)
    def forward(self,x):
        """
        前向传播函数
        :param x:  输入,tensor 类型
        :return: 返回结果
        """
        out=self.conv1(x)
        out=self.pool1(out)
        out=self.conv2(out)
        out=self.pool2(out)
        return out
torch.nn.Conv2d() 用法讲解torch.nn.Conv2d() 用法讲解 假装很坏的谦谦君 发布了50 篇原创文章 · 获赞 22 · 访问量 2万+ 私信 关注
上一篇:ZUFE OJ 2289 God Wang II


下一篇:【扩张卷积or空洞卷积】如何理解Dilated Convolutions(空洞卷积)