PyTorch全连接层

nn.Linear

PyTorch全连接层

relu?

PyTorch全连接层 

concisely

  • inherit from nn.Module
  • init layer in __init__
  • implement forward()

step 1

PyTorch全连接层 

step 2

PyTorch全连接层 

step 3

PyTorch全连接层 

nn.ReLU v.s. F.relu()

  • class-style API
    • 因此需要先实例化
  • function-style API
    • 因此可以直接传参

PyTorch全连接层 

Train

PyTorch全连接层

上一篇:卷积神经网络相关推导


下一篇:9 激活函数简单原理及使用