AlexNet白板复现

1.网络结构
AlexNet白板复现
2.一些新知学习
AlexNet白板复现
3.遇到的问题
(1)class AlexNet(nn.Module):中,Module的M要大写;
(2)第一个全连接层nn.Linear(256*5*5, 4096)中,经计算应该是66,但是运行代码的过程中,发现55才是正确的?????
(3)训练过程中的参数更新:

optimizer.zero_grad() # 将梯度归零
l.backward() # 反向传播计算得到每个参数的梯度值
optimizer.step() # 通过梯度下降执行一步参数更新

(4)在torch.utils.data.DataLoader中,参数num_workers若为0,则代表不用额外的进程来加速读取数据。

上一篇:PyTorch可视化动态调整学习率lr_scheduler


下一篇:pytorch线性回归函数解惑