Pytorch-Lightning训练技巧

Pytorch-Lightning训练技巧

梯度累计

  • Trainer中设置accumulate_grad_batches=k,可以使得模型在进行kbatch_size后再进行反向传播。
  • 假设batch_size=N,这样的效果相当于batch_size=k*N
# 默认没有梯度累计
trainer = Trainer(accumulate_grad_batches=k)

梯度裁剪

上一篇:Day07_38_集合中的remove()方法 与 迭代器中的remove()方法


下一篇:pytorch基本使用