pytorch中的torch.autograd.backward()和torch.autograd.grad()

参考

一文读懂torch.autograd.backward()作用及原理

torch.autograd学习系列之torch.autograd.grad()函数学习

 

主要是对这两个函数中的参数grad_tensors或grad_outputs不理解。其实就是雅克比矢量积的系数,有了这个系数就能将矢量梯度转变为一个标量。

这个系数一般设置为1,意思是直接把矢量梯度求和。

pytorch中的torch.autograd.backward()和torch.autograd.grad()

pytorch中的torch.autograd.backward()和torch.autograd.grad()

pytorch中的torch.autograd.backward()和torch.autograd.grad()

 

 

 

 

 

上一篇:Pytorch深度学习(二)-手动实现线性回归


下一篇:这可能是关于Pytorch底层算子扩展最详细的总结了!