参考
一文读懂torch.autograd.backward()作用及原理
torch.autograd学习系列之torch.autograd.grad()函数学习
主要是对这两个函数中的参数grad_tensors或grad_outputs不理解。其实就是雅克比矢量积的系数,有了这个系数就能将矢量梯度转变为一个标量。
这个系数一般设置为1,意思是直接把矢量梯度求和。
2023-12-31 12:54:52
参考
主要是对这两个函数中的参数grad_tensors或grad_outputs不理解。其实就是雅克比矢量积的系数,有了这个系数就能将矢量梯度转变为一个标量。
这个系数一般设置为1,意思是直接把矢量梯度求和。