原因: loss = loss1 + loss2, 而loss这个tensor默认的requires_grad是False,因此执行loss.backward()时会报标题的错误
解决办法: 将loss这个tensor的requires_grad属性设为True
loss.requires_grad_(True)
2024-02-20 14:02:16
原因: loss = loss1 + loss2, 而loss这个tensor默认的requires_grad是False,因此执行loss.backward()时会报标题的错误
解决办法: 将loss这个tensor的requires_grad属性设为True
loss.requires_grad_(True)