torch.autograd 包提供Tensor所有操作的自动求导方法。
数据结构介绍
autograd.Variable 这是这个包中最核心的类。 它包装了一个Tensor,并且几乎支持所有的定义在其上的操作。一旦完成了你的运算,你可以调用 .backward()来自动计算出所有的梯度,Variable有三个属性:
访问原始的tensor使用属性.data;
关于这一Variable的梯度则集中于 .grad;
.creator反映了创建者,标识了是否由用户使用.Variable直接创建(None)。
import torch
from torch.autograd import Variable '''求导数''' x = Variable(torch.ones(2,2),requires_grad=True)
y = x + 2
print(x.creator) # None,用户直接创建没有creater属性
print(y.creator) # <torch.autograd._functions.basic_ops.AddConstant object at 0x7fb9b4d4b208>
返回:
None
<torch.autograd._functions.basic_ops.AddConstant object at 0x7fb9b4d4b208>
求导运算
如果你想要进行求导计算,你可以在Variable上调用.backward()。
-
如果Variable是一个标量(例如它包含一个单元素数据),你无需对backward()指定任何参数
z = y*y*3
out = z.mean() out.backward() print(x,y,z)
print(x.grad) # 输出对out对x求倒结果
print(y.grad) # y不是自动求导变量Variable containing:
1 1
1 1
[torch.FloatTensor of size 2x2]
Variable containing:
3 3
3 3
[torch.FloatTensor of size 2x2]
Variable containing:
27 27
27 27
[torch.FloatTensor of size 2x2] Variable containing:
4.5000 4.5000
4.5000 4.5000
[torch.FloatTensor of size 2x2] None最终得出的结果应该是一个全是4.5的矩阵。设置输出的变量为o。我们通过这一公式来计算:
,,,因此,,最后有
-
如果它有更多的元素(矢量),你需要指定一个和tensor的形状匹配的grad_output参数(y在指定方向投影对x的导数)
x = torch.randn(3)
x = Variable(x, requires_grad = True)
y = x * 2
while y.data.norm() < 1000:
y = y * 2
gradients = torch.FloatTensor([0.1, 1.0, 0.0001])
y.backward(gradients)
x.gradVariable containing:
-0.8143
-1.5852
-0.8598
[torch.FloatTensor of size 3] Variable containing:
-1.6286
-3.1704
-1.7195
[torch.FloatTensor of size 3] 3.9573325720437613
Variable containing:
51.2000
512.0000
0.0512
[torch.FloatTensor of size 3]测试传入向量的意义:
x = torch.randn(3)
x = Variable(x,requires_grad=True)
y = x*2 gradients = torch.FloatTensor([0.5,0.5,1])
y.backward(gradients) # 沿着某方向的梯度
print(x.grad) # Variable containing:
#
#
#
# [torch.FloatTensor of size 3]
x = torch.randn(3)
x = Variable(x,requires_grad=True)
y = x*2 gradients = torch.FloatTensor([1,1,1])
y.backward(gradients) # 沿着某方向的梯度
print(x.grad) # Variable containing:
#
#
#
# [torch.FloatTensor of size 3]