#引入torch
import torch
#准备数据,用Tensor张量表示
x_data = torch.Tensor([[1.0],[2.0],[3.0]])
y_data = torch.Tensor([[2.0],[4.0],[6.0]])
#将线性模型定义为一个类,nn的意思是神经网络neural network.所有的模型都要从nn.Module模块继承下来。
class LinearModel(torch.nn.Module):
#__init__为构造函数,初始化你的对象的时候,默认调用的函数。self是指对象自己,
def __init__(self):
#super调用父类初始化器,当多继承时,避免公共基类的重复调用
super(LinearModel,self).__init__()
#实例化,构造一个线性函数(包含权重w和偏置b)。括号里面代表输入的维度,和输出的维度。
self.linear = torch.nn.Linear(1,1)
#定义前馈过程中要进行的计算
def forward(self,x):
#可调用的对象,做的是wx+b的形式
y_pred = self.linear(x)
#返回y
return y_pred
#实例化模型,可调用。
model = LinearModel()
#构造均方差损失,设置降维求和
criterion = torch.nn.MSELoss(reduction='sum')
#用优化模块中的SGD优化模型中所有的参数,学习率为0.01
optimizer = torch.optim.SGD(model.parameters(),lr=0.01)
#循环100次枣庄做人流多少钱 http://mobile.0632dffk.com/
for epoch in range(100):
#计算y的预测值
y_pred = model(x_data)
#计算损失
loss = criterion(y_pred,y_data)
#输出循环次数和损失
print(epoch,loss)
#用优化器将梯度归零
optimizer.zero_grad()
#反向传播
loss.backward()
#step更新权重
optimizer.step()
#输出权重w,item是转换为标量,只显示数值
print('w = ',model.linear.weight.item())
#输出偏置b,item是转换为标量,只显示数值
print('b = ',model.linear.bias.item())
#设测试x的值为4,是1×1的矩阵
x_test = torch.Tensor([[4]])
#将x=4代入模型中,求y
y_test = model(x_test)
#输出y。y是1×1的矩阵后面要跟data,输出y的数值
print('y_pred = ',y_test.data)