视频链接:《PyTorch深度学习实践》完结合集_哔哩哔哩_bilibili
本次我们使用的数据集是糖尿病Diabetes dataset,是一个二分类问题。
矩阵是一个空间变换函数
Diabetes dataset的数据集的x的特征数为8,因此我们要做的是8D->1D的非线性转换
下图是我们模型设计思路:
所以我们这里其实是一个神经网络模型,如下图所示:
数据集展示:(数据集链接在最下面)
代码展示:
import torch
import numpy as np
import matplotlib.pyplot as plt
# 准备数据集
x_y = np.loadtxt('../dataset/diabetes.csv.gz', delimiter=',', dtype=np.float32) # 这时候的x和y是在一起的
# print(type(x_y)) # <class 'numpy.ndarray'>
# 将numpy数据类型转换为Tensor,并获取x,y
x_data = torch.from_numpy(x_y[:, :-1]) # 里面的操作是切片,取所有行的从第一列到倒数第二列的数据
y_data = torch.from_numpy(x_y[:, -1]) # 取所有行的最后一列的数据
# y_data = torch.from_numpy(x_y[:, [-1]]) 写成这样那就是二维的了,后面的预测结果就不用更改,两种方法都可
print(y_data.shape[0]) # torch.Size([759]) 注意后面预测的结果y_pred的维数应与它一样
# print(type(x_data)) # <class 'torch.Tensor'>
# 实现模型类
class Model(torch.nn.Module):
def __init__(self):
super(Model, self).__init__()
# 这里看我画的神经网络图
self.linear1 = torch.nn.Linear(8, 6)
self.linear2 = torch.nn.Linear(6, 4)
self.linear3 = torch.nn.Linear(4, 1)
self.sigmoid = torch.nn.Sigmoid() # 和之前的torch.nn.functional没啥差别
def forward(self, x):
# 看我画的图
x = self.sigmoid(self.linear1(x))
x = self.sigmoid(self.linear2(x))
x = self.sigmoid(self.linear3(x))
return x
model = Model()
# 损失函数和优化器
criterion = torch.nn.BCELoss(size_average=True)
optimizer = torch.optim.SGD(model.parameters(), lr=0.01)
# 训练周期
loss_list = []
iters = 1000
for epoch in range(iters):
# 正向
y_pred = model(x_data)
# print(y_pred.shape) # torch.Size([759, 1])
# 修改y_pred的维数
y_pred = y_pred.view(y_pred.shape[0])
# print(y_pred.shape)
loss = criterion(y_pred, y_data)
loss_list.append(loss.item())
# 反向
optimizer.zero_grad()
loss.backward()
# 更新
optimizer.step()
print(f'epoch={epoch},loss={loss.item()}') # 取loss里面的值,因为loss是一个张量
# 画图
plt.plot(np.arange(iters), loss_list)
plt.xlabel('epoch')
plt.ylabel('loss')
plt.show()
结果如下:
epoch=0,loss=0.7861595749855042
epoch=1,loss=0.784835696220398
epoch=2,loss=0.7835241556167603
epoch=3,loss=0.7822247743606567
epoch=4,loss=0.7809374332427979
epoch=5,loss=0.779662013053894
epoch=6,loss=0.7783984541893005
epoch=7,loss=0.7771466374397278
.......
epoch=994,loss=0.644619882106781
epoch=995,loss=0.6446196436882019
epoch=996,loss=0.6446192860603333
epoch=997,loss=0.6446189284324646
epoch=998,loss=0.6446186900138855
epoch=999,loss=0.6446183323860168
老师也提到看看激活函数改为Relu时的效果,那只要修改实现模型类那部分的代码即可,其他部分代码与上面相同,如下:
# 实现模型类
class Model(torch.nn.Module):
def __init__(self):
super(Model, self).__init__()
# 这里看我画的神经网络图
self.linear1 = torch.nn.Linear(8, 6)
self.linear2 = torch.nn.Linear(6, 4)
self.linear3 = torch.nn.Linear(4, 1)
self.active = torch.nn.ReLU() # 和之前的torch.nn.functional没啥差别
def forward(self, x):
# 看我画的图
x = self.active(self.linear1(x))
x = self.active(self.linear2(x))
x = F.sigmoid(self.linear3(x))
return x
结果如下:
数据集链接:https://pan.baidu.com/s/14Gotj40NxzC1dM1reAfMlw
提取码:pig1