PyTorch深度学习实践 第七讲 处理多维特征的输入

视频链接:《PyTorch深度学习实践》完结合集_哔哩哔哩_bilibili

本次我们使用的数据集是糖尿病Diabetes dataset,是一个二分类问题。

矩阵是一个空间变换函数

Diabetes dataset的数据集的x的特征数为8,因此我们要做的是8D->1D的非线性转换

下图是我们模型设计思路:

PyTorch深度学习实践 第七讲 处理多维特征的输入

所以我们这里其实是一个神经网络模型,如下图所示:

PyTorch深度学习实践 第七讲 处理多维特征的输入

 数据集展示:(数据集链接在最下面)PyTorch深度学习实践 第七讲 处理多维特征的输入

代码展示:

import torch
import numpy as np
import matplotlib.pyplot as plt

# 准备数据集
x_y = np.loadtxt('../dataset/diabetes.csv.gz', delimiter=',', dtype=np.float32)  # 这时候的x和y是在一起的
# print(type(x_y))  # <class 'numpy.ndarray'>
# 将numpy数据类型转换为Tensor,并获取x,y
x_data = torch.from_numpy(x_y[:, :-1])  # 里面的操作是切片,取所有行的从第一列到倒数第二列的数据
y_data = torch.from_numpy(x_y[:, -1])  # 取所有行的最后一列的数据
# y_data = torch.from_numpy(x_y[:, [-1]]) 写成这样那就是二维的了,后面的预测结果就不用更改,两种方法都可
print(y_data.shape[0])  # torch.Size([759])  注意后面预测的结果y_pred的维数应与它一样
# print(type(x_data))  # <class 'torch.Tensor'>


# 实现模型类
class Model(torch.nn.Module):
    def __init__(self):
        super(Model, self).__init__()
        # 这里看我画的神经网络图
        self.linear1 = torch.nn.Linear(8, 6)
        self.linear2 = torch.nn.Linear(6, 4)
        self.linear3 = torch.nn.Linear(4, 1)
        self.sigmoid = torch.nn.Sigmoid()  # 和之前的torch.nn.functional没啥差别

    def forward(self, x):
        # 看我画的图
        x = self.sigmoid(self.linear1(x))
        x = self.sigmoid(self.linear2(x))
        x = self.sigmoid(self.linear3(x))
        return x


model = Model()

# 损失函数和优化器
criterion = torch.nn.BCELoss(size_average=True)
optimizer = torch.optim.SGD(model.parameters(), lr=0.01)

# 训练周期
loss_list = []
iters = 1000
for epoch in range(iters):
    # 正向
    y_pred = model(x_data)
    # print(y_pred.shape)  # torch.Size([759, 1])
    # 修改y_pred的维数
    y_pred = y_pred.view(y_pred.shape[0])
    # print(y_pred.shape)
    loss = criterion(y_pred, y_data)
    loss_list.append(loss.item())
    # 反向
    optimizer.zero_grad()
    loss.backward()
    # 更新
    optimizer.step()
    print(f'epoch={epoch},loss={loss.item()}')  # 取loss里面的值,因为loss是一个张量

# 画图
plt.plot(np.arange(iters), loss_list)
plt.xlabel('epoch')
plt.ylabel('loss')
plt.show()

结果如下:

epoch=0,loss=0.7861595749855042
epoch=1,loss=0.784835696220398
epoch=2,loss=0.7835241556167603
epoch=3,loss=0.7822247743606567
epoch=4,loss=0.7809374332427979
epoch=5,loss=0.779662013053894
epoch=6,loss=0.7783984541893005
epoch=7,loss=0.7771466374397278

.......

epoch=994,loss=0.644619882106781
epoch=995,loss=0.6446196436882019
epoch=996,loss=0.6446192860603333
epoch=997,loss=0.6446189284324646
epoch=998,loss=0.6446186900138855
epoch=999,loss=0.6446183323860168

PyTorch深度学习实践 第七讲 处理多维特征的输入

 老师也提到看看激活函数改为Relu时的效果,那只要修改实现模型类那部分的代码即可,其他部分代码与上面相同,如下:

# 实现模型类
class Model(torch.nn.Module):
    def __init__(self):
        super(Model, self).__init__()
        # 这里看我画的神经网络图
        self.linear1 = torch.nn.Linear(8, 6)
        self.linear2 = torch.nn.Linear(6, 4)
        self.linear3 = torch.nn.Linear(4, 1)
        self.active = torch.nn.ReLU()  # 和之前的torch.nn.functional没啥差别

    def forward(self, x):
        # 看我画的图
        x = self.active(self.linear1(x))
        x = self.active(self.linear2(x))
        x = F.sigmoid(self.linear3(x))
        return x

结果如下:

PyTorch深度学习实践 第七讲 处理多维特征的输入  

数据集链接:https://pan.baidu.com/s/14Gotj40NxzC1dM1reAfMlw 
提取码:pig1

上一篇:LSTM的简洁实现


下一篇:简单排序输出