22.详解过拟合代码

'''
Description: overfitting-review
Autor: 365JHWZGo
Date: 2021-11-15 18:41:20
LastEditors: 365JHWZGo
LastEditTime: 2021-11-15 19:59:11
'''
# 导包
import torch
import matplotlib.pyplot as plt

# hyper parameters
LR = 0.01           #Adam学习效率
N_HIDDENS = 300     #隐藏神经元的个数
N_POINTS = 20       #数据点的个数

# create some data for training
#创造一个从[-10,10]的十个均等的间隔,并给他们新加一个列维度
x = torch.unsqueeze(torch.linspace(-10, 10, N_POINTS), dim=1)
# torch.zeros(row,column)
# torch.normal(means【均值】,std【标准值】)
#使其于y=x^2较为拟合
#10*torch.normal(torch.zeros(N_POINTS, 1), torch.ones(N_POINTS, 1))每一个值都需要添加一个随机噪点
y = x**2+10*torch.normal(torch.zeros(N_POINTS, 1), torch.ones(N_POINTS, 1))

# create some data for testing
test_x = torch.unsqueeze(torch.linspace(-10, 10, N_POINTS), dim=1)
# torch.zeros(row,column)
# torch.normal(means【均值】,std【标准值】)
test_y = test_x**2+10 * \
    torch.normal(torch.zeros(N_POINTS, 1), torch.ones(N_POINTS, 1))

#画点
plt.scatter(x, y, c='r', lw=3, alpha=0.2, label='train data')
plt.scatter(test_x, test_y, c='b', lw=3, alpha=0.2, label='test data')
#展示画布
plt.show()

# create network
# overfitting
net_ofit = torch.nn.Sequential(
    #输入一个点的纵坐标,经过N_HIDDENS个神经元
    torch.nn.Linear(1, N_HIDDENS),
    #激活函数
    torch.nn.ReLU(),
    torch.nn.Linear(N_HIDDENS, N_HIDDENS),
    torch.nn.ReLU(),
    torch.nn.Linear(N_HIDDENS, 1)
)

# dropout
net_dout = torch.nn.Sequential(
    torch.nn.Linear(1, N_HIDDENS),
    #将神经元的个数随机丢掉50%
    torch.nn.Dropout(0.5),
    torch.nn.ReLU(),
    torch.nn.Linear(N_HIDDENS, N_HIDDENS),
    torch.nn.Dropout(0.5),
    torch.nn.ReLU(),
    torch.nn.Linear(N_HIDDENS, 1)
)

#创造优化器
opt_ofit = torch.optim.Adam(net_ofit.parameters(), lr=LR)
opt_dout = torch.optim.Adam(net_dout.parameters(), lr=LR)
#创建损失函数
loss_func = torch.nn.MSELoss()
#进入互动模式
plt.ion()

# training
if __name__ == '__main__':
    for i in range(1000):
        pred_ofit = net_ofit(x)
        pred_dout = net_dout(x)

        loss_ofit = loss_func(pred_ofit, y)
        loss_dout = loss_func(pred_dout, y)

        #优化
        opt_ofit.zero_grad()    #梯度清零
        opt_dout.zero_grad()
        loss_ofit.backward()    #回滚
        loss_dout.backward()
        opt_ofit.step()         #更新梯度参数
        opt_dout.step()

        if i % 50 == 0:
            #使其进入预测模式,此时不需要将神经元随机丢掉50%,因为神经网络已经训练过了,只需要使用就可以
            net_ofit.eval()
            net_dout.eval()

            test_pred_ofit = net_ofit(test_x)
            test_pred_dout = net_dout(test_x)

            plt.cla()
            plt.scatter(x.data.numpy(), y.data.numpy(), c='r', lw=3, alpha=0.2, label='train data')
            plt.scatter(test_x.data.numpy(), test_y.data.numpy(), c='b', lw=3, alpha=0.2, label='test data')
            plt.plot(test_x.data.numpy(),test_pred_ofit.data.numpy(),'r-',lw=3,label='overfitting line')
            plt.plot(test_x.data.numpy(),test_pred_dout.data.numpy(),'b--',lw=3,label='dropout line')
            plt.legend(loc='best')
            plt.ylim((-20,120))
            plt.text(-5,50,'overfitting_loss=%.2f'%loss_func(test_pred_ofit,test_y).data.numpy(),fontdict={'color':'orange','size':13})
            plt.text(-5,55,'dropout_loss=%.2f'%loss_func(test_pred_dout,test_y).data.numpy(),fontdict={'color':'pink','size':13})
            plt.pause(0.1)

            #进入训练模式
            net_ofit.train()
            net_dout.train()
    #停止互动模式
    plt.ioff()
    #展示图画
    plt.show()

22.详解过拟合代码

过拟合

简介

当数据量一定时,机器为了将误差减到最小,从而使得模型不再符合实际中的真实样子,这种现象叫做过拟合

22.详解过拟合代码

蓝线:我们希望计算机学习到的模型

红线:计算机为了减小误差学习到的模型

出现原因

  1. 数据量过于少
  2. 神经网络过于复杂

解决方法

  1. 增加数据量

  2. 运用正规化

    Y=Wx (W:机器学习的各种参数)

    1. l1正规化

      22.详解过拟合代码

    2. l2正规化
      22.详解过拟合代码

    3. Dropout[专门用于神经网络]

      在训练过程中随机忽略一些神经元,让神经网络变得不完整,使得每一次预测结果都不会太依赖其中的某些值

总结

在这个例子中,首先是先创造出一些数据,使其较拟合一个曲线函数,然后通过神经网络学习,没有使用dropout的神经网络虽然它能很好的拟合train data 但是对于test data的曲线拟合确显得误差很大,不能拟合更多的点,而随机dropout50%的神经元之后,使得神经网络的对于某些点的依赖减少,从而获得了很好的贴合度,总之,凡事都有个度,可不要贪杯呀!

上一篇:POJ 3122 Pie 二分答案


下一篇:用JavaSwing实现五子棋小游戏