MXnet入门之softmax回归的简洁实现

原文:https://zh.d2l.ai/chapter_deep-learning-basics/softmax-regression-gluon.html

 

1.导包

 

使用gluon包来实现

%matplotlib inline
import d2lzh as d2l
from mxnet import gluon, init
from mxnet.gluon import loss as gloss, nn

 

2.读取数据

 

和之前一样

batch_size = 256
train_iter, test_iter = d2l.load_data_fashion_mnist(batch_size)

 

3.定义和初始化模型

 

softmax回归的输出层是一个全连接层。

因此,我们添加一个输出个数为10的全连接层。

使用均值为0、标准差为0.01的正态分布随机初始化模型的权重参数。

net = nn.Sequential()
net.add(nn.Dense(10))
net.initialize(init.Normal(sigma=0.01))

 

4.softmax运算和交叉熵损失函数

 

分开定义softmax运算和交叉熵损失函数可能会造成数值不稳定。

Gluon提供了一个包括softmax运算和交叉

上一篇:权重衰退


下一篇:03 安装【动手学深度学习v2】