用pytorch1.0搭建简单的神经网络
import torch
import torch.nn.functional as F # 包含激励函数 # 建立神经网络
# 先定义所有的层属性(__init__()), 然后再一层层搭建(forward(x))层于层的关系链接
class Net(torch.nn.Module): # 继承 torch 的 Module
def __init__(self, n_feature, n_hidden, n_output):
super(Net, self).__init__() # 继承 __init__ 功能
# 定义每层用什么样的形式
self.hidden = torch.nn.Linear(n_feature, n_hidden) # hidden layer # 隐藏层线性输出
self.predict = torch.nn.Linear(n_hidden, n_output) # output layer # 输出层线性输出 ==== 定义层数 def forward(self, x): # 这同时也是 Module 中的 forward 功能
# 正向传播输入值, 神经网络分析出输出值
x = F.relu(self.hidden(x)) # activation function for hidden layer # 激励函数(隐藏层的线性值)
x = self.predict(x) # linear output # 输出值
return x net1 = Net(1, 10, 1) # easy and fast way to build your network
net2 = torch.nn.Sequential(
torch.nn.Linear(1, 10), # 第一层
torch.nn.ReLU(), # 激活层
torch.nn.Linear(10, 1) # 输出层
) print(net1) # net1 architecture == 显示神经网络结构
"""
Net (
(hidden): Linear (1 -> 10)
(predict): Linear (10 -> 1)
)
"""
print(net2) # net2 architecture
"""
Sequential (
(0): Linear (1 -> 10)
(1): ReLU ()
(2): Linear (10 -> 1)
)
"""
net2多显示了一些内容, 这是为什么呢? 原来它把激励函数也一同纳入进去了,但是net1中, 激励函数实际上是在forward()功能中才被调用的。这也就说明了:
net1相比net2的好处就是, 你可以根据你的个人需要更加个性化你自己的前向传播过程, 比如(RNN).