如果是卷积之后的层
一定要先化为一个维度
exp:
x = x.view(x.size(),-1)
ps:
view函数的解释
把原先tensor中的数据按照行优先的顺序排成一个一维的数据(这里应该是因为要求地址是连续存储的),然后按照参数组合成其他维度的tensor。比如说是不管你原先的数据是[[[1,2,3],[4,5,6]]]还是[1,2,3,4,5,6],因为它们排成一维向量都是6个元素,所以只要view后面的参数一致,得到的结果都是一样的。比如
a=torch.Tensor([[[1,2,3],[4,5,6]]])
b=torch.Tensor([1,2,3,4,5,6])
print(a.view(1,6))
print(b.view(1,6))
得到的结果都是tensor([[1., 2., 3., 4., 5., 6.]])
等于是将不同维度的数据化为一个维度,因为全连接层是只能接受一维度的数据的
由图可见全连接层必须是一维数据:
同时全连接下一层的输入必须上一层的输出
exp:
self.fc1 = nn.Linear(64*12*4, 256)
self.fc2 = nn.Linear(256, 128)
self.fc3 = nn.Linear(128, 64)