生成器,判别器
G:生成网络生成的都为假的
D:判别网络判别真实数据与来自生成网络的假数据
判别网络其实就是进行一个图像二分类
生成网络需要fc层输出个数为h*w*c(c=1or3 即为一张图片的形式)
损失函数
第一输入参数预测值,第二个参数标签值
BCEloss:需要将预测值映射到0~1之间,将所有预测结果传入sigmoid中,标签只有0和1
计算公式如下
import torch.nn as nn
loss=nn.BCELoss()#需要进行映射才能传入
loss=nn.BCEWithLogitsLoss()#无需映射直接传入
Variable 计算时, 它在背景幕布后面一步步默默地搭建着一个庞大的系统, 叫做计算图, computational graph. 这个图是用来干嘛的? 原来是将所有的计算步骤 (节点) 都连接起来, 最后进行误差反向传递的时候, 一次性将所有 variable 里面的修改幅度 (梯度) 都计算出来, 而 tensor 就没有这个能力啦.(转自CSDN博主「_APTX4869」的原创文章)
#生成标签
valid=Variable(Tensor(imgs.size(0),1).fill(1.0),requires_grad=False)
fake=Variable(Tensor(imgs.size(0),1).fill(0.0),requires_grad=False)
#生成器生成数据
z=Variable(Tensor(np.random(0,1,(img_shape[0],opt.lattent))))
#生成器loss,是否骗过判别器
g_loss=adversarial_loss(discriminator(gen_imgs),valid)
g_loss.backward()
#对抗网络梯度清零
optimizer_D.zero_grad()
#rloss
r_loss=adversarial_loss(discriminator(real_imgs),valid)
#feakloss
feak_loss=adversarial_loss(discriminator(gen_imgs.detach()),feak)
d_loss=(r_loss+feak_loss)/2
d_loss.backward()
optimizer_D.step()