神经网络学习小记录1——Pytorch当中Tensorboard的使用
参考:https://blog.csdn.net/weixin_44791964/article/details/106701052
b站视频:https://www.bilibili.com/video/BV1ha4y1Y7zv
学习前言
因为导发话,所以要干起来了!
所需库的安装
tensorboardX==2.0
tensorflow==1.13.2
由于tensorboard原本是在tensorflow里面用的,所以需要装一个tensorflow。会自带一个tensorboard。
也可以不装tensorboardX,直接使用pytorch当中的自带的Tensorboard。
导入方式如下:
from torch.utils.tensorboard import SummaryWriter
常用函数功能
1、SummaryWriter()
这个函数用于创建一个tensorboard文件,其中常用参数有:
- log_dir:tensorboard文件的存放路径
- flush_secs:表示写入tensorboard文件的时间间隔
调用方式如下:
writer = SummaryWriter(log_dir='logs',flush_secs=60)
2、writer.add_graph()
这个函数用于在tensorboard中创建Graphs,Graphs中存放了网络结构,其中常用参数有:
- model:pytorch模型
- input_to_model:pytorch模型的输入
如下所示为graphs:
调用方式如下:
if Cuda:
graph_inputs = torch.from_numpy(np.random.rand(1,3,input_shape[0],input_shape[1])).type(torch.FloatTensor).cuda()
else:
graph_inputs = torch.from_numpy(np.random.rand(1,3,input_shape[0],input_shape[1])).type(torch.FloatTensor)
writer.add_graph(model, (graph_inputs,))
3、writer.add_scalar()
这个函数用于在tensorboard中加入loss,其中常用参数有:
- tag:标签,如下图所示的Train_loss
- scalar_value:标签的值
- global_step:标签的x轴坐标
调用方式如下:
writer.add_scalar('Train_loss', loss, (epoch*epoch_size + iteration))
4、tensorboard --logdir=
在完成tensorboard文件的生成后,可在命令行调用该文件,tensorboard网址。
具体代码如下:
tensorboard --logdir=D:\Study\Collection\Tensorboard-pytorch\logs
完整代码:
效果如下: