神经网络学习小记录1——Pytorch当中Tensorboard的使用

神经网络学习小记录1——Pytorch当中Tensorboard的使用

参考:https://blog.csdn.net/weixin_44791964/article/details/106701052

b站视频:https://www.bilibili.com/video/BV1ha4y1Y7zv

学习前言

因为导发话,所以要干起来了!

所需库的安装

tensorboardX==2.0
tensorflow==1.13.2

由于tensorboard原本是在tensorflow里面用的,所以需要装一个tensorflow。会自带一个tensorboard。

也可以不装tensorboardX,直接使用pytorch当中的自带的Tensorboard。
导入方式如下:

from torch.utils.tensorboard import SummaryWriter

常用函数功能

1、SummaryWriter()

这个函数用于创建一个tensorboard文件,其中常用参数有:

  • log_dir:tensorboard文件的存放路径
  • flush_secs:表示写入tensorboard文件的时间间隔

调用方式如下:

writer = SummaryWriter(log_dir='logs',flush_secs=60)

2、writer.add_graph()

这个函数用于在tensorboard中创建Graphs,Graphs中存放了网络结构,其中常用参数有:

  • model:pytorch模型
  • input_to_model:pytorch模型的输入

如下所示为graphs:

神经网络学习小记录1——Pytorch当中Tensorboard的使用

调用方式如下:

if Cuda:
    graph_inputs = torch.from_numpy(np.random.rand(1,3,input_shape[0],input_shape[1])).type(torch.FloatTensor).cuda()
else:
    graph_inputs = torch.from_numpy(np.random.rand(1,3,input_shape[0],input_shape[1])).type(torch.FloatTensor)
writer.add_graph(model, (graph_inputs,))

3、writer.add_scalar()

这个函数用于在tensorboard中加入loss,其中常用参数有:

  • tag:标签,如下图所示的Train_loss
  • scalar_value:标签的值
  • global_step:标签的x轴坐标神经网络学习小记录1——Pytorch当中Tensorboard的使用

调用方式如下:

writer.add_scalar('Train_loss', loss, (epoch*epoch_size + iteration))

4、tensorboard --logdir=

在完成tensorboard文件的生成后,可在命令行调用该文件,tensorboard网址。
具体代码如下:

tensorboard --logdir=D:\Study\Collection\Tensorboard-pytorch\logs

神经网络学习小记录1——Pytorch当中Tensorboard的使用

完整代码:

效果如下:

上一篇:java利用注解写个简单的测试框架


下一篇:SpringBoot中自定义拦截器 (Token校验与放行、反馈前端)