【深度学习笔记(34、35)】

课程34

主要是建模可视化工具的安装与使用

【深度学习笔记(34、35)】

【深度学习笔记(34、35)】【深度学习笔记(34、35)】

【深度学习笔记(34、35)】

【深度学习笔记(34、35)】

 tensorboard的基本使用都是基于SummaryWriter这个类来实现的

【深度学习笔记(34、35)】

 这段代码是查看数据保存在哪个文件夹下了

【深度学习笔记(34、35)】

 【深度学习笔记(34、35)】

 mul是展示记录的折线图(或者是其他的)的名称

不太懂这个东西是干嘛的,好像就是把网络中一些参数储存在本地,然后云端通过访问数据,然后把数据显示在web上面,做到实时查看自己的模型结构的功能,在一些大数据、深层次网络里应用的可能比较多吧,以后用到再作记录。

课程35

线性回归建模实验

【深度学习笔记(34、35)】【深度学习笔记(34、35)】【深度学习笔记(34、35)】

 【深度学习笔记(34、35)】

 【深度学习笔记(34、35)】

 【深度学习笔记(34、35)】

【深度学习笔记(34、35)】

.data就是抛去可微特性,只剩下那些数字就行计算

【深度学习笔记(34、35)】

【深度学习笔记(34、35)】

 【深度学习笔记(34、35)】

 上面的操作w=w*2之后w虽然可以进行反向传播,但是叶节点已经丢失,会失去计算图,丧失构建网络意义

修改w(叶节点)的方法:

【深度学习笔记(34、35)】

 用with这个结构,可以修改值,但是不改变传播图

【深度学习笔记(34、35)】

【深度学习笔记(34、35)】

 上面的这种方法就是w.detach_就是将新生成的值覆盖给w,此时的w不是一个可微的张量,现在就可以对w进行数值的修改,然后修改完成后再将w变成可微的张量就行了

【深度学习笔记(34、35)】

 .data就是抛去可微特性,只剩下那些数字就行计算,跟上面的原理相同

【深度学习笔记(34、35)】

【深度学习笔记(34、35)】

 【深度学习笔记(34、35)】

【深度学习笔记(34、35)】

 线性回归的快速实现:

【深度学习笔记(34、35)】

【深度学习笔记(34、35)】

 这里输入为2,不是下面的3,是因为本来这个函数里面就包含了截距项,所以就是2

【深度学习笔记(34、35)】

 【深度学习笔记(34、35)】

 【深度学习笔记(34、35)】

【深度学习笔记(34、35)】 【深度学习笔记(34、35)】

 【深度学习笔记(34、35)】

【深度学习笔记(34、35)】

 

 

 

上一篇:2-5 修理牧场 (35 分)


下一篇:如果到了35岁,你恐慌了,那你真的该反思自己了···