TensorFlow2.0快速入门:https://tf.wiki/zh/basic/tools.html
+++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++
TensorFlow:官方文档
TensorFlow:项目地址
本篇列出文章对于全零新手不太合适,可以尝试TensorFlow入门系列博客,搭配其他资料进行学习。
Keras使用tf.Session训练方法教程
一、API介绍
基础操作列表
常用基础操作
流程控制
『PyTorch』第六弹_最小二乘法对比PyTorch和TensorFlow :参数更新机制分析,流程控制初探
神经网络构建
『TensorFlow』网络操作API_上 :卷积层,池化层,激活函数(含dropout和bias_add)
层/网络解析与实现
『教程』CapsNet 架构 & TensorFlow 实现
『TensorFlow』读书笔记_Inception_V3_上
『TensorFlow』读书笔记_Inception_V3_下
『PyTorch × TensorFlow』第十七弹_ResNet快速实现
优化器&梯度操作
.minimize
- compute_gradients
- apply_gradients
『TensorFlow』网络操作API_下 :优化器相关接口
『TensorFlow』梯度优化相关 :梯度操作
集合操作与正则化实现
『TensorFlow』使用集合collection控制variables
#集合转换为字典,{节点名:输出张量值}
end_points = slim.utils.convert_collection_to_dict(end_points_collection) # 收集 & 获取 变量
tf.add_to_collection("loss",mse_loss)
tf.add_n(tf.get_collection("loss"))
损失函数
『TensorFlow』网络操作API_中 :损失函数以及分类器
模型载入
命令行解析
线程操作&数据读取
Dataset API读取数据
『TensorFlow』数据读取类_data.Dataset
传统数据读取方法
『TensorFlow』TFR数据预处理探究以及框架搭建 :基于queue处理TFR数据
线程控制器原理:
监视tensorflow所有后台线程,有异常出现(主要是越界,资源循环完了)时,其should_stop方法就会返回True,而它的request_stop方法则用于要求各个线程安全退出。需要使用local变量,初始化时注意。
常规图片数据读取方式:
img_bytes = tf.read_file(FLAGS.style_image)
image = tf.image.decode_png(img_bytes)
涉及队列操作时报错可能解决办法
OutOfRangeError (see above for traceback): FIFOQueue '_1_input_producer' is closed and has insufficient elements (requested 1, current size 0) [[Node: ReaderReadV2 = ReaderReadV2[_device="/job:localhost/replica:0/task:0/cpu:0"](WholeFileReaderV2, input_producer)]]
因为局部变量(local variables)没有初始化,将初始化变量语句改为
全局变量初始化:tf.global_variables_initializer().run()
局部变量初始化:tf.local_variables_initializer().run()
不再报错。局部变量很少,一般都是系统自己创建的变量,如记录训练进度的epoch。
可视化相关
ctrl + 鼠标滑轮 可以放大&缩小tensorboard中所有的页面
命名空间设置好:添加记录节点 -> 汇总记录节点 -> run汇总节点 -> [书写器生成]书写入文件 [-> 刷新缓冲区]
# 书写器生成,会自动记录指定图
tf.summary.FileWriter('./', sess.graph)
# 张量记录
tf.summary.histogram(layer_name+'/weights',Weights)
# 标量记录
tf.summary.scalar = ('loss',cross_entropy)
# 记录激活
merged = tf.summary.merge_all()
# 书写器生成
train_writer = tf.summary.FileWriter('logs/train',sess.graph)
# run记录
train_result = sess.run(merged, feed_dict={xs: X_train, ys: y_train, keep_prob:1})
# 书写记录
train_writer.add_summary(train_result,i)
# 刷新缓冲区,立即写入文件
train_writer.flush()
slim模块
二、TensorFlow的tips
节点和张量
节点张量铺设好了之后,只要不加sess.run(),可以运行脚本检查张量节点是否匹配,无需传入实际数据流。
'conv1'指节点,'conv1:0'指节点输出的第一个张量。
sess上下文环境中的函数调用即使不传入sess句柄,函数体内也存在于默认的sess环境中,可以直接sess.run()。
image_holder = tf.placeholder(tf.float32,[None, None, None, 3]),使用None回避指定大小。
sess实际运行单机模式时,会提取目标节点的所有前置依赖构建成子图,然后按照设备划分成多个局部图,局部图根据依赖先后关系对节点进行加载
设备指定使用tf.device('/cpu:0')上下文操作,且支持嵌套,逻辑于slim的scope一致
查看信息版本安装路径
import tensorflow as tf
tf.__version__ # 版本
tf.__path_ # 路径
# __看着是一个下划线,实际上是两个下划线
通常张量的Feed
TensorFlow中所有张量而不仅是占位符都是可以feed的,如果有feed,其优先级大于图中的计算流程。