深度习白——TesorFlw(一)简介

我选择tensorFlow作为我学习的第一个神经网络框架,恰巧最近Tensorflow支持了windows,所以让我的学习变得更加便捷。

一、TensorFlow的运行流程

TensorFlow运行流程分为两步,分别是构造模型训练。

在构造阶段,我们需要去构建一个图(Graph)来描述我们的模型,然后在session中启动它。所谓图,可以理解为流程图,就是将数据的输入输出的过程表示出来

深度习白——TesorFlw(一)简介

但是此时是不会发生实际运算的,因为TensorFlow是【延迟执行(deferred execution)】模型,它必须知道你要计算什么,你的执行图,然后才开始发送计算任务到各种计算机。所以你首先使用TensorFlow函数在内存中创造一个计算图,然后启动一个执行session并且使用session.run执行实际训练任务,如梯度计算等操作,在此时,图无法被改变。


1.1基本概念

1.1.1 Tensor

Tensor的意思就是张量,我的理解就是一个维数不定的矩阵,也可以理解为tensorflow中矩阵的表示形式,tensor的生成方式有很多种,之后再详细总结,举个例子

  1. import tensorflow as tf
  2. a=tf.zeros(shape=[1,2])

注意:在session.run之前,所有数据都是抽象的概念,也就是说,a此时只是表示这应该是一个1*2的零矩阵,但却没有实际赋值,所以如果此时print(a),就会出现如下情况:

  1. print(a)
  2. #==>Tensor("zeros:0", shape=(1, 2), dtype=float32)

只有启动session后,才能得到a的值

  1. sess=tf.Session()
  2. print(sess.run(a))
  3. [[ 0. 0.]]

如果你想要系统地学习人工智能,那么推荐你去看床长人工智能教程。非常棒的大神之作,教程不仅通俗易懂,而且很风趣幽默。点击这里可以查看教程。

1.1.2. Variable
当训练模型的时候,要用变量来存储和更新参数,变量包含张量(Tensor)存放于内存的缓存区,建模时它们需要被明确地初始化,模型训练后它们b必须被存储到磁盘。这些变量的值可在之后模型训练和分析时被加载。
如我要计算 y=ReLU(Wx+b)
那么W,b就是我要用来训练的参数,那么这两个值就可以用Variable来表示,Variable初始函数有很多选项,这里先不提,只输入一个tensor也是可以的

W=tf.Variable(tf.zeros((1,2)))

如果

  1. v=tf.Variable(tf.zeros((1,2)))
  2. sess=tf.Session()
  3. #print(sess.run(v)) #会报错,因为没对变量初始化
  4. sess.run(tf.initialize_all_variables()) #对所有变量初始化
  5. print(sess.run(v))

就会输出[[0. 0.]]


有时,还可以用另一个变量的初始化值给当前变量初始化。由于 tf.initialize_all_variables() 是并行地初始化所有变量,所以在有这种需求的情况下需要小心。


  1. # Create a variable with a random value.
  2. weights = tf.Variable(tf.random_normal([784, 200], stddev=0.35),
  3. name="weights")
  4. # Create another variable with the same value as 'weights'.
  5. w2 = tf.Variable(weights.initialized_value(), name="w2")
  6. # Create another variable with twice the value of 'weights'
  7. w_twice = tf.Variable(weights.initialized_value() * 0.2, name="w_twice")

1.1.3.placeholder 占位符
同样也是一个抽象的概念,用于表示输入输出数据的格式,告诉系统:这里有一个值/向量/矩阵,现在我没发给你具体数值,不过我正式运行的时候会补上,一般都是要从外部输入的值,例如例子中的x和y,因为没有具体数值,只要指定尺寸就可以


  1. x=tf.placeholder(tf.float32,[1,5],name='input')
  2. y=tf.placeholder(tf.float32,[None,5],name='input')


y表示一个输入为【?,5】的矩阵,None就代表输入的批数,当需要输入一批为5个时,那么就是【5,5】的矩阵,tensorflow会自动进行批处理。

注意:设计placeholder节点的唯一意图就是为了提供数据供给(feeding)的方法。placeholder节点被声明的时候是未初始化的,也不包含数据,如果有为它供给数据,则Tensorflow运算的时候会产生错误


1.1.4.Session 会话
Session就是抽象模型的实现者,具体的参数训练,预测,甚至是变量的实际值查询,都要用到session


1.2模型构建
这里先说官方最基础的MNIST数据集单层网络例子

(1)读入数据

  1. from tensorflow.examples.tutorials.mnist import input_data
  2. import cv2
  3. import numpy as np
  4. #mnist = input_data.read_data_sets("mnist_data/", one_hot=True)
  5. mnist = input_data.read_data_sets("C:\\Users\\1\\AppData\\Local\\Programs\\Python\Python35\\Lib\\site-packages\\tensorflow\\examples\\tutorials\\mnist", one_hot=True)
  6. import tensorflow as tf

此处我是直接从官网 下的mnist数据集,因为官网指导上那个代码我用不了


(2) 建立抽象模型

  1. x = tf.placeholder(tf.float32, [None, 784])
  2. #W = tf.Variable(tf.random_normal([784, 10], stddev=0.1))
  3. W = tf.Variable(tf.zeros([784, 10]))
  4. b = tf.Variable(tf.zeros([10]))
  5. y = tf.nn.softmax(tf.matmul(x, W) + b)
  6. y_ = tf.placeholder("float", [None, 10])
  7. cross_entropy = -tf.reduce_sum(y_ * tf.log(y))
  8. train_step = tf.train.GradientDescentOptimizer(0.01).minimize(cross_entropy)
  9. init = tf.global_variables_initializer()

对输入x,label y_创建一个占位符,以及声明W,b变量,通过softmax得到预测结果y
定义损失函数cross_entropy,训练方法(梯度下降)train_step


(3)实际训练

  1. sess = tf.InteractiveSession()
  2. sess.run(init)
  3. for i in range(10000):
  4. batch_xs, batch_ys = mnist.train.next_batch(100)
  5. sess.run(train_step, feed_dict={x: batch_xs, y_: batch_ys})
  6. if i % 500== 0:
  7. correct_prediction = tf.equal(tf.argmax(y, 1), tf.argmax(y_, 1))
  8. accuracy = tf.reduce_mean(tf.cast(correct_prediction, "float"))
  9. print(accuracy.eval(feed_dict={x: mnist.test.images, y_: mnist.test.labels}, session=sess))

在模型搭建完成以后,我们只要为模型提供输入和输出,模型就能够自己进行训练和测试,中间的求导,求梯度,反向传播等等,TensorFlow都会帮你自动完成。结果最终为0.92





二、5层全连接神经网络


1.首先定义每层的神经元个数
K=400
L=100
M=60
N=30


2.搭建模型

  1. W1=tf.Variable(tf.truncated_normal([28*28,K],stddev=0.1))
  2. B1=tf.Variable(tf.zeros([K]))
  3. W2=tf.Variable(tf.truncated_normal([K,L],stddev=0.1))
  4. B2=tf.Variable(tf.zeros([L]))
  5. W3=tf.Variable(tf.truncated_normal([L,M],stddev=0.1))
  6. B3=tf.Variable(tf.zeros([M]))
  7. W4=tf.Variable(tf.truncated_normal([M,N],stddev=0.1))
  8. B4=tf.Variable(tf.zeros([N]))
  9. W5=tf.Variable(tf.truncated_normal([N,10],stddev=0.1))
  10. B5=tf.Variable(tf.zeros([10]))
  11. X=tf.placeholder(tf.float32,[None,28,28,1])
  12. y_=tf.placeholder(tf.float32,[None,10]) #hot-vector的形式
  13. X=tf.reshape(X,[-1,28*28])
  14. Y1=tf.nn.relu(tf.matmul(X,W1)+B1)
  15. Y2=tf.nn.relu(tf.matmul(Y1,W2)+B2)
  16. Y3=tf.nn.relu(tf.matmul(Y2,W3)+B3)
  17. Y4=tf.nn.relu(tf.matmul(Y3,W4)+B4)
  18. pred=tf.nn.softmax(tf.matmul(Y4,W5)+B5)
  19. loss=tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logits=pred,labels=y_))
  20. train_step=tf.train.GradientDescentOptimizer(0.03).minimize(loss)
  21. corr=tf.equal(tf.argmax(pred,1),tf.argmax(y_,1)) #找到每行最大的作为输出结果
  22. accu=tf.reduce_mean(tf.cast(corr,tf.float32))
  23. init=tf.global_variables_initializer()


3.训练

  1. sess=tf.InteractiveSession()
  2. sess.run(init)
  3. for i in range(10000):
  4. batch_xs, batch_ys = mnist.train.next_batch(100)
  5. sess.run(train_step, feed_dict={X: batch_xs, y_: batch_ys})
  6. if i % 100 ==0:
  7. print("测试集正确率:%f" %accu.eval(feed_dict={X:mnist.test.images,y_:mnist.test.labels},session=sess))

最终得到的测试集准确率为:0.884
该结果还没有单层softmax效果好,目前还不知道为什么····
上一篇:python 格式化输出详解(占位符:%、format、f表达式)——上篇 理论篇


下一篇:Tensorflow【实战Google深度学习框架】编程基础小漂亮总结