tensorflow1.0 api

	a = tf.constant(36, name)
	b = tf.constant(10, name)
	c = tf.multiply(a,b)
	with tf.Session() as session:
		print(session.run(c))
    a, b =  #创建Tensorflow变量(此时,尚未直接计算)
    c = 	#实现Tensorflow变量之间的操作定义
    tf.global_variables_initializer()	#初始化Tensorflow变量 
    with tf.Session() as session:#创建Session
    	session.run()#	运行Session,此时,之前编写操作都会在这一步运行。
    
x = tf.placeholder(int32, [], name='x') #占位符
with tf.Session() as sess: #占位符用法
	sess.run(2 * x, feed={x : 3})
	
tf.matmul(a, b) #矩阵乘法

tf.nn.sigmoid_cross_entropy_with_logits(logits = ..., labels = ...) #计算sigmoid损失函数
tf.nn.softmax_cross_entropy_with_logits(logits=...,labels=...)#计算softmax损失函数.注意logits的shape(batch_size,num_classes)

tf.one_hot(labels,depth,axis)#one hot编码

tf.get_variable("W1", [25, 12288], initializer=tf.contrib.layers.xavier_initializer(seed=1))#tf.Variable() 每次都在创建新对象,对于get_variable()来说,对于已经创建的变量对象,就把那个对象返回,如果没有创建变量对象的话,就创建一个新的

tf.reduce_mean(input_tensor,axis=None,keep_dims=False,name=None)#计算平均值

tf.cast(x, dtype, name=None)#转换数据格式

tf.transpose()#转置

tf.argmax()#按列取最大值的索引位置

tf.equal(a, b)#判断a是否等于b

tf.reset_default_graph#函数用于清除默认图形堆栈并重置全局默认图形。 

ops.reset_default_graph() #能够重新运行模型而不覆盖tf变量

tf.train.GradientDescentOptimizer(learning_rate=).minimize(cost)#普通梯度下降

tf.train.AdamOptimizer(learning_rate=learning_rate).minimize(cost)#使用Adam优化算法的梯度下降
tensorflow1.0 apitensorflow1.0 api 刚好五岁 发布了1 篇原创文章 · 获赞 0 · 访问量 7 私信 关注
上一篇:单输出感知机及其梯度


下一篇:TensorFlow里面损失函数