a = tf.constant(36, name)
b = tf.constant(10, name)
c = tf.multiply(a,b)
with tf.Session() as session:
print(session.run(c))
a, b = #创建Tensorflow变量(此时,尚未直接计算)
c = #实现Tensorflow变量之间的操作定义
tf.global_variables_initializer() #初始化Tensorflow变量
with tf.Session() as session:#创建Session
session.run()# 运行Session,此时,之前编写操作都会在这一步运行。
x = tf.placeholder(int32, [], name='x') #占位符
with tf.Session() as sess: #占位符用法
sess.run(2 * x, feed={x : 3})
tf.matmul(a, b) #矩阵乘法
tf.nn.sigmoid_cross_entropy_with_logits(logits = ..., labels = ...) #计算sigmoid损失函数
tf.nn.softmax_cross_entropy_with_logits(logits=...,labels=...)#计算softmax损失函数.注意logits的shape(batch_size,num_classes)
tf.one_hot(labels,depth,axis)#one hot编码
tf.get_variable("W1", [25, 12288], initializer=tf.contrib.layers.xavier_initializer(seed=1))#tf.Variable() 每次都在创建新对象,对于get_variable()来说,对于已经创建的变量对象,就把那个对象返回,如果没有创建变量对象的话,就创建一个新的
tf.reduce_mean(input_tensor,axis=None,keep_dims=False,name=None)#计算平均值
tf.cast(x, dtype, name=None)#转换数据格式
tf.transpose()#转置
tf.argmax()#按列取最大值的索引位置
tf.equal(a, b)#判断a是否等于b
tf.reset_default_graph#函数用于清除默认图形堆栈并重置全局默认图形。
ops.reset_default_graph() #能够重新运行模型而不覆盖tf变量
tf.train.GradientDescentOptimizer(learning_rate=).minimize(cost)#普通梯度下降
tf.train.AdamOptimizer(learning_rate=learning_rate).minimize(cost)#使用Adam优化算法的梯度下降
刚好五岁
发布了1 篇原创文章 · 获赞 0 · 访问量 7
私信
关注