tensorflow笔记之softmax_cross_enropy

tf.nn.sparse_softmax_cross_entropy_with_logits()
当正确结果只有一个时,可以加速计算,比如MNIST数字识别,每张图片中仅包含一个数字,所以可以使用这个函数加速计算,并且在使用时前向传播的计算结果不需要计算softmax。
cross_entropy = tf.nn.sparse_softmax_cross_entropy_with_logits(
logits=y, labels=tf.argmax(y_, 1))
tf.nn.softmax_cross_entropy_with_logits()
cross_entropy = tf.nn.softmax_cross_entropy_with_logits(
logits=y, labels=y_)
使用这个函数时,前向传播的计算结果不需要计算softmax。

注意上面两个函数参数提供的方式不一样,特别是labels.
上一篇:【转】VC 隐藏模块、MFC 改变窗口类名


下一篇:如何使用ABBYY FineReader 12将JPEG文件转换成Word文档