tensorflow笔记之softmax_cross_enropy

tf.nn.sparse_softmax_cross_entropy_with_logits()
当正确结果只有一个时,可以加速计算,比如MNIST数字识别,每张图片中仅包含一个数字,所以可以使用这个函数加速计算,并且在使用时前向传播的计算结果不需要计算softmax。
cross_entropy = tf.nn.sparse_softmax_cross_entropy_with_logits(
    logits=y, labels=tf.argmax(y_, 1))

tf.nn.softmax_cross_entropy_with_logits()
cross_entropy = tf.nn.softmax_cross_entropy_with_logits(
        logits=y, labels=y_)

使用这个函数时,前向传播的计算结果不需要计算softmax。

注意上面两个函数参数提供的方式不一样,特别是labels.
原文地址:https://www.cnblogs.com/buxizhizhoum/p/8301705.html