tf.nn.softmax

tf.nn.softmax(
    logits,
    axis = None,
    name = None
    dim = None
)
  • 作用:softmax函数的作用就是归一化。
  • 输入:全连接层(往往是模型的最后一层)的值,一般代码中叫做logits
  • 输出:归一化的值,含义是属于该位置的概率,一般代码叫做probs,例如输出[0.4, 0.1, 0.2, 0.3],那么这个样本最可能属于第0个位置,也就是第0类。这是由于logits的维度大小就设定的任务的类别,所以第0个位置就代表第0类。softmax函数的输出不改变维度的大小。
  • 用途:如果做单分类的问题,那么输出的值就取top1(最大, argmax); 如果做多分类问题,那么输出的值就取topN

例子:

 输出:

从结果中分析出array最有可能属于第0类(一共四类)

如果想进一步了解softmax的原理,可以参考这篇文章:https://zhuanlan.zhihu.com/p/93054123

原文地址:https://www.cnblogs.com/elitphil/p/12218877.html