对应的英文单词是Entropy, 是事物混乱程序一种度量方式.
对一个分布来说, 熵:

  • 是一个非负值
  • 描述从中随机取出一个样本的值的不确定性.

常见的一种计算方式为:

[H = - int p(x) ln p(x)dx ]

(p(x)) 是样本 (x)出现的概率. 从公式中可以看出, (p(x))越小, (-ln p(x)) 越大, 但(p(x))相当于给(-ln p(x))加一个权重, 让小概率事件对整体熵的影响不那么大.
若整个分布只有一个值, 那么它的混乱程序,即它的熵为0.
若一个分布只有两种可能的取值,即非0即1,那么它的熵为:

[H = - p(x=1) ln(p(x=1)) - (1-p(x=1))ln(1-p(x=1)) ]

0-1 entropy
可以看出:

  • (p(x = 1) = 1或0)时, 熵最小, 因为此时可以完全确定取出的样本是0还是1
  • (p(x = 1) = 0.5)时,熵最大, 因为此时你取一个样本出来,只能瞎猜了。
(END)

Daniel的学习笔记
浙江大学计算机专业15级硕士在读, 方向: Machine Learning, Deep Learning, Computer Vision.
blog内容是我个人的学习笔记, 由于个人水平限制, 肯定有不少错误或遗漏. 若发现, 欢迎留言告知, Thanks!
原文地址:https://www.cnblogs.com/dengdan890730/p/5470724.html