互信息学习

转自:https://www.cnblogs.com/gatherstars/p/6004075.html

1.概念

两个随机变量的互信息(Mutual Information,简称MI)或转移信息(transinformation)是变量间相互依赖性的量度。

不同于相关系数,互信息并不局限于实值随机变量,它更加一般且决定着联合分布 p(X,Y) 和分解的边缘分布的乘积 p(X)p(Y) 的相似程度。

互信息(Mutual Information)是度量两个事件集合之间的相关性(mutual dependence)。互信息是点间互信息(PMI)的期望值。

两个离散随机变量 X 和 Y 的互信息可以定义为:

原文地址:https://www.cnblogs.com/BlueBlueSea/p/14872566.html