我们知道,随机变量
\(X\)
\(Y\)的互信息定义为其联合分布(joint)
\(p(x, y)\)和其边缘分布(marginal)的乘积
\(p(x)p(y)\)之间的KL散度(相对熵)
[1]