我们知道,随机变量 \(X\)和 \(Y\)的互信息定义为其联合分布(joint) \(p(x, y)\)和其边缘分布(marginal)的乘积 \(p(x)p(y)\)之间的KL散度(相对熵) [1]: 声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。