熵,联合熵,条件熵,相对熵,互信息的定义

本文介绍了信息论中的基本概念,包括熵、联合熵、条件熵、相对熵(互熵)和互信息。熵表示随机变量的不确定性,联合熵描述两个随机变量的共同不确定性,条件熵是在已知一个随机变量情况下另一个随机变量的不确定性。相对熵(又称Kullback-Leibler散度)衡量两个概率分布的差异,而互信息则表示两个随机变量之间的信息关联程度。通过数学推导,展示了这些概念之间的关系,如H(Y|X) = H(Y) - I(X,Y)和I(X,Y) = H(X) + H(Y) - H(X,Y)。" 118640537,11163301,C语言英文打字练习程序分析,"['C语言', '小程序', '算法']

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

预备基础概念

  • X : 随机变量
  • x : 随机变量X的具体取值
  • P(X) : 随机变量X的概率分布
  • P(X,Y) : 随机变量X,Y的联合概率分布
  • P(Y|X) : 已知随机变量X的情况下,随机变量Y的条件概率分布
  • P(X=x) => p(x) : 随机变量取某个值的概率
  • P(X=x,Y=y) => p(x,y) : 联合概率
  • P(X=x|Y=y) =>p(y|x) : 条件概率 、
  • 且有 p(x,y) = p(x)*p(y|x)
信息量

事件的不确定性
事件发生的概率越大,信息量越小,事件发生的概率越小,信息量越小;
正好符合-logP 函数

简单来讲,就是指所有信息量的期望
如果一个随机变量X的可能取值为X = { x 1 , x 2 , . . . , x k x_{1},x_{2},... ,x_{k} x1,x2,...,xk}
其概率分布为P(X= x i x_{i} xi) = p i p_{i} pi (i = 1,2,…,n)
则随机变量的熵定义为
H ( X ) = − ∑ x p ( x ) l o g p ( x ) H(X) = -\sum_{x}p(x)logp(x) H(X)=xp(x)logp(x)
等价于
H ( X ) = ∑ x p ( x ) l o g 1 p ( x ) H(X) = \sum_{x}p(x)log\frac{1}{p(x)} H(X)=xp(x)logp(x)1

联合熵

两个随机变量X,Y的联合分布
H ( X , Y ) = ∑ x , y p ( x , y ) l o g 1 p ( x , y ) H(X,Y) = \sum_{x,y}p(x,y)log\frac{1}{p(x,y)} H(X,Y)=x,yp(x,y)logp(x,y)1

条件熵

在随机变量X发生的前提下,随机变量Y发生所带来的熵定义为Y的条件熵
主要用来衡量在已知随机变量X的条件下随机变量Y的不确定性
H ( Y ∣ X ) = H ( X , Y ) = H ( X ) H(Y|X) = H(X,Y) = H(X) H(YX)=H(X,Y)=H(X) 表示(X,Y)发生所包含的熵减去X单独发生包含的熵
推导
H ( Y ∣ X ) = H ( X , Y ) − H ( X ) H(Y|X) = H(X,Y) - H(X) H(YX)=

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值