当前位置:首页 > 信息论与编码复习要点
信息论与编码的学习要点
自信息
自信息表示随机事件xi发生前的不确定性或发生后所包含的信息量,其定义为:
互信息
互信息表示已知事件yj后所消除的关于事件xi的不确定性,等于事件xi本身的不确定性I(xi)—已知事件yj后对xi仍然存在的不确定性I(xi/yj),其定义为:
平均自信息
平均自信息表示整个信源(用随机变量X表示)的平均不确定性,它等于随机变量X的每一个可能取值的自信息I(xi)的统计平均值,其定义为:
离散信源的最大熵
离散信源中各消息等概率出现时熵最大,也称最大离散熵定理:
联合熵
联合熵表示二维随机变量XY的平均不确定性,它等于联合自信息的统计平均值,其定义为:
条件熵
条件熵表示已知随机变量X后,对随机变量Y仍然存在的平均不确定性,其定义为:
各类熵之间的关系为:
H(XY)=H(X)+H(Y/X)=H(Y)+H(X/Y)≤H(X)+H(Y) X,Y统计独立时,H(XY)=H(X)+H(Y)
平均互信息
平均互信息表示收到一个符号集(用随机变量Y表示)后消除的关于另一个符号集(X)的不确定性,也就是从Y所获得的关于X的平均信息量,其定义为:
平均互信息和各类熵之间的关系:
I(X;Y)=H(X)-H(X/Y)=H(Y)-H(Y/X)=H(X)+H(Y)-H(XY) 当X和Y统计独立时,I(X;Y)=0
数据处理定理
如果随机变量X,Y,Z构成一个马尔可夫链,则有: I(X;Z)≤I(X;Y) I(X;Z)≤I(Y;Z)
等号成立的条件是对于任意的x,y,z,有p(x/yz)=p(x/z)和p(z/xy)=p(z/x)
数据处理定理中不等式I(X;Z)≤I(X;Y)表明从Z所获得的关于X的信息量小于等于从Y所获得的关于X的信息量。如果将Y→Z看成数据处理系统,则通过数据处理后,虽然可以满足我们的某种具体要求,但是从信息量来看,处理后会损失一部分信息,最多保持原来获得的信息,即对收到的数据Y进行处理后,决不会减少关于X的不确定性。
(极限熵)熵率
极限熵表示离散多符号信源的平均不确定性,它是信源输出的符号序列中平均每个符号所携带的信息量。 N→∞时极限
称为平均符号熵,表示随机变量序列中,对前N个随机变量的联合熵的平均:
存在,则称之为熵率,或极限熵,其定义为:
离散平稳无记忆信源的极限熵
多符号信源中最简单的是离散平稳无记忆信源,其极限熵H∞=H(X)
M阶马尔可夫信源的极限熵
如果信源在某时刻发出的符号仅与此前发出的m个符号有关,即m阶马尔可夫信源,其极限熵为: 离散平稳马尔可夫信源,可将上述符号的不确定性问题转化为齐次、遍历的马尔可夫链的状态转移问题:
信源的冗余度
冗余度的定义为:
连续信源的微分熵
连续信源的最大熵
对于输出信号幅度受限的连续信源,当满足均匀分布时达到最大熵;对于平均功率受限的连续随机变量,当服从高斯分布时具有最大熵。
码的分类
非分组码
分组码:奇异码和非奇异码(非唯一可译码、唯一可译码(即时码、非即时码))
无失真定长信源编码定理
离散无记忆信源的熵H(X),若对长为N的信源序列进行定长编码,码符号集中有r个码符号,码长为L,则对于任意小的正数ε,只要满足
实现几乎无失真编码,即译码错误概率为任意小。反之,如果实现几乎无失真编码,当N足够大时,译码错误概率为1。
,则当N足够大时,可
,则不可能
克劳夫特不等式
无失真变长信源编码定理(香农第一定理) 失真函数
,单个符号的失真函数或失真度,表示信源发出一个符号xi,而在接收端再
现为yj所引起的误差或失真的大小。
平均失真
信源的平均失真度表示某个信源通过某个信道传输后失真的大小,其定义为:
保真度准则
如果要求信源的平均失真度<所允许的失真D,成为保真度准则。
D失真许可的试验信道
信息率失真函数
对于给定的信源,总存在一种信道使I(X;Y)达到最小。
R(D)是关于D的下凸函数,且在定义域内是严格递减函数。
限失真信源编码定理(香农第三定理)
设意的数为:
为一离散平稳无记忆信源的信息率失真函数,并且有有限的失真测度。对于任
以及任意足够长的码长n,则一定存在一种信源编码C,其码字个,而编码后的平均失真度
。
如果用二元编码,取比特为单位,则上式M可写成
该定理说明:对于任何失真度每个信源符号的信息传输率度
。
,只要码长足够长,总可以找到一种编码C,使编码后
,
,即
,而码的平均失真
信道容量
对于给定的信道,I(X;Y)是p(xi)的上凸函数,即总存在一种信源具有某种概率分布,使信道平均传输一个符号接收端获得的信息量最大,也就是说对于每个固定信道都有一个最大的信息传输率,这个最大的信息传输率即信道容量,而相应的输入概率分布称为最佳输入分布。C的定义为:
对称信道的C
准对称信道的C
离散平稳无记忆信道的N次扩展信道的C
独立并联信道的C
C=NC
共分享92篇相关文档