云题海 - 专业文章范例文档资料分享平台

当前位置:首页 > 信息论与编码复习要点

信息论与编码复习要点

  • 62 次阅读
  • 3 次下载
  • 2025/5/7 19:06:31

信息论与编码的学习要点

自信息

自信息表示随机事件xi发生前的不确定性或发生后所包含的信息量,其定义为:

互信息

互信息表示已知事件yj后所消除的关于事件xi的不确定性,等于事件xi本身的不确定性I(xi)—已知事件yj后对xi仍然存在的不确定性I(xi/yj),其定义为:

平均自信息

平均自信息表示整个信源(用随机变量X表示)的平均不确定性,它等于随机变量X的每一个可能取值的自信息I(xi)的统计平均值,其定义为:

离散信源的最大熵

离散信源中各消息等概率出现时熵最大,也称最大离散熵定理:

联合熵

联合熵表示二维随机变量XY的平均不确定性,它等于联合自信息的统计平均值,其定义为:

条件熵

条件熵表示已知随机变量X后,对随机变量Y仍然存在的平均不确定性,其定义为:

各类熵之间的关系为:

H(XY)=H(X)+H(Y/X)=H(Y)+H(X/Y)≤H(X)+H(Y) X,Y统计独立时,H(XY)=H(X)+H(Y)

平均互信息

平均互信息表示收到一个符号集(用随机变量Y表示)后消除的关于另一个符号集(X)的不确定性,也就是从Y所获得的关于X的平均信息量,其定义为:

平均互信息和各类熵之间的关系:

I(X;Y)=H(X)-H(X/Y)=H(Y)-H(Y/X)=H(X)+H(Y)-H(XY) 当X和Y统计独立时,I(X;Y)=0

数据处理定理

如果随机变量X,Y,Z构成一个马尔可夫链,则有: I(X;Z)≤I(X;Y) I(X;Z)≤I(Y;Z)

等号成立的条件是对于任意的x,y,z,有p(x/yz)=p(x/z)和p(z/xy)=p(z/x)

数据处理定理中不等式I(X;Z)≤I(X;Y)表明从Z所获得的关于X的信息量小于等于从Y所获得的关于X的信息量。如果将Y→Z看成数据处理系统,则通过数据处理后,虽然可以满足我们的某种具体要求,但是从信息量来看,处理后会损失一部分信息,最多保持原来获得的信息,即对收到的数据Y进行处理后,决不会减少关于X的不确定性。

(极限熵)熵率

极限熵表示离散多符号信源的平均不确定性,它是信源输出的符号序列中平均每个符号所携带的信息量。 N→∞时极限

称为平均符号熵,表示随机变量序列中,对前N个随机变量的联合熵的平均:

存在,则称之为熵率,或极限熵,其定义为:

离散平稳无记忆信源的极限熵

多符号信源中最简单的是离散平稳无记忆信源,其极限熵H∞=H(X)

M阶马尔可夫信源的极限熵

如果信源在某时刻发出的符号仅与此前发出的m个符号有关,即m阶马尔可夫信源,其极限熵为: 离散平稳马尔可夫信源,可将上述符号的不确定性问题转化为齐次、遍历的马尔可夫链的状态转移问题:

信源的冗余度

冗余度的定义为:

连续信源的微分熵

连续信源的最大熵

对于输出信号幅度受限的连续信源,当满足均匀分布时达到最大熵;对于平均功率受限的连续随机变量,当服从高斯分布时具有最大熵。

码的分类

非分组码

分组码:奇异码和非奇异码(非唯一可译码、唯一可译码(即时码、非即时码))

无失真定长信源编码定理

离散无记忆信源的熵H(X),若对长为N的信源序列进行定长编码,码符号集中有r个码符号,码长为L,则对于任意小的正数ε,只要满足

实现几乎无失真编码,即译码错误概率为任意小。反之,如果实现几乎无失真编码,当N足够大时,译码错误概率为1。

,则当N足够大时,可

,则不可能

克劳夫特不等式

无失真变长信源编码定理(香农第一定理) 失真函数

,单个符号的失真函数或失真度,表示信源发出一个符号xi,而在接收端再

现为yj所引起的误差或失真的大小。

平均失真

信源的平均失真度表示某个信源通过某个信道传输后失真的大小,其定义为:

保真度准则

如果要求信源的平均失真度<所允许的失真D,成为保真度准则。

D失真许可的试验信道

信息率失真函数

对于给定的信源,总存在一种信道使I(X;Y)达到最小。

R(D)是关于D的下凸函数,且在定义域内是严格递减函数。

限失真信源编码定理(香农第三定理)

设意的数为:

为一离散平稳无记忆信源的信息率失真函数,并且有有限的失真测度。对于任

以及任意足够长的码长n,则一定存在一种信源编码C,其码字个,而编码后的平均失真度

如果用二元编码,取比特为单位,则上式M可写成

该定理说明:对于任何失真度每个信源符号的信息传输率度

,只要码长足够长,总可以找到一种编码C,使编码后

,即

,而码的平均失真

信道容量

对于给定的信道,I(X;Y)是p(xi)的上凸函数,即总存在一种信源具有某种概率分布,使信道平均传输一个符号接收端获得的信息量最大,也就是说对于每个固定信道都有一个最大的信息传输率,这个最大的信息传输率即信道容量,而相应的输入概率分布称为最佳输入分布。C的定义为:

对称信道的C

准对称信道的C

离散平稳无记忆信道的N次扩展信道的C

独立并联信道的C

C=NC

搜索更多关于: 信息论与编码复习要点 的文档
  • 收藏
  • 违规举报
  • 版权认领
下载文档10.00 元 加入VIP免费下载
推荐下载
本文作者:...

共分享92篇相关文档

文档简介:

信息论与编码的学习要点 自信息 自信息表示随机事件xi发生前的不确定性或发生后所包含的信息量,其定义为: 互信息 互信息表示已知事件yj后所消除的关于事件xi的不确定性,等于事件xi本身的不确定性I(xi)—已知事件yj后对xi仍然存在的不确定性I(xi/yj),其定义为: 平均自信息 平均自信息表示整个信源(用随机变量X表示)的平均不确定性,它等于随机变量X的每一个可能取值的自信息I(xi)的统计平均值,其定义为: 离散信源的最大熵 离散信源中各消息等概率出现时熵最大,也称最大离散熵定理: 联合熵 联合熵表示二维随机变量XY的平均不确定性,它等于联合自信息的统计平均值,其定义为:

× 游客快捷下载通道(下载后可以自由复制和排版)
单篇付费下载
限时特价:10 元/份 原价:20元
VIP包月下载
特价:29 元/月 原价:99元
低至 0.3 元/份 每月下载150
全站内容免费自由复制
VIP包月下载
特价:29 元/月 原价:99元
低至 0.3 元/份 每月下载150
全站内容免费自由复制
注:下载文档有可能“只有目录或者内容不全”等情况,请下载之前注意辨别,如果您已付费且无法下载或内容有问题,请联系我们协助你处理。
微信:fanwen365 QQ:370150219
Copyright © 云题海 All Rights Reserved. 苏ICP备16052595号-3 网站地图 客服QQ:370150219 邮箱:370150219@qq.com