当前位置: 首页 > news >正文

极限熵和冗余度

本专栏包含信息论与编码的核心知识,按知识点组织,可作为教学或学习的参考。markdown版本已归档至【Github仓库:information-theory】,需要的朋友们自取。或者公众号【AIShareLab】回复 信息论 也可获取。

信息冗余度(多余度、剩余度)

在信息论中,信息冗余传输消息所用数据位的数目与消息中所包含的实际信息的数据位的数目的差值

数据压缩是一种用来消除不需要的冗余的方法,校验和是在经过有限信道容量的噪声信道中通信,为了进行错误校正而增加冗余的方法。

信息冗余度一译"信息剩余度"。是指一定数量的信号单元可能有的最大信息量与其包含的实际信息量之差。通常用R表示。为信号的实际信息量,Imax为同样数量的信号单元可能有的最大信息量。会使传信绩效降低,但能提高通讯的抗干扰能力。

  • 表示信源在实际发出消息时所包含的多余信息。

  • 冗余度:

    • 信源符号间的相关性。

      • 相关程度越大,信源的实际熵越小
    • 信源符号分布的不均匀性。

      • 等概率分布时信源熵最大。
    • log⁡2N=H0(X)≥H1(X)≥H2(X)≥⋯≥H∞(X)\log _{2} N=H_{0}(X) \geq H_{1}(X) \geq H_{2}(X) \geq \cdots \geq H_{\infty}(X)log2N=H0(X)H1(X)H2(X)H(X)

      N=H0(X)N=H_{0}(X)N=H0(X):等概率分布时信源熵

      N=H1(X)N=H_{1}(X)N=H1(X):相互独立

      N=H1(X)N=H_{1}(X)N=H1(X):两者有关系

对于有记忆信源, 极限熵

H∞(X)=lim⁡N→∞H(XN/X1⋯XN−1)=lim⁡N→∞1NH(X1⋯XN)H_{\infty}(X)=\lim _{N \rightarrow \infty} H(X_{N} / X_{1} \cdots X_{N-1})=\lim _{N \rightarrow \infty} \frac{1}{N} H(X_{1} \cdots X_{N}) H(X)=NlimH(XN/X1XN1)=NlimN1H(X1XN)
这就是说需要传送某一信源的信息, 理论上只需要传送 H∞(X)H_{\infty}(X)H(X) 即可。但这必须掌握信源全部概率统计特性, 这显然是不现实的。实际上, 只能算出 Hm(X)H_{m}(X)Hm(X) 。那么与理论极限值相比, 就要多传送 Hm(X)−H∞(X)H_{m}(X)-H_{\infty}(X)Hm(X)H(X)

为了定量地描述信源的有效性, 定义: 信息效率

η=H∞(X)Hm(X)\eta=\frac{H_{\infty}(X)}{H_{m}(X)} η=Hm(X)H(X)
冗余度

γ=1−η=1−H∞(X)Hm(X)\gamma=1-\eta=1-\frac{H_{\infty}(X)}{H_{m}(X)} γ=1η=1Hm(X)H(X)

冗余度

由于信源存在冗余度,即存在一些不必要传送的信息,因此信源也就存在进一步压缩其信息率的可能性。

信源冗余度越大,其进一步压缩的潜力越大。这是信源编码与数据压缩的前提与理论基础

例:英文字母:

英文字母出现的概率如下表(含空格)

英文字母出现概率

若各个字母独立等概, 则信息熵

H0=log⁡227=4.76bit/symH_{0}=\log _{2} 27=4.76 \mathrm{bit} / \mathrm{sym}H0=log227=4.76bit/sym

按照表计算独立不等概的信息熵

H1=−∑i=127pilog⁡pi=4.03bit/symH_{1}=-\sum_{i=1}^{27} p_{i} \log p_{i}=4.03 \mathrm{bit} / \mathrm{sym}H1=i=127pilogpi=4.03bit/sym

若只考虑一维相关性, 有 H2=3.32bit/symH_{2}=3.32 \mathrm{bit} / \mathrm{sym}H2=3.32bit/sym , 进一步考虑二维相关性, 有 H3=3.01bit/symH_{3}=3.01 bit/symH3=3.01bit/sym

香农推断: H∞≅1.4bit/symH_{\infty} \cong 1.4 \mathrm{bit} / \mathrm{sym}H1.4bit/sym

  • 从而:η=29%,γ=71%\eta=29 \%, \quad \gamma=71 \%η=29%,γ=71%

参考文献:

  1. Proakis, John G., et al. Communication systems engineering. Vol. 2. New Jersey: Prentice Hall, 1994.
  2. Proakis, John G., et al. SOLUTIONS MANUAL Communication Systems Engineering. Vol. 2. New Jersey: Prentice Hall, 1994.
  3. 周炯槃. 通信原理(第3版)[M]. 北京:北京邮电大学出版社, 2008.
  4. 樊昌信, 曹丽娜. 通信原理(第7版) [M]. 北京:国防工业出版社, 2012.
http://www.lryc.cn/news/19644.html

相关文章:

  • 女生学习大数据专业未来前景怎么样
  • 主题模型实践
  • 按字典序排列的最小的等价字符串[拆解并查集]
  • 操作系统——6.系统调用
  • JavaScript DOM操作
  • 【数据结构】顺序表
  • 【人工智能 AI 】RPA 架构师需要具备的技能有哪些?RPA Solution Architect
  • 【模拟集成电路】鉴频鉴相器设计(Phase Frequency Detector,PFD)
  • 【Linux】进程间通信介绍 | 管道
  • 这次说说腾讯的一场 35K—55K 的 Android 高工面试
  • Jenkins第一讲
  • 变分推断 | MATLAB实现VBMC变分贝叶斯蒙特卡洛模拟的贝叶斯推断
  • 代码随想录【Day25】| 216. 组合总和 III、17. 电话号码的字母组合
  • web中git漏洞的形成的原理及使用
  • 【SPSS】单样本T检验分析详细操作教程(附案例实战)
  • 计算机网络笔记、面试八股(三)—— HTTPS协议
  • 浅谈liunx init.d 和 rc.local 两种起动方式
  • 元宇宙+教育,正在引发哪些剧烈变革?机会在哪里?丨圆桌实录
  • 追梦之旅【数据结构篇】——详解C语言实现顺序队列
  • 使用自己的数据集Fine-tune PaddleHub预训练模型
  • 带组态物联网平台源码 代码开源可二次开发 web MQTT Modbus
  • 计算机网络的发展历程
  • 【华为OD机试模拟题】用 C++ 实现 - 不含 101 的数(2023.Q1)
  • 面试题-下单后位置信息上报的方案
  • 视觉人培训团队把它称之为,工业领域人类最伟大的软件创造,它的名字叫Halcon
  • 干了2年的手工点点点,感觉每天浑浑噩噩,我的自动化测试之路...
  • 嵌入式系统硬件设计与实践(学习方法)
  • 如何拥有自己的Gitee代码仓库
  • 通用信息抽取技术UIE产业案例解析,Prompt 范式落地经验分享!
  • integrationobjects/OPC AE Client ActiveX Crack