信息论与编码总结与复习2014信息学院信息工程教研室牛秋娜本课程主要内容一个理论和三个编码:理论--------香农信息论编码--------信源编码信道编码保密编码各编码作用是?第一部分、信息论基础1.1信源的信息理论:1、信息的定义:(1)自信息I=log(1/p)=-logp(2)通信完成后获得的净信息量=通信所消除掉的不确定度(3)信息的单位:对数的底取2时,自信息的单位叫比特(bit)。第一部分、信息论基础1.1信源的信息理论2、信息熵的定义:(1)离散信源(2)连续信源第一部分、信息论基础1.1信源的信息理论3、信息熵的特点(1)非负性:H(X)≥0(2)极值性:《1》离散信源各符号等概率时出现极大值:H0=logm《2》连续信源信号幅度受限时均匀分布出现极大值:hmax(X)=log(b-a);《3》连续信源信号方差有限时高斯分布出现极大值:第一部分、信息论基础1.1信源的信息理论4、离散序列的信息熵(1)无记忆信源的联合熵与单符号熵:H(X1X2……XN)=H(X1)+H(X2)+H(X3)+……+H(XN)=NH(X1)(2)有记忆信源的联合熵与条件熵:H(X1X2……XN)=H(X1)+H(X2|X1)+H(X3|X1X2)+……+H(XN|X1X2……XN-1)(3)平均符号熵:HN=H(X1X2……XN)/N第一部分、信息论基础1.1信源的信息理论(4)序列信息熵的性质:《1》条件熵不大于无条件熵,强条件熵不大于弱条件熵:H(X1)≥H(X2|X1)≥H(X3|X1X2)≥………≥H(XN|X1X2……XN-1)《2》条件熵不大于同阶的平均符号熵:HN≥H(XN|X1X2……XN-1)《3》序列越长,平均每个符号的信息熵就越小:H1≥H2≥H3≥……≥HN总之:H0H1≥H2≥H3≥……≥HN≥H∞(无记忆信源取等号。)第一部分、信息论基础1.1信源的信息理论第一部分、信息论基础1.1信源的信息理论5、马尔可夫信源的信息熵(1)马尔可夫信源的数学模型和定义:N阶马尔可夫信源的关联长度是N+1,N+2以外不关联。(2)状态、状态转移与稳态概率:状态、状态转移、状态转移图、稳定状态、稳态方程(3)稳态符号概率:结论:N阶马氏信源稳态信息熵(即极限熵)等于N+1阶条件熵。(4)稳态信息熵:[例1]已知二阶马尔可夫信源的条件概率:p(0|00)=p(1|11)=0.8;p(0|01)=p(1|10)=0.6;求稳态概率、稳态符号概率、稳态符号熵和稳态信息熵。解:二阶马氏信源关联长度=3,状态由2符号组成,共有4个状态,分别为:E1=00;E2=01;E3=10;E4=11;已知的条件概率即是:p(0|E1)=p(1|E4)=0.8;p(0|E2)=p(1|E3)=0.6;根据归一化条件可求出另外4个状态符号依赖关系为:p(1|E1)=p(0|E4)=0.2;p(1|E2)=p(0|E3)=0.4;第一部分、信息论基础1.1信源的信息理论E4E3E2E10:0.80:0.40:0.21:0.81:0.21:0.41:0.60:0.6稳态方程组是:第一部分、信息论基础1.1信源的信息理论可解得:稳态符号概率为:稳态信息熵为:=0.895bit/符号第一部分、信息论基础1.1信源的信息理论因此,稳态符号熵=1bit/符号。第一部分、信息论基础1.2信道的信息理论1.2信道的信息理论:1、信道的数学模型:进入广义信道的符号为ai∈A;从广义信道出来的符号bj∈B;其前向概率为pij=p(bj|ai)。传输矩阵:第一部分、信息论基础1.2信道的信息理论2、信道有关的信息熵:(1)信源熵(先验熵):(2)噪声熵:(3)联合熵:(4)接收符号熵:(5)损失熵(后验熵):第一部分、信息论基础1.2信道的信息理论3.平均互信息计算公式:I(X;Y)=H(X)–H(X|Y)=H(Y)–H(Y|X)=H(X)+H(Y)–H(XY)I(X;Y)代表系统每完成收发一对符号的通信过程后,所消除掉的平均不确定度,即信宿从每个符号中平均所获得的净信息量。[例2]已知信源先验概率p(x)={0.7,0.3},信道传输矩阵;试计算各信息熵和互信息。H(XY)=-0.21log0.21–0.14log0.14–0.35log0.35–0.12log0.12–0.09log0.09–0.09log0.09=2.3924bit/符号解:(1)先验熵:H(X)=-0.7log20.7–0.3log20.3=(-0.7lg0.7–0.3lg0.3)/lg2=0.881bit/符号(2)联合熵:第一部分、信息论基础1.2信道的信息理论H(Y|X)=–0.21log0.3–0.14log0.2–0.35log0.5–0.12log0.4–0.09log0.3–0.09log0.3=1.5114bit/符号(4)接收符号熵:由P(Y)=(0.21+0.12,0.14+0.09,0.35+0.09)=(0.33,0.23,0.44)H(Y)=-0.33log0.33-0.23log0.23-0.44log0.44=1.5366bit/符号(3)噪声熵:由和第一部分、信息论基础1.2信道的信息理论H(X|Y)=-0.21log(7/11)-……0.09log(9/44)=0.8558bit/符号或:H(X|Y)=H(XY)-H(Y)=2.3924-1.5266=0.8558bit/符号(6)平均互信息:I(X;Y)=H(X)-H(X|Y)=0.881–0.8558=0.0252bit/符号(5)损失熵:第一部分、信息论基础1.2信道的信息理论第一部分、信息论基础1.2信道的信息理论4.信道容量对称信道:传输矩阵的各行都是一些相同元素的重排,各列也是一些相同元素的重排。(1)定义:对于给定的信道,总存在一个信源能使互信息取极大值,该极大值定义为信道的信道容量:信道容量反映了一个信道最大所能传输的平均互信息,是给定信道的属性。使传信率等于信道容量的信源,称为该信道的匹配信源。第一部分、信息论基础1.2信道的信息理论(2)信道容量的计算:对于简单信道要求能计算信道容量:1)无损信道:C=max{I(X;Y)}=max{H(X)}=logm;2)无噪信道:C=max{I(X;Y)}=max{H(Y)}=logS;3)对称信道:C=max{I(X;Y)}=logS-H(p1,p2,……,pS);[例3]求对称信道的信道容量。解:C=log4-H(0.2,0.3,0.2,0.3)=2+(0.2log0.2+0.3log0.3)×2=0.03bit/符号;第一部分、信息论基础1.2信道的信息理论(3)波形信道的信道容量:发送连续信号的信源是连续信源,传输连续信号的信道是波形信道。高斯加性噪声波形信道的容量由Shannon公式给出:C=Blog(1+PX/Pn)香农公式给出了带宽B、信道容量和信噪比PX/Pn(注意是线性比值)三者之间的制约关系。信道容量不变时带宽与信噪比有互换关系。第二部分、无失真信源编码第二部分、无失真信源编码2.1信源编码理论1.1信源编码理论:1、信源的相对信息率和冗余度:实际信源由于非等概,有记忆:信源每个符号最大可以荷载的信息量是H0=logm平均每个符号的实际信息荷载量是H∞HNH(X)(1)只要信息熵没有达到最大值,就存在冗余。(2)定义相对信息率:μ=H∞/H0第二部分、无失真信源编码2.1信源编码理论2、变长码编码原理:(1)概率匹配原则:信息量大(不常出现)的符号用长码,信息量小(经常出现)的符号用短码。(2)平均码长:l(4)极限码长∞=H∞/logr;logHlr(5)编码效率:(3)Shannon变长码编码定理:第二部分、无失真信源编码2.1信源编码理论3、唯一可译性与即时性:(1)断字问题:分组编码的变长码被连接起来发送,接收端如何才能将它们分开进行译码呢?(2)唯一可译码(3)即时码:异前缀码(或非延长码)(4)构造码树的方法(5)克拉夫特不等式:唯一可译码的必要条件。[例5]以下哪些编码一定不是惟一可译码?写出每种编码克拉夫特不等式的计算结果。码A:0,10,11,101;码B:1,01,001,0001;码C:0,10,110,1110,111110;解:码A:1/2+1/4+1/4+1/81,不能唯一可译;码B:1/2+1/4+1/8+1/161,有可能唯一可译;码C:1/2+1/4+1/8+1/16+1/641,有可能唯一可译;第二部分、无失真信源编码2.1信源编码理论第二部分、无失真信源编码2.2编码方法1.2编码方法:1、Huffman编码:(1)信源符号按概率大小排队。(2)合并概率最小的两个符合为一个节点。(3)节点参与排队放在与自己概率相等符号后面。(4)重复这个过程直到合并完全部符号。(5)标记每个分支的的0与1。(6)从根到叶的路径就给出了相应符号的码字。(7)计算平均码长与编码效率。2、Huffman编码的推广:扩展信源编码;多元编码[例6]设信源概率空间为,编码符号集为Y={0,1},进行Huffman编码(要求码长发差最小)。解:编码为:s1(10),s2(11),s3(010),s4(011),s5(0000),s6(0001),s7(0010),s8(0011)平均码长:l=2.75H(X)=2.75bit/符号,η=100%第二部分、无失真信源编码2.2编码方法第二部分、无失真信源编码2.2编码方法3、游程编码适用于连0连1情况。等熵变换,没有直接压缩代码,但将二元码变成了多元码。为使用Huffman编码创造了条件。与MH编码结合即传真编码。4、词典编码不依赖于概率的通用编码。建立初始小词典后边输入边查词典边补充新词条,以词条序号为编码。第三部分、信道编码3.1信道编码理论第三部分、信道编码3.1信道编码理论:1、检错与纠错原理:(1)检错原理:添加冗余避免码字非此即彼;(2)纠错原理:添加冗余拉大码字汉明间距;(3)汉明距离:两码字不同码元的个数;(4)检错能力:d0≥e+1纠错能力:d0≥2t+1纠检同时:d0≥e+t+1(et)2、译码规则与错误概率:(1)最小错误准则:选联合概率矩阵每列最大元素(2)最大似然准则:选传输概率矩阵每列最大元素(3)错误概率计算:未选中元素的总联合概率(4)差错率计算(5)漏检率计算3、几种简单的信道编码:(1)重复码(2)奇偶校验码(3)恒比码第三部分、信道编码3.1信道编码理论3.2线性分组码:码长为n,信息位为k,记作(n,k);监督位r=n-k1、编码C=K•G生成矩阵G是k×n的矩阵。左半边是k×k单位信息位方阵Ik右半边是k×r的监督位矩阵Q第三部分、信道编码3.2线性分组码2、纠错和译码H一致校验矩阵左半边是r×k矩阵P右半边是r×r单位方阵Ir;P与生成矩阵中的Q互为转置关系:P=QT监督方程也可表示为:C·HT=0;满足此方程的均为正确的许用码字,否则,便是误码。第三部分、信道编码3.2线性分组码N维错误格式矢量E发送码字为C,接收码字为R,三者的关系是:E=CR;R=CE;C=RE;伴随子向量S=R·HTS=R·HT=(CE)·HT=C·HTE·HT=E·HT;若R=C,E为全零向量,则S=0;反之,若R≠C,则E≠0,导致S≠0;因此由伴随子向量S是否为零就能检查出接收码R是否有误。第三部分、信道编码3.2线性分组码纠错:R错一位的情况:S与HT的哪一行相同,就表明错在哪一位。R错两位以上:查表法,查R-C对照来译码。3、纠错能力不等式:2r≥Cn0+Cn1+Cn2+……+Cnt完备码:上式取等号的情况。汉明码:纠1位错的完备码,2r=1+n第三部分、信道编码3.2线性分组码3.3、循环码1.码多项式2.生成多项式——码多项式中那个次数最低的非零多项式g(x)第三部分、信道编码3.3循环码n-k=r次;常数项为1。任意码多项式都是生成多项式g(x)的倍式。g(x)是xn-1的一