老师整理的信息论知识点

整理文档很辛苦,赏杯茶钱您下走!

免费阅读已结束,点击下载阅读编辑剩下 ...

阅读已结束,您可以下载文档离线阅读编辑

资源描述

Chp02知识点:自信息量:1))(log)(iixpxI2)对数采用的底不同,自信息量的单位不同。2----比特(bit)、e----奈特(nat)、10----哈特(Hart)3)物理意义:事件ix发生以前,表示事件ix发生的不确定性的大小;事件ix发生以后,表示事件ix所含有或所能提供的信息量。平均自信息量(信息熵):1))(log)()]([)(1iqiiixpxpxIExH2)对数采用的底不同,平均自信息量的单位不同。2----比特/符号、e----奈特/符号、10----哈特/符号。3)物理意义:对信源的整体的不确定性的统计描述。表示信源输出前,信源的平均不确定性;信源输出后每个消息或符号所提供的平均信息量。4)信息熵的基本性质:对称性、确定性、非负性、扩展性、连续性、递推性、极值性、上凸性。互信息:1))()|(log)|()();(ijijiijixpyxpyxIxIyxI2)含义:已知事件jy后所消除的关于事件ix的不确定性,对信息的传递起到了定量表示。平均互信息:1)定义:2)性质:联合熵和条件熵:各类熵之间的关系:数据处理定理:Chp03知识点:依据不同标准信源的分类:离散单符号信源:1)概率空间表示:2)信息熵:)(log)()]([)(1iqiiixpxpxIExH,表示离散单符号信源的平均不确定性。离散多符号信源:用平均符号熵和极限熵来描述离散多符号信源的平均不确定性。平均符号熵:)...(1)(21NNXXXHNXH极限熵(熵率):)(lim)(XHXHNN(1)离散平稳信源(各维联合概率分布均与时间起点无关的信源。)(2)离散无记忆信源:信源各消息符号彼此互不相关。①最简单的二进制信源:01()Xpxpq,信源输出符号只有两个:“0”和“1”。②离散无记忆信源的N次扩展:若信源符号有q个,其N次扩展后的信源符号共有qN个。离散无记忆信源X的N次扩展信源XN的熵:1212101,(1,2,,);1rrriiiaaaXpapapaPpairpa等于信源X的熵的N倍,表明离散无记忆信源X的N次扩展信源每输出1个消息符号(即符号序列)所提供的信息熵是信源X每输出1个消息符号所提供信息熵的N倍。离散无记忆信源X的N次扩展信源XN极限熵(熵率)为:)()(1lim)(lim)(XHXNHNXHXHNNN(3)离散有记忆信源—》马尔可夫信源—》时间和状态都是离散的马尔可夫过程称为马尔可夫链1)用分布律描述:2)转移概率:即条件概率。3)转移概率矩阵:用)(npij表示n步转移概率矩阵。且nijijpnp))1(()(,,会写出马氏链的一步转移概率矩阵,会画状态转移图,能够求出n步转移概率矩阵。4)遍历性的概念:求解马氏信源的遍历性,即找一正整数m,使m步转移概率矩阵)(mpij中无零元。求解马氏遍历信源的信息熵步骤:(1)根据题意画出状态转移图,判断出是平稳遍历的马尔可夫信源;(2)根据状态转移图写出一步转移概率矩阵,计算信源的极限分布q即是求解方程组:qiiWWPW11(3)根据一步转移概率矩阵和极限概率W计算信源的信息熵:极限熵H∞等于条件熵Hm+1。(m阶马尔可夫信源的熵率)信源的相关性和剩余度:,用来衡量信源输出的符号序列中各符号之间的依赖程度。当剩余度=0时,信源的熵=极大熵H0,表明信源符号之间:(1)统计独立无记忆;(2)各符号等概分布。连续信源:(1)微分熵:i.定义:ii.物理意义:(2)连续信源的联合熵和条件熵(3)几种特殊连续信源的熵:a)均匀分布的连续信源的熵:)(log)(2abXHcb)高斯分布的连续信源的熵:222log21)(eXHc【概率密度函数:222)(221)(mxexp】c)指数分布的连续信源的熵:meXHc2log)(【概率密度函数:mxemxp1)(】(4)最大连续熵定理:011HHa)限峰值功率的最大熵定理(输出幅值受限):均匀分布b)限平均功率的最大熵定理(输出平均功率受限):高斯分布(5)熵功率及连续信源的剩余度\Chp04知识点:一、一些基本概念:1.什么是信道?信道的作用,研究信道的目的。2.一般信道的数学模型,信道的分类(根据输入输出随即信道的特点,输入输出随机变量个数的多少,输入输出个数,有无干扰,有无记忆,信道的统计特性进行不同的分类)3.前向概率p(yj/xi)、后向概率/后验概率p(xi/yj)、先验概率p(xi)。4.几个熵的含义:H(X)---表示信源的不确定性;H(X|Y)---信道疑义度,表示如果有干扰的存在,接收端收到Y后对信源仍然存在的不确定性。也称为损失熵,表示信源符号通过有噪信道传输后所引起的信息量的损失。H(Y|X)---噪声熵,它反映了信道中噪声源的不确定性。二、离散信道:1.单符号离散信道:a)信道模型的表示:传递矩阵(有传递(条件、转移)概率p(yj|xi)组成);b)信道的信息传输率:R=I(X;Y)—表示接收到输出符号集Y后所消除的对于信源X的不确定性,也就是获得的关于信源的信息。它是平均意义上每传送一个符号流经信道的信息量。关于I(X;Y)的性质:I(X;Y)是信源概率分布p(xi)和信道转移概率p(yj|xi)的二元函数:11(/)(/)22()()(/)1111()()(/)()()(/)(;)()log()(/)logjijinjijiinjijiijijiinmnmpyxpyxijijipypxpyxijijpypxpyxpxypxpyxIXYpxypxpyx那么,当信道特性p(yj/xi)固定后,I(X;Y)随信源概率分布p(xi)的变化而变化。调整p(xi),在接收端就能获得不同的信息量。由平均互信息的性质已知,对于给定的信道转移概率p(yj/xi),I(X;Y)是输入分布p(xi)的上凸函数,因此总能找到一种概率分布p(xi)(即某一种信源),使信道所能传送的信息率为最大。那么这个最大的信息传输率即为信道容量。c)信道容量概念:在信道中最大的信息传输速率()()maxmax(;)(/)iipxpxCRIXY比特信道符号对于给定的信道,总能找到一个最佳输入分布使得I(X;Y)得到极大值。d)信道容量的含义:信道容量是完全描述信道特性的参量,信道容量是信道传送信息的最大能力的度量,信道实际传送的信息量必然不大于信道容量。2.几种特殊离散信道的信道容量:a)具有一一对应关系的无噪信道:n---输入符号数,m---输出符号数当信源呈等概率分布时,具有一一对应确定关系的无噪信道达到信道容量C:b)具有扩展性能的无损信道:c)具有归并性能的无噪信道:注意:在求信道容量时,调整的始终是输入端的概率分布p(xi),尽管信道容量式子中平均互信息I(X;Y)等于输出端符号熵H(Y),但是在求极大值时调整的仍然是输入端的概率分布p(xi),而不能用输出端的概率分布p(yj)来代替。也就是一定能找到一种输入分布使输出符号Y达到等概率分布。d)行对称信道的信道容量:),...,,()}({max''2'1)(sxppppHYHCe)离散对称信道的信道容量:若一个离散对称信道具有r个输入符号,s个输出符号,则当输入为等概分布时达到信道容量,且,其中为信道矩阵中的任一行。f)均匀信道的信道容量为g)准对称信道的信道容量:),...,,(loglog''2'1122snkkkpppHMNrC,其中Nk是n个子矩阵中第k个子矩阵中行元素之和,Mk是第k个子矩阵中列元素之和。h)二元对称信道的信道容量:C=1-H(p)p为错误传递概率。3.一般离散信道的信道容量计算方法:已知信道的转移矩阵P,求信道容量。两种方法:方法一:依据:I(X;Y)是输入概率分布p(xi)的上凸函数,所以极大值一定存在。步骤:①根据信道转移矩阵P的特点,用某一参数α设为输入分布p(xi);②由)|()()(1ijniijxypxpyp得出输出分布p(yj)也是关于α的函数;③将用α表示的p(xi)和p(yj)带入I(X;Y)=H(Y)-H(Y|X)中,得到I(X;Y)是关于α的函数。④求I(X;Y)对α的偏导数,并令其等于0,解得α即得到输入分布;⑤将解得的α代入I(X;Y)式中得到信道容量C。例子:见教材P65,[例4.5]方法二:公式法:注意:在第②步信道容量C被求出后,计算并没有结束,必须解出相应的p(xi),并确认所有的p(xi)≥0时,所求的C才存在。在对I(X;Y)求偏导时,仅限制niixp11)(,并没有限制p(xi)≥0,所以求出的p(xi)有可能为负值,此时C就不存在,必须对p(xi)进行调整,再重新求解C。4.平均互信息I(X;Y)达到信道容量的充要条件:见教材P65。5.多符号离散信道及信道容量:a)含义,数学模型:多符号离散信源X=X1X2…XN在N个不同时刻分别通过单符号离散信道{XP(Y/X)Y},则在输出端出现相应的随机序列Y=Y1Y2…YN,这样形成一个新的信道称为多符号离散信道。由于新信道相当于单符号离散信道在N个不同时刻连续运用了N次,所以也称为单符号离散信道{XP(Y/X)Y}的N次扩展。b)离散多符号信道的平均互信息和信道容量的几个结论:结论1:离散无记忆信道的N次扩展信道的平均互信息,不大于N个随机变量X1X2…XN单独通过信道{XP(Y/X)Y}的平均互信息之和。结论2:离散无记忆信道的N次扩展信道,当输入端的N个输入随机变量统计独立时,信道的总平均互信息等于这N个变量单独通过信道的平均互信息之和。结论3:离散无记忆信道的N次扩展信道,如果信源也是离散无记忆信源的N次扩展信源,则信道总的平均互信息是单符号离散无记忆信道平均互信息的N倍。结论4:用C表示离散无记忆信道容量,用CN表示其扩展信道容量,CN=NC6.组合信道及信道容量:a)独立并联信道:含义:输入和输出随机序列中的各随机变量取值于不同的符号集,就构成了独立并联信道。是离散无记忆信道的N次扩展信道的推广。信道容量:121NNNkkCCCCC,并当输入端各随机变量统计独立,且每个输入随机变量Xk(k=1,2,…,N)的概率分布达到各自信道容量Ck(k=1,2,…,N)的最佳分布时,CN达到其最大值:max1NNkkCC。b)级联信道:含义:可以看成一个马尔可夫链。信道容量:先求各个级联信道的信道矩阵的乘积,得到级联信道的总的信道矩阵。然后按照离散单符号信道的信道容量方法求即可。7.连续信道及信道容量:a)传递特性表示及数学模型;传递特性用条件转移概率密度函数p(y/x)表示。b)连续信道的信道容量:信源X等于某一概率密度函数p0(x)时,信道平均互信息的最大值,即()max(;)pxCIXYc)平均功率受限的加性信道的信道容量:当噪声、输入分布和输出都满足高斯分布时达到信道容量:)1(log21)1(log212222NXxPPC8.波形信道的信道容量:设信道的频带限于(0,W);根据采样定理,如果每秒传送2W个采样点,在接收端可无失真地恢复出原始信号;香农公式:把信道的一次传输看成是一次采样,由于信道每秒传输2W个样点,所以单位时间的信道容量为2log(1)(/)XtNPCWP比特秒香农公式含义:当信道容量一定时,增大信道带宽,可以降低对信噪功率比的要求;反之,当信道频带较窄时,可以通过提高信噪功率比来补偿。香农公式给出有噪信道中无失真传输所能达到的极限信息传输率,因此对实际通信系统的设计有非常重要的指导意义。Chp05知识点1、信源编码的基本途径、主要任务:2、信源编码的基础:香农两大定理。3、离散无记忆信源的一般模型,理解含义4、一些码的含义:二元码、等长码、变长码、非奇

1 / 12
下载文档,编辑使用

©2015-2020 m.777doc.com 三七文档.

备案号:鲁ICP备2024069028号-1 客服联系 QQ:2149211541

×
保存成功