第二讲熵和互信息量信源信道信宿噪声源编码器译码器消息干扰接收信号消息数字通信系统模型中心问题:有效性、可靠性Review发送信号信息、消息和信号•信息–事物运动状态或存在方式不确定性的描述。•消息–指包含有信息的语言、文字和图像等。•信号–消息的物理体现。Review2.1离散信源的数学模型及信息测度(I)信源的数学描述通信系统中收信者在未收到消息以前对信源发出什么消息是不确定的,是随机的。可用随机变量、随机序列或随机过程来描述信源输出的消息,或者说用一个样本空间及其概率测度—概率空间来描述信源。根据信源输出的消息的不同随机性质可以对信源进行分类:按照某时刻信源输出消息的取值集合的离散性和连续性,信源可分为离散信源和连续信源。按照信源输出消息的所对应的随机序列中随机变量前后之间有无依赖关系,信源可分为无记忆信源和有记忆信源。按照信源输出消息的所对应的随机序列或随机过程的平稳性,信源可分为平稳信源和非平稳信源。信源的分类•离散信源:可能输出的消息是有限的或可数的,每次只输出一个消息,即两两不相容。•数学模型:)(,),(),(,,,)(,...,,110110110qqqaPaPaPaaaxPXaaaX1)(10,1)(0:10qiiiaPqiaP且满足注:X代表随机变量,指的是信源整体;ai代表信源的某个元素。简单信源•数学模型:1)()(),()(badxxpxpbaxpX并满足注:这里的p(x)代表概率密度函数。简单信源•连续信源:可能输出的消息数是无限的或不可数的,每次只输出一个消息。离散信源在不同时刻发出的符号之间是无依赖的彼此统计独立的。)(,),(),(,,)(110110qqaPaPaPaaaxPX其中,110,,,qiaaaAa且101)(qiiaP离散无记忆信源11212011011121110,,(),(),,()()(),,(,,0,1,,1)()()()()1NNkNNkNNqiqNiiiikNkNiiiiikqiiXPPPPaaaiiqiiiqPPaaaPaPααααααααα其中并满足:•由离散无记忆信源输出N长的随机序列构成的信源。离散无记忆信源N次扩展信源4/14/14/14/111100100PX掷两枚硬币掷一枚硬币011/21/2XP•离散平稳信源:输出的随机序列中每个随机变量取值是离散的,并且随机矢量X的各维概率分布不随时间平移而改变。•连续平稳信源:输出的随机序列中每个随机变量取值是连续的,并且随机矢量X的各维概率密度函数不随时间平移而改变•离散无记忆信源:离散信源在不同时刻发出的符号之间是彼此统计独立的。)(21NXXXX其它几种常见信源),,1(NiXi)(X21NXXX),,1(NiXi•有记忆信源:输出的随机序列X中各随机变量之间有依赖关系,但记忆长度有限。•m阶马尔可夫信源:信源每次发出的符号只与前m个符号有关,与更前面的符号无关。•随机波形信源:信源输出的消息在时间上和取值上都是连续的。其它几种常见信源设单符号离散信源的概率空间为)(,),(),(,,,)(2121nnxpxpxpxxxxPX1)(,1)(0:1niiixpxp且满足自信息量定义如果知道事件xi已发生,则该事件所给出的信息量称为自信息,定义为:1,)(log)(1log)(axpxpxIiaiai对数换底关系:aXXbbalogloglog自信息量定义•I(xi)含义–当事件xi发生以前,表示事件xi发生的不确定性–当事件xi发生以后,表示事件xi所含有的信息量•I(xi)单位–常用对数底是2,信息量的单位为比特(bits,binarydigits));–若取自然对数,则信息量的单位为奈特(nats,naturaldigits));1nat=log2e≈l.433bitaXXbablogloglog或(1)I(xi)是非负值(2)当p(xi)=1时,I(xi)=0(3)当p(xi)=0时,I(xi)=∞(4)I(xi)是先验概率p(xi)的单调递减函数,即当p(x1)>p(x2)时,I(x1)<I(x2)(5)两个独立事件的联合信息量等于它们分别的信息量之和,即统计独立信源的信息量等于它们分别的信息量之和。自信息的性质•二进制码元0,1,当符号概率为p(0)=1/4,p(1)=3/4,则这两个符号的自信息量为:I(0)=-log2(1/4)=log24=2bitsI(1)=-log2(3/4)=0.4151bits•一个以等概率出现的二进制码元(0,1)所包含的自信息量为:自信息量例题I(0)=I(1)=-log2(1/2)=log22=1bits自信息量例题一次掷两个质地均匀的色子,求下列事件发生后提供的信息量。a.仅有一个数字为3;b.至少有一个数字为4;c.两个数字之和为偶数。解:一个色子有6个数字,X={1,2,3,4,5,6},两个色子数字组合总数为36。a.事件概率为5*2/36=5/18b.事件概率为(5×2+1)/36=11/36c.事件概率为6×3/36=1/2则:I(a)=log(18/5)=1.848(bits)I(b)=log(36/11)=1.7105(bits)I(c)=log2=1(bits)考虑两个随机事件,其联合概率空间为1)(,1)(0)(,),(),(,),(,,,,,,,,,)(11121111212111nimjjijimnmmnnmmyxpyxpyxpyxpyxpyxpyxyxyxyxyxyxXYPXY)(log)(jijiyxpyxI联合自信息与条件自信息•在事件yj出现的条件下,随机事件xi发生的条件自信息量)/(log)/(jijiyxpyxI条件自信息量联合自信息量–联合自信息量和条件自信息量关系2222()log()log()()log()log()()()ijijijijijIxypxypxpypxpyIxIy)/()()/()(log)/()()/()(log)(log)(jijjijijiijijijiyxIyIyxpywxyIxIxypxqyxpyxI当X和Y独立时,•信源各个离散消息的自信息量的数学期望(即概率加权的统计平均值)为信源的平均信息量,称为信源的信息熵,也叫信源熵或香农熵,简称熵。•熵函数的自变量是X表示信源整体,熵是离散无记忆信源平均不确定度的度量。•自信息表示某一消息所含有的信息量,它是一个随机变量,不能用它来作为整个信源的信息测度。)(log)(])(1[log)]([)(1iniiiixpxpxpExIEXH信源熵定义信源熵H(X)的物理含义-观测X所获得的平均信息量;-信源X的平均不确定度;(反映了随机变量X的随机性)-消除信源不确定度所需要的信息量度.-对该信源输出进行无错编码所需的最小编码长度;信源熵理解0limlog0,0log0=0zzz定义注意:高清电视屏上约有1920*1080=2.0736×106个格点,按每格点有8个不同的灰度等级考虑,则共能组成个不同的画面。62.073610221()()log()log1/8niiiHXpxpx=6.2208×106bits6102.07368信源熵例题按等概率计算,平均每个画面可提供的信息量为有一篇千字文章,假定每字可从万字表中任选,则共有不同的千字文N=100001000=104000篇仍按等概率1/100001000计算,平均每篇千字文可提供的信息量为H(X)=log2N≈1.3×104bits“一个电视画面”平均提供的信息量远远超过“一篇千字文”提供的信息量。信源熵例题•例如有两个信源,其概率空间分别为:01.099.0,)(21xxxpX5.05.0,)(21yyypYbitXH08.001.0log01.099.0log99.0)(bitYH15.0log5.05.0log5.0)(因为H(Y)>H(X)所以信源Y比信源X的平均不确定性要大。信源熵例题该信源X输出符号只有两个,设为0和1输出符号发生的概率分别为p和q,p+q=l,即信源的概率空间为qpPX10则二元信源熵为H(X)=-plogp-qlogq=-plogp-(1-p)log(1-p)=H(p)信源熵例题00.20.40.60.8110.80.60.40.2pH(p)H(p)=-plogp-(1-p)log(1-p)条件熵是在联合符号集合XY上的条件自信息量的数学期望。在已知随机变量Y的条件下,随机变量X的条件熵定义为:)/(log)()/()()]/([)/(1111jimjnijijimjnijijiyxpyxpyxIyxpyxIEYXH要用联合概率加权条件熵是一个确定值,表示信宿在收到Y后,信源X仍然存在的不确定度。这是传输失真所造成的。有时称H(X/Y)为信道疑义度,也称损失熵。称条件熵H(Y/X)为噪声熵。)/(log)()]/([)/(211ijnimjjiijxypyxpxyIEXYH条件熵联合离散符号集合XY上的每个元素对的联合自信息量的数学期望。)(log)()()()(jinimjjijinimjjiyxpyxpyxIyxpXYH21111)/(log)()/()()/(kjiijkkjikjiijkkjizyxpzyxpzyxIzyxpZXYH2)(jiyx联合熵进一步扩展)()()()()(YXHYHXYHXHXYHNnnnNNNUUUUHUUUUHUUUHUUHUHUUUH112112121312121)()()()()()(熵、条件熵、联合熵关系当Ui相互独立时121()()NNinHUUUHU当X和Y相互独立时()()()HXYHXHY•一个二进信源X发出符号集{0,1},经过离散无记忆信道传输,信道输出用Y表示.由于信道中存在噪声,接收端除收到0和1的符号外,还有不确定符号“2”•已知:X的先验概率:p(x0)=2/3,p(x1)=1/3,符号转移概率:p(y0|x0)=3/4,p(y2|x0)=1/4p(y1|x1)=1/2,p(y2|x1)=1/2,XY010123/41/21/21/4•信源熵H(X)bitsHXH9183.031log3132log32)31,32()(例题得联合概率:p(x0y0)=p(x0)p(y0|x0)=2/3×3/4=1/2p(x0y1)=p(x0)p(y1|x0)=0p(x0y2)=p(x0)p(y2|x0)=2/3×1/4=1/6p(x1y0)=p(x1)p(y0|x1)=0p(x1y1)=p(x1)p(y1|x1)=1/3×1/2=1/6p(x1y2)=p(x1)p(y2|x1)=1/3×1/2=1/6)/()()/()()(jijijijiyxpypxypxpyxpbitsxypyxpXYHijijji88.021log6121log6141log6143log21)|(log),()|(由例题•噪声熵H(Y|X)XY010123/41/21/21/4•联合熵H(XY)H(XY)=H(X)+H(Y|X)=1.8bits)()(),()(11imjjijnijixpyxpypyxp得p(y0)=∑p(xiy0)=p(x0y0)+p(x1y0)=1/2+0=1/2p(y1)