信息论与编码_曹雪虹_PPT2-7章全

整理文档很辛苦,赏杯茶钱您下走!

免费阅读已结束,点击下载阅读编辑剩下 ...

阅读已结束,您可以下载文档离线阅读编辑

资源描述

信息论基础B第二章信源与信息熵信源描述与分类离散信源的信息熵和互信息离散序列信源的熵连续信源的熵与互信息冗余度信息论基础B2.1信源的描述与分类信源是产生消息(符号)、消息序列和连续消息的来源。从数学上,由于消息的不确定性,因此,信源是产生随机变量、随机序列和随机过程的源信源的基本特性是具有随机不确定性信息论基础B2.1信源特性与分类分类时间离散连续幅度离散连续记忆有无三大类:单符号离散信源符号序列信源(有记忆和无记忆)连续信源信息论基础B2.1信源特性与分类离散无记忆序列信源布袋摸球实验,若每次取出两个球,由两个球的颜色组成的消息就是符号序列。若先取出一个球,记下颜色放回布袋,再取另一个球。)()()(),,,,(2121LLlXpXpXpXXXXp信息论基础B2.1信源特性与分类离散有记忆序列信源布袋摸球实验,每次取出两个球,由两个球的颜色组成的消息就是符号序列。若先取出一个球,记下颜色不放回布袋,再取另一个球。)/()/()(),,,(1112121LLLXXXpXXpXpXXXp信息论基础B2.1信源特性与分类马尔可夫信源当信源的记忆长度为m+1时,该时该发出的符号与前m个符号有关联性,而与更前面的符号无关。)/()/()(),,,(112121mLLLXXXpXXpXpXXXp信息论基础B2.1信源描述与分类描述:通过概率空间描述单符号离散信源例如:对二进制数字与数据信源nnpppuUuUuUupU,,,,,,)(212121,211,0,1,010pppU信息论基础B2.1信源描述与分类连续信源为概率密度函数)(),,()(),()(upUuupbaupU信息论基础B2.1信源描述与分类离散序列信源以3位PCM信源为例)(,)(,)(,,)(2121LLnnLupupupuUuUuUupU3112030,,111,001,000)(ppppUUUupUL信息论基础B2.1信源描述与分类当p=1/281,81,81111,001,000)(UUUupUL信息论基础B2.1信源描述与分类离散无记忆序列信源布袋摸球实验,若每次取出两个球,由两个球的颜色组成的消息就是符号序列。若先取出一个球,记下颜色放回布袋,再取另一个球。)()()(),,,,(2121LLlXpXpXpXXXXp信息论基础B2.1信源描述与分类离散有记忆序列信源布袋摸球实验,每次取出两个球,由两个球的颜色组成的消息就是符号序列。若先取出一个球,记下颜色不放回布袋,再取另一个球。)/()/()(),,,(1112121LLLXXXpXXpXpXXXp信息论基础B2.1信源描述与分类马尔可夫信源当信源的记忆长度为m+1时,该时该发出的符号与前m个符号有关联性,而与更前面的符号无关。)/()/()(),,,(112121mLLLXXXpXXpXpXXXp信息论基础B2.1信源描述与分类马尔可夫信源由于高阶马尔可夫信源需要引入矢量进行分析,现方法将矢量转化为状态变量。定义状态:信源在某一时刻出现符号概率xj与信源此时所处状态si有关,用条件概率表示p(xj/si),状态转移概率表示为p(sj/si)nijimiiiaaAxxxxs,),,(121信息论基础B2.1信源描述与分类马尔可夫信源更一般,经过n-m步后转移至sj的概率jijijijimjnijnmpnmpssPsSsSPnmp1),(0),(//),(信息论基础B2.1信源描述与分类马尔可夫信源特别关心n-m=1情况,pij(m,m+1))()(1/)(:10/)(kijmkmkijjijijijimjmijpiSjSPmpkpppsSsSPmp步转移概率为信息论基础B2.1信源描述与分类马尔可夫信源系统在任一时刻可处于状态空间的任意一状态,状态转移时,转移概率是一个矩阵,一步转移转移矩阵为QQQQQQijppppppppSjip2122111211},,{Pp信息论基础B2.1信源描述与分类马尔可夫信源k步转移概率pij(k)与l步和k-l步转移概率之间满足切普曼-柯尔莫郭洛夫方程。定义:如果从状态I转移到状态j的概率与m无关,则称这类MovKov链为齐次对于齐次马尔可夫链,一步转移概率完全决定了k步转移概率。信息论基础B2.1信源描述与分类马尔可夫信源定义:若齐次马尔可夫链对一切I,j存在不依赖于I的极限,则称其具有遍历性,pj称为平稳分布0)(10limijjijijjjkijkppppppp信息论基础B2.1信源描述与分类马尔可夫信源定理:设有一齐次马尔可夫链,其状态转移矩阵为P,其稳态分布为wjWWPjjw1信息论基础B2.1信源描述与分类不可约性,对于任意一对I和j,都存在至少一个k,使pij(k)0.非周期性,所有pij(n)0的n中没有比1大的公因子。定理:设P是某一马尔可夫链的状态转移矩阵,则该稳态分布存在的充要条件是存在一个正整数N,使矩阵PN中的所有元素均大于零。信息论基础B2.1信源描述与分类Eg.一个相对编码器,求平稳分布+TXY信息论基础B2.1信源描述与分类Eg.二阶马氏链,X{0,1},求平稳分布起始状态000110111/201/401/203/4001/301/502/304/5S1(00)S2(01)S3(10)S4(11)信息论基础B2.2离散信源熵与互信息信息量自信息量联合自信息量条件自信息量单符号离散信源熵符号熵条件熵联合熵信息论基础B2.2离散信源熵与互信息信息不确定性的消除信息的度量随机性、概率相互独立符合事件概率相乘、信息相加熵事件集的平均不确定性信息论基础B2.2离散信源熵与互信息直观推导信息测度信息I应该是消息概率p的递降函数由两个不同的消息(相互统计独立)所提供的信息等于它们分别提供信息之和(可加性)0)(,1,)(,)(,0,)(,iiiiiiiipIppIppIppIp时且当时且当信息论基础B2.2离散信源熵与互信息定义:对于给定的离散概率空间表示的信源,x=ai事件所对应的(自)信息为以2为底,单位为比特(bit)以e为底,单位为奈特(nat)1nat=1.433bit以10为底,单位为笛特(det)1det=3.322bit)(1log)(log)(iiiixpxpaxI信息论基础B2.2离散信源熵与互信息定义:联合概率空间中任一联合事件的联合(自)信息量为:定义:联合概率空间中,事件x在事件y给定条件下的条件(自)信息量为:),(1log),(log),(jijijiyxpyxpyxI)/(1log)/(log)/(jijijiyxpyxpyxI信息论基础B2.2离散信源熵与互信息联合自信息、条件自信息与自信息间的关系)/()/()()()()()()/()()/(log)(log)/()(log),(log),()/()()/()(),(12112121NNNxxxxIxxIxIxxxIyIxIxyIyxxyIxIxypxpxypxpyxpyxIyxpypxypxpyxp推广相互独立和当信息论基础B2.2离散信源熵与互信息Eg1设在一正方形棋盘上共有64个方格,如果甲将一粒棋子随意地放在棋盘中的某方格内,让乙猜测棋子所在的位置:(1)将方格按顺序编号,令乙猜测棋子所在方格的顺序号(2)将方格按行和列编号,甲将棋子所在的方格的行(或列)编号告诉乙,再令乙猜测棋子所在列(或行)所在的位置。信息论基础B2.2离散信源熵与互信息解:由于甲将一粒棋子随意地放在棋盘中的某方格内,因此棋子在棋盘中所处位置为二维等概率分布(1)联合(自)信息量为(2)条件(自)信息量为641),(jiyxpbityxpyxIjiji6641log),(log),(22bitypyxpyxpyxIjjijiji381log)(),(log)/(log)/(222信息论基础B2.2离散信源熵与互信息Eg2.一个布袋内放100个球,其中80个球为红色,20球为白色。若随机摸取一个球,猜测其颜色,求平均摸取一次所获得的(自)信息量。解:随机事件的概率空间为2.08.021xxPX信息论基础B2.2离散信源熵与互信息iiixpxpxIxpxIxpINxIxNpxIxNpINbitxpxIbitxpxI)(log)()()()()()2.0log2.08.0log8.0()()()()(2.0log)(log)(8.0log)(log)(221122221122222121量为平均每次所获得的信息次后所获得的信息量为信息论基础B2.2离散信源熵与互信息单符号离散信源熵定义:对于给定离散概率空间表示的信源所定义的随机变量I的数学期望为信源的信息熵,单位为比特/符号iiixpxpxIEXH)(log)()]([)(信息论基础B2.2离散信源熵与互信息离散信源条件熵定义:对于给定离散概率空间表示的信源所定义的随机变量I(x/y)在集合X上的数学期望为给定y条件下信源的条件熵,单位为比特/序列iiiyxpyxpyXIEyXH)/(log)/()]/([)/(jijijijyxpyxpypyXHEYXH,)/(log)/()()]/([)/(信息论基础B2.2离散信源熵与互信息离散信源联合熵定义:对于给定离散概率空间表示的信源所定义的随机变量I(x,y)的数学期望为集合X和集合Y的信源联合熵,单位为比特/序列jijijiyxpyxpxyIEXYH,),(log),()]([)(信息论基础B2.2离散信源熵与互信息联合熵、条件熵与熵的关系)/()/()()()()()()/()()()/()()()/()()/()(),(12112121NNNXXXXHXXHXHXXXHYHXHXYHYXYXHYHXYHXYHXHXYHyxpypxypxpyxp推广相互独立和当集合信息论基础B2.2离散信源熵与互信息单符号离散信源互信息定义:对于给定离散概率空间表示的信源,在出现y事件后所提供有关事件x的信息量定义互信息,单位为比特YyXxxpyxpyxIa,,)()/(log);(信息论基础B2.2离散信源熵与互信息单符号离散信源互信息);()()/(log)()()/()(log)()(),(log)()()()/(log)()/(log);(xyIypxypypxpxypxpypxpyxpypxpypyxpxpyxpyxI信息论基础B2.2离散信源熵与互信息条件互信息量与联合互信息量定义:对于给定离散概率空间表示的信源,在事件z给定条件下,事件x与事件y之间的条件互信息量为:ZzYyXxzxpyzxpzyxIa,,,)/()/(log)/;(信息论基础B2.2离散信源熵与互信息条件互信息量与联合互信息量定义:对于给定离散概率空间表示的信源,在事件x与联合事件yz之间的联合互信息量为:ZzYyXxxpyzxpyzxIa,,,)()/(log);(信息论基础B2.2离散信源熵与互信息Eg1(p23)设信源发出8种消息符号,各消息等概发送,各符号分别用3位二进码元表示,并输出事件。通过对输出事件的观察来推测信源的输出。假设

1 / 403
下载文档,编辑使用

©2015-2020 m.777doc.com 三七文档.

备案号:鲁ICP备2024069028号-1 客服联系 QQ:2149211541

×
保存成功