信息论与编码论文在学过信息论与编码以后,对这方面内容已有了基础的了解。为了进行更深入的了解,我查阅了很多资料,我认为通信的根本问题是如何将信源输出的信息在接收端的信宿精确地或近似地复制出来,而这最重要的一步就是信源的编码,一个好的开端才能为以后的传输及接受、解码提供有利得条件。而我也对各种信源编码方式产生了浓厚的兴趣。首先要了解什么是信源编码。为了减少信源输出符号序列中的剩余度、提高符号的平均信息量,对信源输出的符号序列所施行的变换。具体说,就是针对信源输出符号序列的统计特性来寻找某种方法,把信源输出符号序列变换为最短的码字序列,使后者的各码元所载荷的平均信息量最大,同时又能保证无失真地恢复原来的符号序列。既然信源编码的基本目的是提高码字序列中码元的平均信息量,那么,一切旨在减少剩余度而对信源输出符号序列所施行的变换或处理,都可以在这种意义下归入信源编码的范畴,例如过滤、预测、域变换和数据压缩等。一般来说,减少信源输出符号序列中的剩余度、提高符号平均信息量的基本途径有两个:①使序列中的各个符号尽可能地互相独立;②使序列中各个符号的出现概率尽可能地相等。前者称为解除相关性,后者称为概率均匀化。在通信过程中,如何在不失真或允许一定失真条件下,用尽可能少的符号来传送信源信息,提高信息传输率;在信道受干扰的情况下,如何增加信号的抗干扰能力,同时又使得信息传输率最大。这就产生了多种信源编码方式。为了有效传播信息,最理想状态即为无失真传输。在无失真信源编码中又分为定长编码、变长编码机最佳变长编码。一、定长编码。在定长编码中,K是定值,编码的目的即为找到最小的K值。要实现无失真的信源编码,不但要求信源符号与码字是一一对应的,而且还要求有码字组成的码符号序列的逆变换也是唯一的。由定长编码定理可知,当编码器容许的输出信息率,也就是当每个信源符号必须输出的码长是K=Kl/logm。由定理表明,只要码字所能携带的信息量大于信源序列输出的信息量,则可以使传输几乎无失真,但是条件是L足够大。这就为传输带来了很大的麻烦,并且实现起来很困难,并且编码效率也不高。而要达到编码效率接近1的理想编码器虽有存在性,但在实际上时不可能的,因为L非常大,无法实现。由此而产生了变长编码。二、变长编码。在变长编码中,码长K是变化的,可根据信源各个符号的统计特性,对概率大的符号用短码,而对概率小的符号用长码。这样大量信源符号编成码后,平均每个信源符号所需的输出符号数就可以降低,从而提高编码效率。用变长编码来达到相当高的编码效率,一般所要求的符号长度L可以比定长编码小得多的多。很明显,定长码需要的信源序列长,这使得码表很大,切总存在译码差错。而变长码要求编码效率达到96%时,只需L=2.因此用变长码编码时,L不需要很大就可达到相当高的编码效率,而且可实现无失真编码。并且随着信源序列长度的增加,编码效率越来越接近于1,编码后的信息传输率R也越来越接近于无噪无损二元对称信道的信道容量C=1bit/二元码符号,达到信源与信道匹配,使信道得到充分利用。但变长编码方式也有优劣的区分,下面就讨论几种不同的变长编码方式。1、香农编码方法。香农第一定理指出了平均码长与信源之间的关系,同时也指出了可疑通过编码使平均码长达到极限值,这是一个很重要的极限定理。香农第一定理指出,选择每个码字的长度Ki满足下式:I(xi)KiI(xi)+1就可以得到这种码。编码方式如下:首先将信源消息符号按其出现的概率大笑依次从大到小排列,为了编成唯一可译码,计算第i个消息的累加概率P=∑p(a),并将累加概率Pi变换成二进制数。最后去Pi二进制数的小数点后Ki位提取出,即为给细心符号的二进制码字。由此可见香农编码法多余度稍大,实用性不强,但他是依据编码定理而来,因此具有重要的理论意义。2、费诺编码方法。费诺编码属于概率编码,但不是最佳的编码方法。在编N进制码时首先将信源消息符号按其出现的概率依次由小到大排列开来,并将排列好的信源符号按概率值分N大组,使N组的概率之和近似相同,并对各组赋予一个N进制码元“0”、“1”„„“N-1”。之后再针对每一大组内的信源符号做如上的处理,即再分为概率和相同的N组,赋予N进制码元。如此重复,直至每组只剩下一个心愿符号为止。此时每个信源符号所对应的码字即为费诺码。针对同一信源,费诺码要比香农码的平均码长小,消息传输速率大,编码效率高。3、哈夫曼编码方法。编码方法:也是先将信源符号按其出现的概率大小依次排列,并取概率最小的字母分别配以0和1两个码元(先0后1或者先1后0,以后赋值顺序固定),再将这两个概率想家作为一个新字母的概率,与未分配的二进制符号的字母重新排队。并不断重复这一过程,直到最后两个符号配以0和1为止。最后从最后一级开始,向前返回得到各个信源符号所对应的码元序列,即为相应的码字。哈夫曼编码方式得到的码并非唯一的。在对信源缩减时,两个概率最小的符号合并后的概率与其他信源符号的概率相同时,这两者在缩减信源中的排序将会导致不同码字,但不同的排序将影响码字的长度,一般讲合并的概率放在上面,这样可获得较小的码方差。哈夫曼码的平均码长最小,消息传输效率最大,编码效率最高。在学习过多种变长编码方法后,我对同一信源符号进行不同方式的编码,而考察并验证以上三种编码方法的优劣性。设一信源符号有6中字母a、b、c、d、e、f,概率为0.32、0.22、0.18、0.16、0.08、0.04。符号熵:H(X)=H(0.32、0.22、0.18、0.16、0.08、0.04)=2.3526用香农编码法编码:香农码编码过程信源符号符号概率p累加概率P-logp码字长度Ki码字a0.3201.64200b0.220.322.183010c0.180.542.473100d0.160.722.643101e0.080.883.6441110f0.040.964.64511110信源的平均码长为:K=∑p*Ki=2.84码元/符号编码效率:η=H(X)/K=82.8%用费诺码编码方式:费诺码编码过程信源符各个消息第一次第二次第三次号ai概率pi分组分组分组a0.3200b0.221c0.180d0.1601e0.0811f0.04信源的平均码长为:K=∑p*Ki=2.4码元/符号编码效率:η=H(X)/K=98.0%哈夫曼码编码方式:哈夫曼编码过程第四次分组01二元码字00011011011101111码长Ki222344信源各个消码符号息概率编码过程码字长aipiKia0.32002b0.22102c0.18112d0.160103e0.0801104f0.0401114信源的平均码长为:K=∑p*Ki=2.4码元/符号编码效率:η=H(X)/K=98.0%由此可见,哈夫曼编码方式可以算是最佳的编码方式。在经过长达10周的信息论与编码的学习之后,让我对我所学的专业从感性的认识上升到了理性的认识,也更促进了我对通信传播的认识与学习,让我有了很多收获。