数字图像处理-胡学龙等-第05章-图像编码与压缩0607

整理文档很辛苦,赏杯茶钱您下走!

免费阅读已结束,点击下载阅读编辑剩下 ...

阅读已结束,您可以下载文档离线阅读编辑

资源描述

上一页下一页home知识要点•●信息论中的有关概念:信息量,信息熵,冗余度•●统计编码•●预测编码•●变换编码•●混合编码上一页下一页home5.1概述•数据编码的目的各异–信息保密–信息的压缩存储与传输等•图像数据是一种十分重要且数据量大的信息源,特别是多媒体及网络技术兴起之后,它成为多媒体信息中的重要组成部分。•通过数码相机等获得大量照片、图片等静态图像信息并能够永久保存,在图像通信、多媒体网络通信中,压缩编码形成一系列的静态图像和视频图像压缩编码标准。•数码相机图像编码与压缩技术成功的范例。•本章主要介绍静态图像压缩编码的原理,应用上一页下一页home5.1.1数据压缩的基本概念•数据压缩–以较少的数据量表示信源以原始形式所代表的信息–目的在于节省存储空间、传输时间、信号频带或发送能量等。上一页下一页home数据压缩系统组成图上一页下一页home•编码对原始的信源数据进行压缩,便于传输和存储;解码是编码的反过程。•信源编码主要解决压缩的有效性,信道编码主要解决编码的可靠性,压缩主要靠前者,后者是压缩过程能够可靠实现的保证。课本主要讨论是信源编码。上一页下一页home熵(Entropy)•代表信源所含的平均信息量•若信源编码的熵大于信源的实际熵,则信源中的数据一定存在冗余度•冗余数据的去除不会减少信息量。•信息量与数据量的关系可由下式表示IDdu(5.1)上一页下一页home•在实际应用中,压缩过程赢尽量去除冗余量而不会或较少减少信息量,即压缩后的数据要能够完全或在一定容差内近似恢复。•压缩方法分类:无损(无失真)压缩方法:完全恢复被压缩信源信息的方法。有损(有失真)压缩方法:近似恢复被压缩信源信息的方法。采用同一压缩方法对同样的信源进行压缩,压缩成都越高,信息损失越大。只能在压缩程度和保真度之间权衡。上一页下一页home•采用数字技术之后使信号处理的性能大大提高,但是其数据量的增加也是十分惊人的。图像数据更是多媒体、网络通信等技术重点研究的压缩对象,不压缩的数据是计算机处理速度、通信信道的容量等无法承受的。5.1.2图像编码压缩的必要性上一页下一页home•图像信号的数据量可表示为•Vw·h·d/8(5.2)–V、w、h、d分别表示图像数据量(字节,byte,B)、图像宽度(像素数,pel)、图像高度(像素数,pel)、图像深度(位,bit)。•图像的尺寸为w·h。上一页下一页home典型图像的数据量图像种类图像参数数据量二值传真图像A4(210297mm)大小、172823762色分j辨率501KB灰度图像512512,8bit灰度等级256KBVGA图像640480256色300KBCIF视频图像352288256色,亮度取样率为3MHz,亮度和两色差按4∶1∶1取样,亮色量化位数共12bit,帧频29.97,按1s计算4.3MBHDTV亮度信号1280720,量化位数为8bit,帧频30Hz,按1s计算52.7MB上一页下一页home5.1.3图像编码压缩的可能性一般图像中存在着以下数据冗余因素:•编码冗余(信息熵冗余):对像素进行编码时,要建立表达图像信息的一系列符号的码本,如果码本不能使每个像素所需的平均比特数最小,说明存在编码冗余;即人们用于表达某一信息所需要的比特数总比理论上表示该信息所需要的最少比特数要大,之间的差距就是信息熵冗余。•:上一页下一页home•像素间的相关性形成的冗余:•在同一扫描行的邻近像素间、在同一帧的邻近行间、在活动图像中的同一位置的相邻帧像素间的灰度和色度往往相同或相近,称这相关性为像素间冗余或空间冗余。上一页下一页home•视觉特性和显示设备引起的冗余:•人类视觉系统的一般分辨率估计是26灰度等级,而图像的量化采用是28的灰度等级,称为视觉冗余。上一页下一页home5.1.4图像编码压缩的技术指标常用的图像压缩技术指标:•图像熵与平均码长•图像冗余度与编码效率•压缩比•客观评价SNR•主观评价上一页下一页home•图像熵:信源的平均信息量。•设数字图像像素灰度级集合为•(x1,x2,…,xk,…,xM),其对应的概率分别为p1,p2,…,pk,…,pM。按信息论中信源信息熵定义,数字图像的熵H为)(log)(1bitPPxHiiMi上一页下一页home性质:(1)当M级灰度出现的概率相等时,即有最大熵值:(2)在极端情况下,当或则表明确定性信号的熵值为0(3)随机性信号的熵非负,0H(x)=log2M(4)M为2的整数次幂时在各灰度等概率的情况下,p(xi)=2-L,H(x)=L在不等概率时H(x)LMxpi/1)(MxH2log)(0)(xp1)(xp0)(xH上一页下一页home•平均码字长度•设Li为数字图像第i个码字Ci的长度(二进制代数的位数),其相应出现的概率为Pi,则该数字图像所赋予的码字平均长度R为)()(1bitPLxRiiMi上一页下一页home•冗余度:•编码效率:xRxHr1rxRxH1上一页下一页home•压缩比:•定义为压缩前图像每像素码长的平均码长与压缩后每像素码长的平均码长之比。••压缩比值越大,压缩效率越高。MiNjcMiNjbcbrjirjirrrC11,,上一页下一页home•客观评价SNR:•SNR指压缩前的图像信号方差与解压缩后重建误差方差的比值。22lg10)(rxdBSNR上一页下一页home图像质量的主观评价等级评分评价说明5优秀图像质量非常好4良好图像质量高,有很小的干扰但不影响观看3中等图像质量可接受,但有一些干扰,对观看稍有妨碍2差图像质量差,对观看有妨碍1很差,劣图像质量很差,无法观看上一页下一页home图像编码主、客观评价的内在关系图像类型高分辨率广播电视普通数字广播电视数据库图像会议电视传输数码率客观评价SNR主观评价74Mb/s≧48dB≧4.5分34Mb/s≧43dB≧4.0分识别图像≧36dB≧3.0分64kb/s≧30dB≧2.5分压缩后图像上一页下一页home5.1.5数据压缩方法的分类1.无损压缩(LosslessCompression):•Huffman编码和Shannon编码根据概率分布特性确定码长。•游程编码:根据连续灰度的行程来确定编码。•算术编码:随信源数据不断缩小实数区间,然后用一个与实数对应的二进制码代表被编码的信息。•轮廓编码:根据相同灰度的区域边界线进行编码。上一页下一页home有损压缩(LossyCompression)•预测编码:根据相邻像素的相关性来确定后续像素的预测值,若用差值进行编码。•变换编码:对于原始图像进行正交变换,在变换域进行抽样达到压缩目的。•混合编码现代压缩编码方法:•分形编码•模型基(Model-based)编码上一页下一页home5.2统计编码(statisticcoding)•统计编码–根据信源的概率分布特性,分配具有惟一可译性的可变长码字,降低平均码字长度,以提高信息的传输速度,节省存储空间。•基本原理–在信号概率分布情况已知的基础上,概率大的信号对应的码字短,概率小的信号对应的码字长,这样就降低了平均码字长度。–各种统计编码的差异在于信号与编码对应的规则不同,性能也不同。上一页下一页home•变长最佳编码定理【定理】在变长编码中,对出现概率大的信息符号赋予短码字,而对于出现概率小的信息符号赋予长码字。如果码字长度严格按照所对应符号出现概率大小逆序排列,则编码结果平均码字长度一定小于任何其他排列方式。D.A.Huffman在1952年根据上述定理,提出了依据信源集中符号出现的概率分配不同长度的唯一可译码的算法。5.2.1Huffman编码上一页下一页home•1.前缀码(PrefixCode)•一组唯一可译码中任意一个码字都只与一个信号存在对应关系。为了译码需要,在唯一可译码中的前缀码保证任意一个码字都不是其他码字的前缀。•举例:有一维图像的符号集合f(i)={f(1),f(2),f(3),f(4)}•设定的码字集合c(i)={0,10,110,111}•若一前缀码为0101111100,译码输出信号?上一页下一页home4层树形结构的编码情况上一页下一页home2.Huffman编码算法:•①将图像的灰度等级按概率大小进行升序排序。•②在灰度级集合中取两个最小概率相加,合成一个概率。•③新合成的概率与其他的概率成员组成新的概率集合。•④在新的概率集合中,仍然按照步骤②~③的规则,直至新的概率集合中只有一个概率为1的成员。这样的归并过程可以用二叉树描述。•⑤从根节点按前缀码的编码规则进行二进制编码。上一页下一页homeHuffman编码示意图•左图所示为建立码的过程•右图所示为从根开始,经各中间节点到叶节点的路径采用二进制编码的情况上一页下一页home编码过程举例•第1行和第2行列举了一个信源的统计特性•结果如第三行所示符号集{xi}x1x2x3x4x5x6概率分布{pi}0.400.200.120.110.090.08Huffman编码101000000101100111上一页下一页home•信源的熵H(x)=2.31•哈夫曼编码的平均码字长度R(x)=2.37上一页下一页home3.Huffman编码的性能•优点:–实现Huffman编码的基础是统计源数据集中各信号的概率分布。–Huffman编码在无失真的编码方法中效率优于其他编码方法,是一种最佳变长码,其平均码长接近于熵值。•缺点:–当信源数据成分复杂时,庞大的信源集致使Huffman码表较大,码表生成的计算量增加,编译码速度相应变慢–不等长编码致使硬件译码电路实现困难。上述原因致使Huffman编码的实际应用受到限制。上一页下一页home4.图像的Huffman编译码系统上一页下一页home5.2.2Shannon编码与Fano编码•1.1948年,Shannon提出了将信源符号依其概率降序排列,用符号序列累积概率的二进制表示作为对信源的唯一可译编码。•其应用于图像编码的步骤如下:•(1)将N个灰度级xi按其概率递减进行排列。•(2)求概率分布pi的第i个灰度级的二进制位数ni。•(5.10)•(3)计算与pi相对应的累积概率Pi,把与Pi相对应的二进码和接下去与pk(ki)相应的码相比较,前面的ni位至少有一位以上的数字是不同的。1loglog22iiipnp上一页下一页home【例5.2】由表5.3计算该信源的Shannon编码•平均码字长度为2.92,较Huffman编码为长。上一页下一页home2.Fano编码步骤•(1)将图像灰度级xi其概率大小按递减顺序进行排序。•(2)将xi分成两组,使每组的概率和尽量接近。–给第一组灰度级分配代码“0”,第二组分配代码“1”。•(3)若每组还是由两个或以上的灰度级组成,重复上述步骤,直至每组只有一个灰度级为止。上一页下一页home【例5.3】图5.6以表5.3的信源为例说明Fano编码。上一页下一页home5.2.3算术编码•在信源各符号概率接近的条件下,算术编码是一种优于Huffman编码的方法。•20世纪60年代,R.Elias提出了一种与分组码有本质差别的编码方法:算术编码(arithmeticcoding)的概念,直到20世纪80年代才得以实现。•基本思想:按照符号序列的出现概率对概率区间分割,用一个实数代表一个数据流的输入符号,再将这个实数转化为一定位数的二进制代码。上一页下一页home•主要步骤:•(1)首先把当前区间定义为【0,1);•(2)对输入流中的每个符号s,重复下面的两步:•把当前区间分割为长度正比于符号概率的子区间;•为s选择一个子区间,并将其定义为新的当前区间;•(3)当把整个输入流处理完后,输出的即为能唯一确定当前区间的数字。上一页下一页home•【例6-1】根据信源的概率分布进行算术编码。已知信源的概率分布为•求二进制序列01011的编码。535210X上一页下一页

1 / 96
下载文档,编辑使用

©2015-2020 m.777doc.com 三七文档.

备案号:鲁ICP备2024069028号-1 客服联系 QQ:2149211541

×
保存成功