电视原理视频压缩技术

整理文档很辛苦,赏杯茶钱您下走!

免费阅读已结束,点击下载阅读编辑剩下 ...

阅读已结束,您可以下载文档离线阅读编辑

资源描述

电视原理第三章视频压缩技术12/39视频压缩技术数字电视-视频压缩的位置1视频压缩技术基本原理2视频压缩技术3思考和习题43/39视频压缩技术数字电视-视频压缩的位置1视频压缩技术基本原理2视频压缩技术3思考和习题44/391.数字电视模拟电视最明显的缺点是在传输过程中图像质量的损伤,信号的非线性失真积累图像对比度会产生越来越大的畸变,长距离传输后,图像的信噪比也会下降,图像的清晰度越来越低,相位失真的累积也会使得图像产生彩色失真、镶边和重影。稳定度差、可靠性低、调整不便、集成、自动控制困难等缺点5/391.数字电视数字电视从节目采集、编辑制作到信号的发送、传输和接收全部采用数字处理,其中利用了先进的数字图像压缩技术、数字信号纠错编码技术、高效的数字信号调制技术等。在处理、传输过程中引入的噪波只要幅度不超过一定的门限都可以被清除掉,即使有误码,也可利用纠错技术纠正过来,所以数字电视接收的图像质量较高。数字电视采用压缩编码技术,在只能传送一套模拟电视节目的频带内传送多套数字电视节目,电视频道数会相应地迅速增多。6/391.数字电视系统数字电视便于开展多种数字信息服务,如数据广播、文字广播等。数字电视容易实现加密、加扰,便于开展各类收费业务。数字电视广播系统系统由信源编码、多路复用、信道编码、调制、信道和接收机六部分组成。信道接收机调制信道编码多路复用音频压缩视频压缩信源编码视频音频辅助数据控制数据7/391.数字电视系统信源编码是对视频、音频、数据进行的编码,图像压缩编码都属于信源编码,数字电视按照MPEG-2标准(详见6.3.6节)进行信源编码,辅助数据可以是独立的数据业务,也可以是和视频、音频有关的数据,如字幕等。信源编码是为了提高数字通信传输效率而采取的措施,是通过各种编码尽可能地去掉信号中的冗余信息,以降低传输速率和减少传输频带宽度。(视频、音频、数据的压缩)信道接收机调制信道编码多路复用音频压缩视频压缩信源编码视频音频辅助数据控制数据8/391.数字电视系统多路复用是将视频、音频和数据等各种媒体流按照一定的方法复接成一个单一的数据流。信道编码是指纠错编码,是为提高数字通信传输的可靠性而采取的措施。为了能在接收端检测和纠正传输中出现的错误,在发送的信号中增加一部分冗余码,因此信道编码增加了发送信号的冗余度,它是以牺牲信息传输的效率来换取可靠性的。数字通信系统是达到高效率和可靠性的最佳折衷,信源编码和信道编码都是必不可少的处理步骤。信道接收机调制信道编码多路复用音频压缩视频压缩信源编码视频音频辅助数据控制数据9/391.数字电视系统调制是根据传输信道的特点采用的效率较高的信号调制方式。QAM、QPSK、TCM、COFDM和VSB信道有卫星信道、有线电视信道和地面广播信道等卫星-大面积有线-城镇地面广播信道-简单、移动信道接收机调制信道编码多路复用音频压缩视频压缩信源编码视频音频辅助数据控制数据10/391.数字电视系统接收机包括解调、信道解码、解复用、视音频解压缩、显示格式转换等。数字电视分为标准清晰度电视和高清晰度电视。信道接收机调制信道编码多路复用音频压缩视频压缩信源编码视频音频辅助数据控制数据11/39视频压缩技术数字电视-视频压缩的位置1视频压缩技术基本原理2视频压缩技术3思考和习题412/392.视频压缩基本原理视频信号压缩的可能性视频数据中存在着大量的冗余,即图像的各像素数据之间存在极强的相关性。利用这些相关性,一部分像素的数据可以由另一部分像素的数据推导出来,结果视频数据量能极大地压缩,有利于传输和存储。例子:x,y,z,…y=f(x),z=g(x)f(),g()的信息量y,z13/392.视频压缩基本原理---冗余视频数据主要存在以下形式的冗余1.空间冗余视频图像在水平方向相邻像素之间、垂直方向相邻像素之间的变化一般都很小,存在着极强的空间相关性。特别是同一景物各点的灰度和颜色之间往往存在着空间连贯性,从而产生了空间冗余,常称为帧内相关性。2.时间冗余在相邻场或相邻帧的对应像素之间,亮度和色度信息存在着极强的相关性。当前帧图像往往具有与前、后两帧图像相同的背景和移动物体,只不过移动物体所在的空间位置略有不同,对大多数像素来说,亮度和色度信息是基本相同的,称为帧间相关性或时间相关性。14/392.视频压缩基本原理---冗余3.结构冗余在有些图像的纹理区,图像的像素值存在着明显的分布模式。如方格状的地板图案等。已知分布模式,可以通过某一过程生成图像,称为结构冗余。4.知识冗余有些图像与某些知识有相当大的相关性。如人脸的图像有固定的结构,嘴的上方有鼻子,鼻子的上方有眼睛,鼻子位于脸部图像的中线上。这类规律性的结构可由先验知识得到,此类冗余称为知识冗余。15/392.视频压缩基本原理---冗余5.视觉冗余人眼具有视觉非均匀特性,对视觉不敏感的信息可以适当地舍弃。在记录原始的图像数据时,通常假定视觉系统是线性的和均匀的,对视觉敏感和不敏感的部分同等对待,从而产生了比理想编码(即把视觉敏感和不敏感的部分区分开来编码)更多的数据,这就是视觉冗余。人眼对图像细节、幅度变化和图像的运动并非同时具有最高的分辨能力图像的空间分解力和时间分解力的要求具有交换性当对一方要求较高时,对另一方的要求就较低。对静止图像或慢运动图像降低其时间轴抽样频率,例如每两帧传送一帧;对快速运动图像降低其空间抽样频率16/392.视频压缩基本原理---冗余人眼视觉对图像的空间、时间分解力的要求与对幅度分解力的要求也具有交换性,对图像的幅度误差存在一个随图像内容而变的可觉察门限,低于门限的幅度误差不被察觉,在图像的空间边缘(轮廓)或时间边缘(景物突变瞬间)附近,可觉察门限比远离边缘处增大3~4倍,这就是视觉掩盖效应。图像的平缓区或正交变换后代表图像低频成分的系数细量化(数据量大)图像轮廓附近或正交变换后代表图像高频成分的系数粗量化(数据量小)景物的快速运动粗量化慢速细量化17/39视频压缩技术数字电视-视频压缩的位置1视频压缩技术基本原理2视频压缩技术3思考和习题418/393.视频压缩技术数字化和压缩模数转换(A/D)和(D/A)取样连续信号离散信号量化离散信号整数化离散信号PCM信号取样模拟电视信号取样脉冲量化编码解码插入滤波PCM信号模拟电视信号(a)(b)19/393.1取样和量化奈奎斯特取样定理(Nyquist)香农定理(Shannon)理想取样时,只要取样频率大于或等于模拟信号中最高频率的两倍,就可以不失真地恢复模拟信号,称为奈奎斯特取样定理。模拟信号中最高频率的两倍称为折叠频率。20/393.1取样和量化量化电平数字信号量化间隔幅度均匀量化非均匀量化Q(quantizaton)Q-1(InverseQ)025521/393.1取样和量化量化过程相当于由输入值找到它所在的区间号,反量化过程相当于由量化区间号得到对应的量化电平值。量化区间总数远远少于输入值的总数,所以量化能实现数据压缩。反量化后并不能保证得到原来的值,因此量化过程是一个不可逆过程,用量化的方法来进行压缩编码是一种非信息保持型编码。(有损)通常这两个过程均可用查表方法实现,量化过程在编码端完成,而反量化过程则在解码端完成。22/393.1取样和量化取样和量化后一连串的0~255之间的正整数125126127125126128120123125110130313830120140132431401231221214912311013313434135109138122451295031383050125,126,127,125,126,128,120,123,125,110,130,31,38,30,120,140,132,43,140,123……23/393.2混合编码(HybridVideoCoding)源视频FrameMemoryDCT量化(Q)VLCcoder(熵编码)缓存(Buffer)反量化(Q-1)DCT-1FrameMemory动态补偿(MotionCompensation)动态预测(MotionEstimation)+++_预测帧(Predictiveframe)动态补偿向量(MotionVectors)Regulator变换编码(TransformCoding)预测编码(PredictiveCoding)熵编码(EntropyCoding)24/393.2.1熵编码熵编码(EntropyCoding)符号编码(SymbolCoding)无损编码可以完美还原,无误差熵:体系的混乱程度混沌,无序原本是热力学中用来度量热力学系统无序性的一种物理量。信息熵:信息有多少?如何度量?Shannon指出,任何信息都存在冗余,冗余大小与信息中每个符号(数字、字母或单词)的出现概率或者说不确定性有关。Shannon借鉴了热力学的概念,把信息中排除了冗余后的平均信息量称为“信息熵”,并给出了计算信息熵的数学表达式25/39熵的定义26/39信息熵的作用数据压缩技术的理论基础就是信息论。信息论中的信源编码理论解决的主要问题:(1)数据压缩的理论极限;(2)数据压缩的基本途径。根据信息论的原理,可以找到最佳数据压缩编码的方法,数据压缩的理论极限是信息熵。如果要求编码过程中不丢失信息量,即要求保存信息熵,这种信息保持编码叫熵编码,是根据消息出现概率的分布特性而进行的,是无损数据压缩编码。A,B,C,D四个符号,出现概率均为¼.H=2bit,压缩的理论极限00,01,10,1127/39例子一幅256级的灰度图像,如果每种灰度的像素点出现的概率平均,则编码每个像素需要多少位?HS=1256255𝑖=0𝑙𝑜𝑔211/25628/393.2熵编码目标:编码后的平均码长更接近信源的熵(理论极值)原理:对信源中出现概率较大的符号赋以短码对信源中出现概率较小的符号赋以长码从而在统计上获得较短的平均码长。所编的码即时可译(可解码,(decode)某一个码不会另外任何一个码的前缀例:01100101011100…A(0.5)0B(0.3)10C(0.1)110D(0.1)111A(0.5)0B(0.3)10C(0.1)110D(0.1)101A-C-A-B-B-D-A-A-(1)(2)29/39定长、可变长和熵定长编码和可变长编码的平均码长(每个符号)定长:0.5*2+0.3*2+0.1*2+0.1*2=2bits可变长:0.5*1+0.3*2+0.1*3+0.1*3=1.7bits熵:0.5*log2(1/0.5)+0.3*log2(1/0.3)+0.1*log2(1/0.1)+0.1*log2(1/0.1)=0.5*1+0.3*1.737+0.1*3.32+0.1*3.32=1.6851bitsA(0.5)000B(0.3)0110C(0.1)10110D(0.1)1111130/393.2熵编码---霍夫曼(Huffman)编码一种可变长编码(1)将输入信号符号以出现概率由大至小为序排成一列。(2)将两处最小概率的符号相加合成为一个新概率,再按出现概率的大小排序。(3)重复步骤(2),直至最终只剩两个概率。(4)编码从最后一步出发逐步向前进行,概率大的符号赋予“0”码,另一个概率赋予“1”码,直至到达最初的概率排列为止。31/39霍夫曼编码输入电平概率L1L2L3L4L5L60.40.30.10.10.060.040.40.30.10.10.1“0”“1”“0”“1”0.40.30.20.1“0”“1”0.40.30.3“0”“1”0.60.4“0”“1”编码100011010001010010110.50.30.10.1ABCD0.50.30.20.50.5101001101011011132/39问

1 / 81
下载文档,编辑使用

©2015-2020 m.777doc.com 三七文档.

备案号:鲁ICP备2024069028号-1 客服联系 QQ:2149211541

×
保存成功