非线性编辑:非线性编辑系统是把输入的各种视音频信号进行A/D(模/数)转换,采用数字压缩技术存入计算机硬盘中。非线性编辑没有采用磁带,而是使用硬盘作为存储介质,记录数字化的视音频信号,由于硬盘可以满足在1/25(PAL)秒内任意一帧画面的随机读取和存储,从而实现视音频编辑的非线性。非线性编辑系统将传统的电视节目后期制作系统中的切换机、数字特技、录像机、录音机、编辑机、调音台、字幕机、图形创作系统等设备集成于一台计算机内,用计算机来处理、编辑图像和声音,再将编辑好的视音频信号输出,通过录像机录制在磁带上。对于能够编辑数字视频数据的软件也称为非线性编辑软件。非线性编辑的特点:非线性视频编辑是对数字视频文件的编辑和处理,它与计算机处理其它数据文件一样,在微机的软件编辑环境中可以随时、随地、多次反复地编辑和处理。而非线性编辑系统在实际编辑过程中只是编辑点和特技效果的记录,因此任意的剪辑、修改、复制、调动画面前后顺序,都不会引起画面质量的下降,克服了传统设备的致使弱点。非线性编辑系统设备小型化,功能集成度高,与其他非线性编辑系统或普通个人计算机易于联网形成网络资源的共享。高清和标清近年来,随着高清电视技术的日新月异,给电视摄像和后期制作领域带来了巨大的冲击和革新。在我国,国家批准运营数字付费电视的平台主要有四个,除了央视的中视传媒之外,还有上海文广互动、中影集团和北广鼎视传媒。其中,上海文广的“新视觉”高清频道于2006年1月1日与央视高清频道“高清影视”同时开播,中影集团的高清电影频道也于4月开播。按照国家广电总局对高清频道的规划:2008年,我国将开播地面高清电视;2010年我国要达到10套以上高清频道节目制作能力。目前,正有越来越多的影视机构和制片公司开始出品高清广告、纪录片、电视剧等等。可以预见,在未来短短几年间,传统的标清势必逐渐退出历史舞台,高清将成为电视制播的新标准。高清最大的优势就是较之标清而言,具有更高的画面清晰度。以HDTV(高清晰度电视)为例:从视觉效果来看,其图像质量可达到或接近35mm宽银幕电影的水平,它要求视频内容和显示接收设备水平分辨率达到1000线以上,分辨率最高可达1920×1080。从画质来看,由于高清的分辨率基本上相当于传统模拟电视的4倍,画面清晰度、色彩还原度都要远胜过传统电视。同时,4:3的画幅变为了16:9,更符合人们的视觉习惯,而且由于画幅正好可以适应人眼的视角范围,不会浪费,也不会溢出,因此,“16:9”又被誉为视觉的黄金比例。从拍摄上来看,由于需要被摄主体的最清晰影像,就必须在所用焦距状态下直接精确调焦,否则即使是微量的焦点漂移,也将被高清电视清楚地放大在观众面前。因此,应该尽量多用定焦和广角,对运动物体尽量少用推拉摇的手法。现场最好能在高清监视器中监看。其次由于高清画面本身的特点,许多传统上可以忽略的非主体画面的细节,如某些灯光、道具等,也会清晰地表现在屏幕上,这就需要制作人员应以新的标准来处理从前期至后期的各个环节,来符合高清影视的要求。总体来说,高清时代的来临对广大专业影视人来说,就意味着意识、技术、软件和硬件方面的巨大革新。RGB和YUVRGB是红绿蓝三原色的意思,R=Red、G=Green、B=Blue。亮度信号被称作Y,色度信号是由两个互相独立的信号组成。视颜色系统和格式不同,两种色度信号经常被称作U和V或Pb和Pr或Cb和Cr。这些都是由不同的编码格式所产生的,但是实际上,他们的概念基本相同。在DVD中,色度信号被存储成Cb和Cr(C代表颜色,b代表蓝色,r代表红色)。视频工程师发现:人类视网膜上的视网膜杆细胞要多于视网膜锥细胞,由于杆细胞的作用是识别亮度,而锥细胞的作用是识别色度,所以,人眼对色度的敏感程度要低于对亮度的敏感程度。由于这个理由,在我们的视频存储中,没有必要存储全部颜色信号——既然眼睛看不见,那为什么要浪费存储空间(或者金钱)来存储它们呢?视频制播系统中,YUV可以说是一种最经济有效的色彩处理方式。色度信号分辨率最高的格式是4:4:4,也就是说,每4个Y采样,就有相对应的4个Cb和4个Cr。这种格式主要应用在视频处理设备内部,避免画面质量在处理过程中降低。4:2:2表示,每4个Y采样,就有2个Cb和2个Cr。在这种格式中,色度信号的扫描线数量和亮度信号一样多,但是每条扫描线上的色度采样点数却只有亮度信号的一半。当4:2:2信号被解码的时候,“缺失”的色度采样,通常由一定的内插补点算法通过它两侧的色度信息运算补充。如上文所述,人眼对色度的敏感程度不如亮度,因此大多数人并不能分辨出4:4:4和4:2:2画面之间的不同。4:2:0的意思是,色度采样在每条横向扫描线上只有亮度采样的一半,扫描线的条数上,也只有亮度的一半。换句话说,无论是横向还是纵向,色度信号的分辨率都只有亮度信号的一半。举个例子,如果整张画面的尺寸是720*480,那么亮度信号是720*480,色度信号只有360*240。在4:2:0中,“缺失”的色度采样不单单要由左右相邻的采样通过内插补点计算补充,整行的色度采样也要通过它上下两行的色度采样通过内插补点运算获得。帧与场电视信号是通过摄像机对自然景物的扫描并经光电转换形成的。扫描方式分为“逐行扫描”和“隔行扫描”。“逐行扫描”指每幅图像均是由电子束顺序地一行接一行连续地扫描。这样扫描的一幅画面称为一帧。如果要运动画面不出现闪烁的话,则画面扫描的频率需要超过人眼的临界闪烁频率45.8Hz,即每秒不低于46次。这对电视制播和信号传输设备提出了相当高的要求,所以无论PAL制或NTSC制主要仍使用“隔行扫描”来处理电视信号。PAL制式,扫描的频率是每秒钟50场(奇数场和偶数场各25帧),25帧图像,帧频25Hz,场频50Hz。NTSC制式,扫描的频率是每秒钟60场(奇数场和偶数场各30帧),30帧图像,帧频30Hz,场频60Hz。隔行扫描的行扫描频率是逐行扫描的一半,将每帧图像分奇数、偶数行分开传输,然后在接收端重组,这样可以降低对带宽的压力。对于这两个相邻的场,由于是实时拍摄的,所以它们存在时间差(对于PAL/25fps来说,误差就为1/50秒)。所以隔行扫描在带来传输信道带宽利用率高的同时,图像质量下降也随之而来。尤其是运动的画面,单独来看的话,运动物体边缘将出现锯齿状——这是隔行扫描所特有的正常现象。因此,一些在PC机显示器上清晰锐利的“帧”,往往在实际电视屏幕上(隔行扫描)出现严重的抖动或锯齿条纹,专业的影视制作人员应对此特别引起注意,制作过程中尽量采用隔行扫描的监视器同步监看。由于统一的视频制式工业规范标准,当使用非编卡通过复合口、S—video口或模拟分量在内同步时采集的画面基本是上场优先,外同步和数字信号如SDI则由输入设备决定。使用1394口采集DV时绝大多数是下场优先。输出到磁带:1394口输出DV仍用下场,其他大多用上场,尽量与输入时一致。制作VCD/DVD:VCD不带场。用于PAL电视播出的DVD一般带上场。PC播放视频:由于PC显示器都是逐行扫描,所以可以用“无场”。近年来,随着相关软硬件的不断发展,新兴的数字电视越来越青睐于画质清晰的逐行扫描方式,有理由相信,在不久的将来,逐行扫描会成为电视制播的主流方式。MPEG压缩方式MPEG的全称是(移动影像专家组),组建于1988年,目的是为传送音频和视频制定标准。MPEG-1:广泛地应用在VCD的制作和一些视频片段下载的网络应用上面,可以说99%的VCD都是用MPEG1格式压缩的。MPEG1的像质等同于VHS,存储媒体为CD-ROM,图像尺寸320×240,音质等同于CD,比特率为1.5Mbps。该标准分三个部分:1.系统:控制将视频、音频比特流合为统一的比特流。2.视频:基于H.261和JPEG。3.音频:基于MUSICAM技术。MPEG-2通常用来为广播信号提供视频和音频编码,包括数字卫星电视、有线电视等。MPEG-2经过少量修改后,也成为DVD产品的核心技术。MPEG-2的系统描述部分定义了传输流,它是一套在非可靠介质上传输数字视频信号和音频信号的机制,主要用在广播电视领域。MPEG-2的第二部分即视频部分和MPEG-1类似,但是它提供对隔行扫描视频显示模式的支持(隔行扫描广泛应用在广播电视领域)。MPEG-2视频并没有对低比特率(小于1Mbps)进行优化,在3Mbit/s及以上比特率情况下,MPEG-2明显优于MPEG-1。MPEG-2向后兼容,也即是说,所有符合标准的MPEG-2解码器也能够正常播放MPEG-1视频流。MPEG-2技术也应用在了HDTV传输系统中。MPEG-2的第三部分定义了音频压缩标准。该部分改进了MPEG-1的音频压缩,支持两通道以上的音频。MPEG-2音频压缩部分也保持了向后兼容的特点。MPEG-3:原本针对于HDTV(1920×1080),后来被MPEG-2代替。我们目前习惯的MP3,并不是MPEG-3,而是MPEG1layer3,属于MPEG1中的音频部分。MPEG-4:MPEG4于1998年11月公布,原预计1999年1月投入使用的国际标准MPEG4不仅是针对一定比特率下的视频、音频编码,更加注重多媒体系统的交互性和灵活性。MPEG专家组的专家们正在为MPEG-4的制定努力工作。MPEG-4标准主要应用于视像电话,视像电子邮件和电子新闻等,其传输速率要求较低,在4800-64000bits/sec之间,分辨率为176X144。MPEG-4利用很窄的带宽,通过帧重建技术,压缩和传输数据,以求以最少的数据获得最佳的图像质量。与MPEG-1和MPEG-2相比,MPEG-4的特点是其更适于交互AV服务以及远程监控。MPEG-4是第一个使你由被动变为主动(不再只是观看,允许你加入其中,即有交互性)的动态图像标准;它的另一个特点是其综合性;从根源上说,MPEG-4试图将自然物体与人造物体相溶合(视觉效果意义上的)。MPEG-4的设计目标还有更广的适应性和可扩展性。MPEG-7:于1996年10月开始研究。确切来讲,MPEG-7并不是一种压缩编码方法,其正规的名字叫做多媒体内容描述接口,其目的是生成一种用来描述多媒体内容的标准,这个标准将对信息含义的解释提供一定的自由度,可以被传送给设备和电脑程序,或者被设备或电脑程序查取。MPEG-7并不针对某个具体的应用,而是针对被MPEG-7标准化了的图象元素,这些元素将支持尽可能多的各种应用。建立MPEG-7标准的出发点是依靠众多的参数对图象与声音实现分类,并对它们的数据库实现查询。MPEG2的编码形式MPEG-2的编码图像被分为三类,分别称为I帧,P帧和B帧。I帧是帧内压缩,不使用运动补偿,提供中等的压缩比。由于I帧不依赖于其他帧,所以是随机存取的入点,同时是解码中的基准帧。p帧根据前面的I帧或P帧进行预测,使用运动补偿算法进行压缩,因而压缩比要比I帧高,数据量平均达到I帧的1/3左右。P帧是对前后的B帧和后继的P帧进行解码的基准帧。P帧本身是有误差的,如果P帧的前一个基准帧也是P帧,就会造成误差传播。B帧是基于内插重建的帧,它基于前后的两个I、P帧或P、P帧,它使用双向预测,数据量平均可以达到I帧的1/9左右。B帧本身不作为基准,因此可以在提供更高的压缩比的情况下不传播误差。MPEG-2的编码码流分为六个层次。为更好地表示编码数据,MPEG-2用句法规定了一个层次性结构。它分为六层,自上到下分别是:图像序列层、图像组、图像、宏块条、宏块、块图像组GOPGOP策略影响编码质量:所谓GOP,意思是画面组,一个GOP就是一组连续的画面。一个GOP由一串IBP帧组成,起始为I帧。GOP的长度是一个I帧到下一个I帧的间隔,一般用N表示。这个长度是可变的,长GOP可以提供高的压缩比,但是会造成随机存取的延迟(必须等到下一个I帧)和误差的积累(P帧的误差传播)。一般是一秒内有两个I帧,用来作为随机存取的入口。MPEG-2传送流和节目流在MPEG-2系统中,信息复合/分离的过程称为系统复接/分接,由视频、音频的ES流和