目录绪论·······························································11数字图像处理技术·················································11.1数字图像处理的主要特点········································11.2数字图像处理的优点············································21.3数字图像处理过程··············································32数字图像处理的研究现状···········································42.1数字图像的采集与数字化········································42.2图像压缩编码··················································52.3图像增强与恢复················································82.4图像分割······················································92.5图像分析·····················································103数字图像处理技术的发展方向·······································13参考文献···························································14绪论图像处理技术基本可以分成两大类:模拟图像处理和数字图像处理。数字图像处理是指将图像信号转换成数字信号并利用计算机进行处理的过程。其优点是处理精度高,处理内容丰富,可进行复杂的非线性处理,有灵活的变通能力,一般来说只要改变软件就可以改变处理内容。困难主要在处理速度上,特别是进行复杂的处理。数字图像处理技术主要包括如下内容:几何处理、算术处理、图像增强、图像复原、图像重建、图像编码、图像识别、图像理解。数字图像处理技术的发展涉及信息科学、计算机科学、数学、物理学以及生物学等学科,因此数理及相关的边缘学科对图像处理科学的发展有越来越大的影响。数字图像处理的早期应用是对宇宙飞船发回的图像所进行的各种处理。到了70年代,图像处理技术的应用迅速从宇航领域扩展到生物医学、信息科学、资源环境科学、天文学、物理学、工业、农业、国防、教育、艺术等各个领域与行业,对经济、军事、文化及人们的日常生活产生重大的影响。数字图像处理技术发展速度快、应用范围广的主要原因有两个。最初由于数字图像处理的数据量非常庞大,而计算机运行处理速度相对较慢,这就限制了数字图像处理的发展。现在计算机的计算能力迅速提高,运行速度大大提高,价格迅速下降,图像处理设备从中、小型计算机迅速过渡到个人计算机,为图像处理在各个领域的应用准备了条件。第二个原因是由于视觉是人类感知外部世界最重要的手段。据统计,在人类获取的信息中,视觉信息占60%,而图像正是人类获取信息的主要途径,因此,和视觉紧密相关的数字图像处理技术的潜在应用范围自然十分广阔。近年来,数字图像处理技术日趋成熟,它广泛应用于空间探测、遥感、生物医学、人工智能以及工业检测等许多领域,并促使这些学科产生了新的发展。1数字图像处理技术1.1数字图像处理的主要特点(1)目前数字图像处理的信息大多是二维信息,处理信息量很大,因此对计算机的计算速度、存储容量等要求较高。(2)数字图像处理占用的频带较宽,与语言信息相比,占用的频带要大几个数量级。所以在成像、传输、存储、处理、显示等各个环节的实现上,技术难度较大,成本也高,这就对频带压缩技术提出了更高的要求。(3)数字图像中各个像素是不独立的,其相关性大。因此,图像处理中信息压缩的潜力很大。(4)由于图像是三维景物的二维投影,一幅图像本身不具备复现三维景物的全部几何信息的能力,很显然三维景物背后部分信息在二维图像画面上是反映不出来的。因此,要分析和理解三维景物必须作合适的假定或附加新的测量。在理解三维景物时需要知识导引,这也是人工智能中正在致力解决的知识工程问题。(5)数字图像处理后的图像一般是给人观察和评价的,因此受人的因素影响较大。由于人的视觉系统很复杂,受环境条件、视觉性能、人的情绪爱好以及知识状况影响很大,作为图像质量的评价还有待进一步深入的研究。。另一方面,计算机视觉是模仿人的视觉,人的感知机理必然影响着计算机视觉的研究,这些都是心理学和神经心理学正在着力研究的课题。1.2数字图像处理的优点(1)再现性好数字图像处理与模拟图像处理的根本不同在于,它不会因图像的存储、传输或复制等一系列变换操作而导致图像质量的退化,只要图像在数字化时准确地表现了原稿,则数字图像处理过程始终能保持图像的再现。(2)处理精度高按目前的技术,几乎可将一幅模拟图像数字化为任意大小的二维数组,现代扫描仪可以把每个像素的灰度等级量化为16位甚至更高,这意味着图像的数字化精度可以达到满足任一应用需求。。(3)适用面宽图像可以来自多种信息源,从图像反映的客观实体尺度看,可以小到电子显微镜图像,大到航空照片、遥感图像甚至天文望远镜图像。这些来自不同信息源的图像只要被变换为数字编码形式后,均是用二维数组表示的灰度图像组合而成,因而均可用计算机来处理。(4)灵活性高数字图像处理不仅能完成线性运算,而且能实现非线性处理,即凡是可以用数学公式或逻辑关系来表达的一切运算均可用数字图像处理实现。1.3数字图像处理过程由于数字图像处理的灵活性和方便性,所以数字图像处理已成为图像处理的主流。常见的数字图像处理有:图像的采集、数字化、编码、增强、恢复、变换、压缩、存储、传输、分析、识别、分割等,其处理流程如图1所示。图1数字图像处理流图(1)图像数字化通过取样和量化将一个以自然形式存在的图像变换为适合计算机处理的数字形式,图像在计算机内部被表示为一个数字矩阵,矩阵中每一元素称为像素。(2)图像的编码编码的目的是压缩图像的信息量(但图像质量几乎不变),以满足传输和存储的要求,为此,可以采用模拟处理技术,再通过模-数转换得到编码,不过多数是采用数字编码技术,其编码方法可以对图像逐点进行加工,也可以对图像施加某种变换或基于区域、特征进行编码。(3)图像增强图像增强目的是使图像清晰或将其转换为更适合人或机器分析的形式,常用的图像增强方法有:灰度等级直方图处理、干扰抵制、边缘锐化、伪彩色处理。(4)图像恢复其目的是除去或减少在获得图像过程中因各种原因产生的退化,可能是光学系统的像差或离焦、摄像系统与被摄物之间的相对运动、电子或光学系统的噪声和介于摄像系统与被摄像物间的大气湍流。(5)图像分割将图像划分为一些互不重叠的区域,每一区域是像素的一个连图像输入设备A/D键盘显示器主计算机D/A监视器续集,通常采用把像素分入特定区域的区域法和寻求区域之间边界的境界法,这2种方法都可以利用图像的纹理特性实现图像分割。(6)图像分析从图像中抽取某些有用的度量、数据或信息,其目的是得到某种数值结果。图像分析的内容和模式识别、人工智能的研究领域有交叉,但图像分析与典型的模式识别有区别。图像分析需要用图像分割方法抽取出图像的特征,然后对图像进行符号化的描述,这种描述不仅能对图像中是否存在某一特定对象作出回答,还能对图像内容作出详细描述。图像处理的各个内容是互相有联系的,一个实用的图像处理系统往往结合几种图像处理技术才能得到所需要的结果,图像数字化是将一个图像变换为适合计算机处理的形式的第1步,图像编码可用以传输和存储图像。。图像增强和复原可以是图像处理的最后目的,也可以是为进一步的处理作准备。通过图像分割得出的图像特征可以作为最后结果,也可以作为下一步图像分析的基础。2数字图像处理的研究现状2.1数字图像的采集与数字化图像的采集是数字图像处理的第1步,采集并不局限于对人眼视觉功能的模仿,更是对人类认识、分析手段的拓展。在医学、天文学、自动字体识别、机器视觉、军事识别、指纹自动处理和血样分类处理等多个方面都不同程度地运用了图像提取技术。图像提取技术源自于电影和视频产品的发展。其中,最具影响力的研究是由Porter和Duff提出的通道概念,对图像提取技术的离散特性进行了规范,为这一研究领域奠定了基础,使其成为图像处理领域一个较独立的重要分支。20世纪60年代,由于当时的图像提取技术还未成形,人们主要依赖于用拍摄技巧弥补后期制作的不足。随着当时计算机应用的发展,图像处理技术获得了更加广阔的发展空间,各种各样的处理技术和方法也相应而生。如四元组像素的提出以及Blinn对计算机领域所运用到的像素进行的全面诠释。20世纪90年代初期,学者们逐渐认识到要实现信息的精确提取是非常困难和费时的,对于稍复杂的图像或视频,其代价十分巨大。所以学者们开始考虑借助数学和概率统计学的原理来寻求更优解,而不再强调最优解。图像提取技术的发展过程经历了以下4个发展阶段:(1)萌芽阶段通过拍摄时的布景实现提取条件。(2)初期阶段以四元像素和数字化为基础,建立了独立的分支学科(3)飞跃阶段以概率统计学原理为基础的提取。(4)分化阶段认识到视频中帧与帧之间存在相关性,产生了专门用于视频提取的方案。但由于自然色彩分布的复杂性,至今没有被广泛认可的模型,也没有系统的、统一的评价标准。所以说,图像提取技术的成熟还有待时日,并依赖于其它学科及计算机硬件技术的发展。由于图像提取涉及的学科领域比较广泛,学者们对待该问题的研究角度和出发点各不相同,目前已有的概念和模型有:Porter&Duff模型、Blinn模型、Knockout模型、Ruzon&Tomasi模型、Bayesian模型、Poisson模型、Chuang&Agarwala模型、YinLi&JianSun模型。比较分析上述模型、可以发现:Porter&Duff模型、Blinn模型将图像提取问题规范化,是后续研究的重要基础;Knockout模型是对Porter&Duff模型、Blinn模型的有益扩展,使之实用意义更大,在实际运用中效率更高。虽然Ruzon&Tomasi模型、Bayesian模型、Poisson模型采用的具体概率统计方法各异,但这些模型都是先对图像进行初始化,生成Trimap——前景、背景、交界区域,研究对象都是交界区域的α值。Chuang&Agarwa2la模型、YinLi&JianSun模型以视频提取为研究目的,引人了帧间信息相关性的概念,实现了视频的半自动提取。目前为止,图像提取技术根据需求的不同出现了2种研究思路:一种更注重提高α值的精确度,追求精确完美的效果;另一种则更注重提高提取的效率、实时性及自动化程度。目前,图像提取技术的研究活动主要集中在以下5个方面:(1)拍摄设备、拍摄方法及技巧;(2)分割技术;(3)人机交互操作接口;(4)面向对象的提取技术;(5)前景与背景间交界区域估计模型。2.2图像压缩编码作为通信、介质存贮、数据发送、多媒体计算机等技术的关键环节,图像压缩编码算法的研究是信息技术中最活跃的研究领域之一。尤其是进入21世纪以后,电子技术和通信技术的发展使可视电话、会议电视、数字电视、高清晰度电视、多媒体计算机、信息高速公路等的生产和建立成为可能。在这一背景下,探索高效图像压缩编码算法无疑将成为主要任务之一,对其研究也将成为国际公认的热点之一。为了使有限的符号表达更多的信息量,图像压缩既非常必要,也有可能,因此产生了各种各样的图像压缩方法。图像压缩编码用尽可能少的数据表示信源发出的图像信号,以减少容纳给定消息集合的信号空间。通过对图像数据的压缩减少数据占用的存储空间,从而减少传输图像数据所需的时间和信道带宽。图2为图像压缩系统模型,图像压缩编码算法的研究历程可分为如下2个阶段。图2