1.3图像融合算法分类从不同的角度可以将图像融合算法分为不同的类别。本节主要介绍根据图像源的不同,以及图像融合在处理流程中所处的不同阶段进行的两种分类。1.3.1图像融合的图像源根据图像源的不同,图像融合可以分为:同类传感器图像融合、异类传感器图像融合和遥感图像融合。(1)同类传感器图像融合主要是指同一种传感器在不同工作模态下所获得图像的融合,包括多聚焦图像融合,多曝光图像融合等。其中我们重点研究多聚焦图像的融合。多聚焦图像就是同种光学传感器在不同聚焦点获得的图像,对该类图像的融合主要是确定源图像中哪一部分的图像为聚焦良好而得到的清晰图像,哪一部分为因离焦而形成的模糊图像,从而得到全局聚焦良好的融合图像。(2)异类传感器图像融合主要是指由多个成像机理不同的异类传感器获得的图像的融合,包括红外图像与可见光图像的融合、毫米波雷达图像与可见光图像的融合、CT图像与MRI图像的融合等。例如,可见光图像传感器主要根据物体的光谱反射特性成像,而红外图像传感器主要根据物体的热辐射特性成像。因而,通常情况下,可见光图像能够很好地描述场景中的环境信息,而红外图像能够很好地给出目标存在特性和位置特性。这两种图像的融合就是将红外图像中的目标存在特性和可见光图像中的背景信息有机地结合在一起,从而进一步提高图像对目标的侦测和对环境的释义能力。(3)遥感图像融合遥感图像的融合可以是同种图像传感器按不同成像机理和不同工作模式下获得的图像的融合,如IKONOS卫星的多光谱图像和全色波段图像的融合;也可以是不同图像传感器获得的图像的融合,如LandsatTM多光谱图像和SPOT全色波段图像的融合。IKONOS卫星的多光谱图像和全色波段图像融合的目的就是利用全色波段图像的空间细节信息和多光谱图像丰富的光谱信息融合得到具有高空间分辨率的多光谱图像,在提高多光谱图像空间分辨率的同时,尽可能地降低光谱失真度。