基于MeanShift的目标跟踪算法研究指导教师:摘要:该文把Itti视觉注意力模型融入到MeanShift跟踪方法,提出了一种基于视觉显著图的MeanShift跟踪方法。首先利用Itti视觉注意力模型,提取多种特征,得到显著图,在此基础上建立目标模型的直方图,然后运用MeanShift方法进行跟踪。实验证明,该方法可适用于复杂背景目标的跟踪,跟踪结果稳定。关键词:显著图目标跟踪MeanShiftMeanShiftTrackingBasedonSaliencyMapAbstract:Inthispaper,animprovedMeanShifttrackingalgorithmbasedonsaliencymapisproposed.Firstly,Ittivisualattentionmodelisusedtoextractmultiplefeatures,thentogenerateasaliencymap,Thehistogramofthetargetbasedonthesaliencymap,canhaveabetterdescriptionofobjectives,andthenuseMeanShiftalgorithmtotracking.ExperimentalresultsshowthatimprovedMeanShiftalgorithmisabletobeappliedincomplexbackgroundtotrackingtargetandtrackingresultsarestability.1引言MeanShift方法采用核概率密度来描述目标的特征,然后利用MeanShift搜寻目标位置。这种方法具有很高的稳定行,能够适应目标的形状、大小的连续变化,而且计算速度很快,抗干扰能力强,能够保证系统的实时性和稳定性[1]。近年来在目标跟踪领域得到了广泛应用[2-3]。但是,核函数直方图对目标特征的描述比较弱,在目标周围存在与目标颜色分布相似的物体时,跟踪算法容易跟丢目标。目前对目标特征描述的改进只限于选择单一的特征,如文献[4]通过选择跟踪区域中表示目标主要特征的Harris点建立目标模型;文献[5]将初始帧的目标模型和前一帧的模型即两者的直方图分布都考虑进来,建立混合模型;文献[6]提出了以代表图像的梯度方向信息的方向直方图为目标模型;文献[7-8]提出二阶直方图,是对颜色直方图一种改进,是以颜色直方图为基础,颜色直方图只包含了颜色分布信息,二阶直方图在包含颜色信息的前提下包含了像素的均值向量和协方差。文献[9]提出目标中心加权距离,为离目标中心近的点赋予较大的权值,离目标中心远的点赋予较小的权值。文献[4-9]都是关注于目标和目标的某一种特征。但是使用单一特征的目标模型不能适应光线及背景的变化,而且当有遮挡和相似物体靠近时,容易丢失目标;若只是考虑改进目标模型,不考虑减弱背景的干扰,得到的效果毕竟是有限的。针对上述问题,文本结合Itti提出的视觉注意模型[5],将自底向上的视觉注意机制引入到MeanShift跟踪中,提出了基于视觉显著图的MeanShift跟踪方法。此方法在显著图基础上建立目标模型,由此得到的目标模型是用多种特征来描述的,同时可以降低背景对目标的干扰。2基于视觉显著图的MeanShift跟踪方法对人类视觉系统(humanvisualsystem,HVS)研究发现,图像的主要信息只集中在少数的关键区域中,正确地提取这些关键区域,可以大大提高图像分析和处理的效率和准确度,降低计算的复杂度,避免不必要的计算资源浪费。在现存的众多视觉模型中,本文选取最具代表性的Itti视觉模型,它在特征提取阶段,采用多个低层视觉特征,如颜色、亮度、方向等;这些特征通过高斯金字塔和Center-Surround算子形成各个特征的关注图;然后将这些特征合成一幅显著图;再在显著图上,利用MeanShift进行迭代搜索。整个算法流程如图1所示。视频序列捕捉某一帧提取特征颜色亮度边缘高斯滤波器(5×5)Centersurround和归一化颜色显著图亮度显著图边缘显著图综合显著图MeanShift图1基于视觉显著图的MeanShift跟踪过程2.1视觉显著图的概念所谓的显著图[6],就是一幅和原始图像大小相同的二维“图像”,其中的每个象素值表示原图像对应点的显著性大小。2.2获取视觉显著图[7-9]Itti显著图原理是:(1)提取亮度、颜色和方向特征;(2)用高斯滤波器(5×5)对亮度、颜色和方向特征图像进行滤波,得到9层的高斯金字塔(其中第0层是原尺度图像,1到8层分别是为原尺度图像的1/2~1/256);(3)“中心—周围”差分(Center-surrounddifference)和归一化,获取亮度、颜色和方向特征图;(4)对特征图进行跨尺度融合及归一化后,合成视觉显著图。本文考虑到MeanShift对实时性的要求,考虑到采用方向特征的计算复杂度,本文主要采用颜色、亮度和边缘特征。2.2.1视觉特征提取1)获取颜色特征图HSV模型与人类对颜色的感知接近,它把彩色信息表示为3种属性:色调(H)、饱和度(S)、亮度(V)。其中的H表示色彩信息,既所处的光谱颜色的位置。本文采用HSV模型中的颜色分量H来提取颜色特征。颜色特征图由下式求出:H(c,s)=|H(c)ΘH(s)|(1)其中:c∈{2,3},s=c+δ,δ∈{3,4}。2)获取亮度特征图亮度特征代表了白色与黑色之间的一系列信息,有利于增强白黑或黑白之间的显著性。亮度特征图由下式求出:I(c,s)=|I(c)ΘI(s)|,(2)其中:c∈{2,3},s=c+δ,δ∈{3,4}。3)获取边缘特征图边缘能勾划出目标物体的轮廓,是图像的重要属性之一。人看到一个物体时,首先注意到是这个物体的轮廓特征,符合人类的视觉注意机制。边缘特征图由下式求出:E(c,s)=|E(c)ΘE(s)|(3)其中:c∈{2,3},s=c+δ,δ∈{3,4}。2.2.2生成视觉显著图由式(1)、式(2)和式(3)经获取颜色、亮度和边缘三个方面12张特征图,现在将每个方面的4个特征图组合成特征显著图,分别用H,I,E来表示。Itti在模型中定义了归一化算子N(⋅),来对每组特征图进行归一化,H,I,E分别由如下公式求得:)),((4332scHNHccsc(4))),((4332scINIccsc(5))),((4332scENEccsc(6)然后将H,I,E线性组合成视觉显著图。实验证明,本文的方法在保留图像特征的前提下,减少了MeanShift迭代次数,加快了收敛速度,更加适用于目标跟踪。原图H分量显著图亮度显著图边缘显著图视觉显著图图2显著图3MeanShift跟踪算法[10]MeanShift算法是一种半自动化跟踪算法。首先需要在起始帧内为选中的跟踪目标建立概率模型,即计算核函数窗口中的直方图分布。设初始内核窗口的带宽h,nxxx,,,21为内核窗口所包含采样点,0x为目标中心,则目标的直方图分布为:uxbhxxkCqiniiu)()(ˆ120mu,,1(7)本文是计算显著图中的直方图,公式同(7),在显著图中计算,减少了背景的干扰,更真实的反应跟踪目标的直方图特性。式中:k为核函数,m为特征空间中特征值的个数,为Kronecker函数,)(iyb为像素iy对应的特征值,C为归一化系数,h为核函数的带宽。位于y候选目标可以描述为uxbhyxkCpiniihuk)()(ˆ12(8)因此物体跟踪可以简化为寻找最优的y,使得)(ˆypu与uqˆ最相似。)(ˆypu与uqˆ的相似性用Bhattacharyya系数来度量,即muuuqypy1ˆ)(ˆ)((9)对应的迭代公式为niiiniiiihxygwhxygwxy1201201)ˆ()ˆ(ˆ(10)式中1ˆy为新的目标中心位置。其中muiuuiuxbypqw10)()ˆ(ˆˆ(11)迭代过程就是不断计算式(10),直至Bhattacharyya系数最大即定位为目标最终中心位置停止迭代。结果与分析图3跟踪结果本文利用Itti的显著图对图像进行处理,使得对图像特征的提取尽量丰富,有利于后续用MeanShift进行跟踪,为了测试本文方法的实际可靠性,我们选取中不同视频序列做测试,测试结果如图所示.从中可以看出,对于不同序列不同物体,,本文方法都能很好地进行跟踪,取得了很好的实验结果,目标跟踪稳定。实验证明,该方法可以实现对目标的准确跟踪定位,具有很高的抗干扰性能,适合复杂背景下的目标检测和跟踪。是将得到的多种特征的显著性度量结果合成为一幅显著图。本文在显著图的基础上,进行MeanShift目标跟踪,可以更好的跟踪目标,避免目标的丢失。参考文献[1]Comaniciu,D.,Ramesh,V.andMeer,P.,Real-TimeTrackingofNon-RigidObjectsusingMeanShift[J],IEEEComputerVisionandPatternRecognition,VolII,2000,142-149.[2]张旭光,赵恩良,王延杰.基于Mean-Shift的灰度目标跟踪新算法[J].光学技术,2007,Vol.33,No.2:226-228.[3]江淑红,汪沁,张建秋等.基于目标中心距离加权和图像特征识别的跟踪算法[J].电子学报,2006,Vol.34,No.7:1175-1180.[4]AlperYilmaz,KhurramShafique,MubarakShah.Targettrackinginairborneforwardlookinginfraredimagery[J].ImageandVisionComputing,2003,Vol.21:623-635.[5]IttiL,KochC,NieburE.AModelofSaliency-BasedVisualAttentionforRapidSceneAnalysis[J].IEEETransonPatternAnalysisandMachineintelligence(S1524-9050),1998,20:1254-1259[6]KochC,UllmanS.Shiftsinselectivevisualattention:towardstheunderlyingneuralcircuitry.HumanNeurobiology,1985,4(4):219-227[7]IttiL,KochC.Computationalmodellingofvisualattention[J].NatureReviewsNeuroscience,2001,2(3):194-230.[8]IttiL,KochC.Featurecombinationstrategiesforsaliencybasedvisualattentionsystems[J].JournalofElectronicImaging,2001,10(1):161-169.[9]NavalpakkamV,IttiL.Anintegratedmodeloftop-downandbottom-upattentionforoptimizingdetectionspeed[C]//IEEEComputerSocietyConferenceonComputerVisionandPatternRecognition.LosAlamitos,CA,USA:IEEEComputerSociety,2006:2049-2056[10]ComaniciuD.RameshV.MeerPKernel-basedobjecttracking2003(5)