电子设计工程
Electronic Design Engineering
第26卷Vol.26第1期No.12018年1月Jan.2018
收稿日期:2016-09-20
稿件编号:201609180
基金项目:国家自然科学基金(51278058);教育部博士点基金新教师项目(20120205120002)
作者简介:康晓梅(1987—),女,陕西榆林人,硕士,助教。研究方向:图像处理、数据库技术及应用。
基于视频图像的运动目标检测及跟踪是计算机视觉研究领域的研究热点,在智能交通控制系统中的交通信息采集以及智能化视频监控系统中均有广阔的应用前景[1]。运动目标的检测与跟踪通常被分为两个独立的部分,分别采用不同的算法机制来实现[2]。针对摄像机运动情况下的目标检测,文献[3]采用基于光流法的运动目标检测方法,通过对独立运动目标进行光流分析,以获取运动目标的运动信息。然而光流法计算量较大,算法实时性差,且对噪声较为敏感。文献[4-5]提出基于homography 变换的方法来建立
自适应背景模型,从而区分前景运动目标和背景区域。文献[6]基于背景建模的目标检测方法能够提取出完整的目标区域,然而背景建模过程
计算量较大,不利于实时检测。文献[7]通过寻找两幅图像的SIFT 特征匹配点对,利用一定的背景更新机制,用仿射变换后的背景图像对当前背景对应区域进行更新,然后利用背景差法检测运动目标。文
基于SIFT 特征匹配的运动目标检测及跟踪方法
康晓梅1,穆柯楠2,康贤2
(1.西安翻译学院陕西西安710105;2.长安大学陕西西安710064)
摘要:摄像机运动情况下的运动目标检测及跟踪是视频监控中的热点问题。论文提出一种基于SIFT (Scale Invariant Feature Transform )特征匹配的运动目标检测和跟踪算法。在目标检测阶段,首先提取两帧带检测图像的SIFT 特征点并进行特征匹配,然后计算两帧图像之间的几何变换矩阵,从而实现图像的几何对齐。再将几何对齐后的两幅图像进行差分,并在差分图像中寻找SAD
最大值区域作为运动目标区域。在目标跟踪阶段,将已检测到的目标作为跟踪样本,与后检测到的目标区域进行SIFT 特征匹配,结合论文提出的跟踪样本集更新机制实现目标跟踪。论文目标检测和跟踪均基于SIFT 特征匹配方法且无需背景建模过程,以适用于实时应用。关键词:运动摄像机;视频监控;
目标检测;目标跟踪;特征匹配中图分类号:TP391
文献标识码:A
文章编号:1674-6236(2018)01-0174-04
Moving objects detection and tracking bad on SIFT feature matching
KANG Xiao⁃mei 1,MU Ke⁃nan 2,KANG Xian 2
(1.Xi ’an FanYi University ,Xi ’an 710105,China ;2.Chang ’an University ,Xi ’an 710064,China )Abstract:Moving objects detection and tracking with moving camera is a hot issue in video surveillance.This paper propos the moving target detection and tracking algorithm bad on SIFT (Scale Invariant Feature Transform )feature matching.In objects detection stage ,firstly extracting SIFT feature points from the two frames to be detected and matching the feature points ,and then calculating the geometric
transformation matrix between the two images ,so as to aligning the images.Then differing the two aligned images and arching for the region with maximum SAD value in the difference image as the moving target region.In objects tracking stage ,considering the detected object as the tracking sam
ple and matching SIFT feature points with tho of the currently detected target region ,and combining with
the propod tracking sample t update mechanism to realize objects tracking.In this paper ,both
objects detection and tracking are on the basis of SIFT feature matching and without background modeling ,in order to be suitable for real-time applications.
Key words:moving camera ;video surveillance ;objects detection ;objects tracking ;feature matching -
-174
献[8]通过寻找相邻两帧图像的匹配点对,计算几何变换模型使两帧图像对齐,然后利用帧间差分法检测运动目标。
常用的目标跟踪算法有基于特征的跟踪[9]、基于区域的跟踪[10]和基于模型的跟踪[11]。其中基于特征的目标跟踪方法主要优点是对尺度、形变和亮度等变化不敏感,并且在目标被部分遮挡的情况下,只要有一部分特征存在,仍然可以跟踪运动目标。然而该方法的缺点在于无法较好的确定并提取目标特征,如果选择的特征较少,容易丢失目标;如果选择的特征过多,则会增加算法的计算量,降低算法
的实用性[12]。
论文提出一种基于SIFT[13]特征匹配的运动目标检测和跟踪算法,主要特点表现在:1)与传统算法将目标检测和跟踪采用不同算法分别实现不同,论文的目标的检测和跟踪均基于SIFT特征匹配方法加以实现,算法复杂度低;2)论文基于SIFT特征匹配的目标跟踪算法,只选择运动目标区域中的特征点进行匹配,在保证算法实用性的基础上降低了算法计算量,有效解决了特征点数目选择的问题;3)论文针对跟踪样本集退化问题,制定了相应的样本集更新机制。
1基于SIFT特征匹配的运动目标检测
1.1SIFT特征点检测及匹配
运动相机采集到的连续帧场景不同,但相邻帧之间存在场景重叠区域。同时,视频帧序列中也存
在光照变化以及相机抖动等干扰因素。通过求解相
邻帧之间的几何变换模型,可以消除由于相机运动
而产生的场景移动,以及光照变化及相机抖动而产
生的差异。求解几何变换模型参数需要寻提取相邻
帧图像的特征点并且寻找这两幅图像之间的特征匹
配点对。论文采用SIFT(Scale-invariant feature transform,SIFT)特征检测器来提取图像的特征点,采用K-D Tree最近邻搜索算法进行相邻帧之间的特征
点匹配。
1.2图像几何对齐及运动目标检测
可以计算出相应的几何变换模型参数。考虑到
由于相机抖动而可能产生的旋转、平移、缩放等变
化,论文采用仿射变换模型来描述相邻帧之间的几
何变换关系:
é
ë
êê
ù
û
úú
f k
x
f k
y
=é
ë
êê
ù
û
úú
茶满欺人m0f k+1
x+m1f k+1y+m2
m3f k+1
x+m4f k+1y+m5
(1)根据1.1节获得的特征匹配点对,采用RANSAC 算法可求解出变换矩阵[14]。
求解出代表两帧图像之间几何变换的矩阵H后,对前一帧图像进行几何变换,使其与后一帧图像几何对齐。然后将对齐后的两幅图像差分,从而得到候选运动目标区域。进一步地,为消除背景干扰,在差分图像上计算Sum of Absolute Differences(SAD)值,高SAD 值对应的区域即为目标区域,从而消除背景区域的干扰,确定运动目标位置。实验结果如图1
所示。
图1两帧图像对齐与差分
2基于SIFT特征匹配的运动目标跟踪
2.1匹配度
为了判断跟踪样本集中某样本与当前帧中检测
宁波家常菜到的运动目标是否为同一目标,论文利用两者的匹
配程度来衡量,即匹配度。假设跟踪样本M k
i
有N1
个SIFT特征点,第k+1帧图像检测到的目标有N2个
SIFT特征点,两者的SIFT特征匹配点对为N,则匹配
度Rate按如下公式计算:
Rate=N
max{N1,N2}(2)
如图2为样本目标与当前检测目标的匹配结
果。其中图2(a)为匹配度大于匹配度阈值T R的情
况,因此判断当前检测目标与对应样本为同一目标
而进行跟踪;图2(b)为匹配度小于阈值的情况,虽然康晓梅,等基于SIFT特征匹配的运动目标检测及跟踪方法
-
-175
《电子设计工程》2018年第1期蒸咸肉
事实上该跟踪样本与当前检测目标为同一车辆,但由于一段时间后车辆行驶姿态改变导致该检测车辆与对应样本差异较大,导致匹配失败。为了避免此类现象的发生,必须对跟踪样本进行实时更新。
2.2跟踪样本集更新
论文建立的跟踪样本集,是已标记的所有运动
目标的集合。定义跟踪样本集:
M ={M k
i
|i ∈m ,k ∈n }(3)
其中M k i
表示已检测目标,m 表示样本集大小,n 表示视频帧数。
对跟踪样本集进行实时更新,可以避免样本集发生退化现象。导致退化的因素有3种,分别对应样本集更新的3种情况:
1)对于第k 帧检测到的运动目标,若跟踪样
本集中存在与该目标匹配度大于阈值T R 的样本,则用当前检测到的目标对样本集中对应样本进行更新;
2)对于当前帧图像检测到的某一运动目标,若
跟踪样本集中的所有跟踪样本与其匹配度均低于阈
值T R ,则认为该目标新进入相机视野,并将其加入跟踪样本集中;
3)对于跟踪样本集中的某一样本,若在第k 帧
及第k+1帧中均未检测到与其匹配度高于阈值T R 的目标,则认为该目标离开相机视野,并将该目标对应
样本从样本集中剔除。
论文通过大量测试发现,T R =80.31%时能得到理想的实验结果。
3实验结果及分析
实验采用People Image Analysis Consortium (PIAC )以及Change Detection (CDNET )视频图像数据库中的多组测试视频,在Matlab2012a 环境下对论文算法的有效性进行验证。
程及如图3(a )(b )为两组视频场景下的运动目标检测结果,其中摄像机为运动状态(为保证运动目标始终处于摄像机视野范围内)。表1所示为论文算法与文献[3]基于光流法的检测方法以及文献[6]基于混合高斯背景建模的检测方法检测时间的对比结果。从表中可以看出,与其他两种算法相比,论文基于
SIFT 特征匹配的目标检测方法耗时较短,有利于需要实时检测的应用场景(如视频监控系统)。如图4所示为三组视频序列下的运动目标跟踪结果。从实验结果可以看出,论文所提的基于SIFT 特征匹配的目标检测及跟踪算法能够实现摄像机运动情况下不同场景中的目标检测及跟踪。
图2
样本目标与检测目标的匹配结果
图3运动目标检测结果
4结束语
文中提出一种基于SIFT 特征匹配的运动目标检测和跟踪算法。对于两帧待检测图像,首先采用SIFT 算法提取特征点并寻找两帧图像的特征匹配点对,经K-D Tree 搜索算法进行特征点初匹配后,再利用RANSAC 算法求解两帧图像之间的几何变换矩
阵,实现图像几何对齐,从而消除相机运动、光照变化、背景干扰等因素。然后将两幅对齐图像差分,通过在差分区域寻找SAD 最大值区域来确定运动目标区域。最后将已检测到的目标作为跟踪样本,
与后检测到的目标区域进行SIFT 特征匹配,结合论文提出的跟踪样本集更新机制实现目标跟踪。实验结果证明论文算法复杂度低,检测与跟踪准确度较高,适用于
-
-176
启蒙运动的影响运动目标的实时检测。然而论文中只实现了单一运动目标的检测和跟踪,后续研究工作中将针对多目标的检测及跟踪此类复杂情况对算法进行改进。参考文献:
[1]刘定通.复杂背景下视频运动目标检测与跟踪算
法研究[D].成都:电子科技大学,2015. [2]Sayanan Sivaraman,Mohan Manubhai Trivedi. Looking at vehicles on the road:A survey of vision-bad vehicle detection,tracking,and behavior analysis[J].IEEE Transactions on Intelligent Transportation Systems,2013,14(4):1773-1795.
[3]刘洪彬,常发亮.权重系数自适应光流法运动目
标检测[J].光学精密工程,2016,24(2):460-468.[4]姜明新,王洪玉,刘晓凯.基于多相机的多目标
跟踪算法[J].自动化学报,2012,38(4):531-539.
[5]孟灿.基于全方位视觉的运动目标检测与跟踪算
法研究[D].杭州:中国计量学院,2015. [6]LING Qiang,YAN Jin-feng,LI Feng,et al.A background modeling and foreground gmentation approach bad on the feedback of moving objects in traffic surveillance systems[J].Neurocomputing,2014(133):32-45.
芡实的作用与功效[7]王亮芬.基于SIFT特征匹配和动态更新背景模
型的运动目标检测算法[J].计算机应用与软件,2010,27(2):267-270.
[8]Jon ArrÓspide,Luis Salgado,Marcos Nieto. Vehicle detection and tracking using homography-bad plane rectification and particle filtering[J]. 2010IEEE Intelligent Vehicles Symposium. University of California,San Diego,CA,USA. 2010:150-155.
[9]Cao X,Gao C,Lan J,et al.Ego motion guided particle filter for vehicle tracking in airborne videos [J].Neurocomputing,2014,124(124):168-177.
内衣第一品牌[10]Ding J,Lei B,Hong P,et al.Adaptive homoc-hromous disturbance elimination and feature lection bad mean-shift vehicle tracking method [J].Proceedings of SPIE-The International Society for Optical Engineering,2011,8200(10):4869-4871.
[11]张焕龙,胡士强,杨国胜.基于外观模型学习的
视频目标跟踪方法综述[J].计算机研究与发展,2015,52(1):177-190.
[12]庞国瑞.基于DSP的运动目标检测与跟踪技术的感动作文开头
应用研究[D].聊城:聊城大学,2013. [13]李明.基于SIFT特征点匹配的目标跟踪算法研
究[D].合肥:合肥工业大学,2011. [14]Xiangqian Wua,Qiushi Zhaoa,Wei Bub.A SIFT-bad contactless palmprint verification approach using iterative RANSAC and local palmprint descriptors[J].Pattern Recognition,2014,47(10): 3314-3326.
康晓梅,等基于SIFT特征匹配的运动目标检测及跟踪方法
视频序列1
视频序列2
视频序列3
第382帧
第393帧
第417帧
第803帧
第814帧
第836帧
第274帧
第281帧
第290帧
文献[3]光
流法
0.476
0.512
0.461
0.263
0.232
0.284
0.398
0.403
0.369
文献[6]背景
建模法
0.767
0.805
0.694
0.470
0.512
0.496
0.581
0.598
0.632
本文算法
0.412
0.407
0.390
0.201
0.226
0.213
0.371
0.394
0.357
表13种算法目标检测时间对比(单位:s )
图4运动目标跟踪结果
-
-177