激励口号
基于GPS与图像融合的智能车辆高精度定位算法手工纸桥
李祎承;胡钊政;胡月志;吴华伟七绝格律平仄
【摘 要】车辆自定位是实现智能车辆环境感知的核心问题之一.全球定位系统(Global Positioning System,GPS)定位误差通常在10 m左右,不能满足智能车辆的定位需求;惯性导航系统成本较高,不适于智能车辆的推广.本文在视觉地图基础上,提出一种基于GPS与图像融合的智能车辆定位算法.该算法以计算当前位置距离视觉地图中最近一个数据采集点的位姿为目标,首先运用GPS信息进行初定位,在视觉地图中选取若干采集点作为初步候选,其次运用Oriented FAST and Rotated BRIEF(ORB)全局特征进行特征匹配,得到一个候选定位结果,最后通过待检测图像中的局部特征点与候选定位结果中的三维局部特征点建立透视n点模型(Perspective-n-Point,PnP),得到车辆当前的位姿,并以此对候选定位结果进行修正,得到最终定位结果.实验在长为5 km的路段中进行,并在不同天气及不同智能车辆平台测试.经验证,平均定位精度为11.6 cm,最大定位误差为37 cm,同时对不同天气具有较强鲁棒性.该算法满足了智能车定位需求,且大幅降低了高精度定位成本.%Vehicle lf-localization is one of the core tasks for intelligent vehicles. Basically, localization error of GPS is about 10 m, which cannot mee
t the localization requirement for intelligent vehicles. Moreover, the high cost makes INS (Inertial Navigation System) not practical for intelligent vehicles. This paper propos an accurate localization method for intelligent vehicles bad on GPS and image fusion from visual map. The method aims to find the po of current position to the nearest data collection point of visual map. Firstly, coar localization is done by GPS data matching such that veral candidate positions are lected from visual map. Furthermore, holistic feature matching is applied to compute one candidate from GPS matching results. Finally, vehicle po is computed by matching local features and solving Perspective-n-Point (PnP) problem. Localization results are further refined with the computed vehicle pos. Experiments are made in a 5 km-route roadway, which are in different weather conditions and different intelligent vehicles. Experiment results show that the mean error of localization accuracy is about 11.6 cm and the max error is 37 cm. In addition, the propod method has good robustness to different weather conditions. The propod method suggests a low-cost and accurate localization solution for intelligent vehicles.
【期刊名称】《交通运输系统工程与信息》
【年(卷),期】2017(017)003
西红柿树
【总页数】8页(P112-119)
【关键词】智能交通;车辆定位;数据融合;智能车辆;计算机视觉
【作 者】李祎承;胡钊政;胡月志;吴华伟
【作者单位】纯电动汽车动力系统设计与测试湖北省重点实验室,湖北襄阳 441053;武汉理工大学智能交通系统研究中心,武汉 430063;武汉理工大学能源与动力工程学院,武汉 430063;武汉理工大学智能交通系统研究中心,武汉 430063;武汉理工大学智能交通系统研究中心,武汉 430063;纯电动汽车动力系统设计与测试湖北省重点实验室,湖北襄阳 441053;湖北省电池产品监督检验中心,湖北襄阳 441000
【正文语种】中 文
【中图分类】U495
随着经济发展与社会进步,智能汽车已逐渐成为当今社会的热点问题,近几年来发展十分
迅速[1].然而,智能车辆在推广过程中,仍有一些核心问题未解决,如智能车辆定位问题.目前最主要的定位方式是运用GPS实现定位,然而该方法精度约为10 m,不能满足智能车辆的定位精度需求.此外,虽然运用高精度惯导系统(Inertial Navigation System,INS)结合GPS可将定位精度提升至10~20 cm,然而高精度INS成本较高,阻碍了智能车辆的推广.
运用计算机视觉提取道路场景特征,并进行图像特征匹配,可实现智能车辆定位.该方法在文献中有广泛的研究,例如,文献[2]中运用即时制图与定位(Simultaneous Localization and Mapping,SLAM)的方式,由稠密三维重建描述道路特征,根据所得到的三维数据实现车辆定位.然而稠密三维重建所得到的数据量较大,导致定位时间较长.此外,SLAM计算速度较慢,不能满足智能车辆行驶时的定位需求.为解决此问题,文献[3]将定位分成先制图再定位两个步骤,解决了SLAM中计算速度较慢的问题,同时文中提出的拓扑算法提高了图像特征匹配精度.文献[4]中运用了贝叶斯模型将定位问题转化为条件概率问题,并以此首先将定位范围缩小,再运用特征匹配实现车辆定位.然而上述两种方法仅使用了图像特征进行定位,拓扑方法与贝叶斯模型会随着车辆行驶而造成累积误差.因此,若能将GPS信息与图像信息融合,根据GPS信息调整累积误差,充分发挥各自优势,即可达到高精度定位效果.
本文提出了一种基于GPS与图像融合的智能车辆定位算法,该算法以视觉地图为基础,定位时仅通过GPS与图像计算视觉地图中距离待定位图像最近的一个数据采集点,计算智能车辆在视觉地图中的位姿,达到高精度定位的效果.经实验验证,本文所提出的方法可达亚米级精度,实现了在不增加成本的前提下达到车辆高精度定位的效果.
为实现车辆定位,首先构建视觉地图.视觉地图是实现智能车辆定位的基础,为保证定位精度,本文采用车载摄像机与INS结合载波差分系统(Real-time kinematic,RTK)构建视觉地图.在构建过程中,实验车以等距的方式对待定位路段进行数据采集,采集频率为2 m/帧.在每个采集点中,车载摄像机采集一帧图像数据,INS结合RTK采集一条高精度惯导数据,并由惯导数据将视觉地图与普通地图联系起来.值得提出的是,INS结合RTK仅用于视觉地图的构建,在车辆定位时,则采用普通GPS信息与图像信息.
然而,由于图像数据量较大,因此在实际地图存储中,对图像进行进一步处理.具体而言,视觉地图仅包含以下几个要素:①图像全局特征.为减少地图存储数据量,将整幅图像作为特征点,并以全局特征代表图像,特征点由128位描述符组成.②高精度惯导数据.惯导数据与全局特征相对应.③局部特征点及其三维信息.对每帧图像提取局部特征点,通过三维重建的方法计算每个局部特征点的三维信息.图1为所产生的视觉地图示意图.
为确保智能车辆的定位精度,研究将定位分为3个步骤:①初定位,将待定位图像中普通GPS信息与地图中高精度惯导信息相匹配,以此缩小定位范围;②图像级定位,提取待定位图像中的ORB全局特征并与初定位结果匹配,得到一个最近的采集点作为候选定位结果;③测量级匹配,提取待检测图像中的局部特征,并结合候选定位结果中的三维点云数据通过PnP算法求解运动轨迹,得到最终定位结果.算法流程如图2所示.
2.1 基于GPS数据的初定位八年级体育教案
在传统定位方法中,GPS信息定位的精度约为10 m,该精度不能满足智能车辆定位的要求.因此,研究中将GPS数据用于初定位.
具体而言,首先设P为待定位图像,Mi为视觉地图中的采集点序列;设视觉地图中惯导数据为,待定位图像中GPS数据为首先,将惯导数据与GPS数据转化为欧式坐标系下的坐标,如下式所示:
式中:(Xmi,Ymi),(Xpj,Ypj)分别表示惯导数据与激光数据经转化后的欧式坐标;trans()为由地理坐标系转化为欧式坐标的公式.由此,可根据欧式坐标计算视觉地图中各采集点与待定位图像距离,其公式为
怎么创建快捷方式
由式(3)选取距离最近的采集点.由于GPS信号精度为10 m,考虑到视觉地图采集频率为2 m/帧.因此,选取距离最近采集点及其前后2帧采集点作为初定位结果.大量实验证明,所选取的5帧采集点一定可包含真值.图3为初步定位示意图,图中,M4为GPS数据与惯导数据匹配后得到的最近采集点.因此,初定位结果为M2到M6.
2.2 基于ORB特征的图像级定位
特征匹配是图像定位的重要手段,然而常用的(Scale-Invariant Feature Transform,SIFT)算子、(Speeded-Up Robust Features,SURF)算子存储数据量较大,计算速度较慢.因此,研究采用ORB算子实现特征匹配.ORB算子是将FAST特征点检测法与BRIEF特征描述子相结合,并在此基础上加以改进与优化的特征描述符[5-6],该算子具有提取速度快且匹配精度不低于SIFT与SURF的特点.
在ORB特征提取过程中,采用了BRIEF对特征点进行描述.首先在待定位图像中选取一个区域,由q表示,并设其大小为s×s;其次在q上运用映射算法进行特征提取.其公式为
式中:x与y分别表示q中的两像素坐标;q(x)与 q(y)为所对应坐标处的灰度值.在q中选取n对像素点测试τ,再通过式(5)计算q的BRIEF特征描述符.
在此我们采用了性能最佳的高斯分布,向量长度设置为n=256.因此,ORB的特征描述符是一个256位的二进制字符串.
在特征点检测时,采用了FAST实现对特征点的快速检测.FAST算法主要根据像素点与其邻域的灰度差进行检测.然而FAST特征点本无方向,在ORB算法中增加了其方向的计算方法,即oFAST.该算法在利用FAST算法在图像中找到特征点,根据强度中心算法计算角点方向.同时,将得到的角点方向作为BRIEF描述子的方向,并对其进行相应的旋转,从而得到旋转的BRIEF,即定向BRIEF.此外,针对增加了角点方向后导致性能下降的问题,ORB算法采取了贪婪学习方法,将定向BRIEF中相关性不高且差异较大的特征点挑选出来,即rBRIEF.
为进一步提高特征匹配速度,在图像级定位中运用全局ORB算子进行图像特征提取与匹配,即将每帧图像视为一个ORB特征点.其具体步骤为:首先,对每帧图像进行灰度化处理,其次将每帧图像重置为标准图像63×63(pixel),固定输入图像大小可有效解决ORB不具备尺度不变性的问题.因此,根据上述方法,计算每帧待检测图像的全局特征fp,并与初定位结果中的全局特征匹配.通过计算两特征间的海明距离,距离最短者作为候选定位结果,其表达式为
式中:C为初定位结果中的全局特征数据集,cj∈C;Hamm()为海明距离计算公式,详细表达为
式中:X,Y分别表示两个256位描述符,海明距离计算即两个256位描述符做异或运算.所生成的全局特征提取结果如图4所示.
2.3 基于PnP模型的测量级图像定位
测量级定位共分为3步,①提取待检测图像局部特征,并与候选定位结果的三维局部特征匹配.②运用PnP模型计算当前智能车辆位姿.③由位姿修正定位结果.
研究同样运用ORB算子提取局部特征,如式 (5)所示,每个特征点仍由256位二进制字符串表示.随后,运用式(6)将待定位图像与候选定位结果进行局部特征匹配,并提取候选定位结果中局部特征点所对应的三维信息.研究根据待检测图像中的局部特征点与候选定位结果中的三维局部特征计算当前位姿.局部特征点匹配如图5所示,图中,左边子图为待定位图像,右边子图为视觉地图中的原图像.由图可知,在每帧待检测图像中,可获取足够多的局部特征点以提供PnP模型的输入.年轻的英文>水泉溪