平行式红外双目立体系统基线长度选取
runinto汪同浩;刘秉琦;黄富瑜;陈一超wiley
【摘 要】为解决当前夜间辅助驾驶仪平面显示导致驾驶员无法正确判断景物纵深关系的问题,本文提出利用平行式红外双目立体系统进行夜间辅助驾驶的方案.针对红外探测器分辨精度低导致观看红外立体影像时立体盲区占立体区比重过大的问题,本文通过分析对比平行式红外双目系统和肉眼的立体感知精度,结合Panum融合区理论,对红外立体影像立体区间进行界定,并对立体区间所对应的基线长度范围进行推导.根据推导结果,计算分析3组不同场景下基线长度所满足的最小值,并以得到的最小值为基准获取5组不用基线长度下的视差图.最后通过虚拟现实显示装置验证了推导结果的正确性.该结果可用于指导红外双目系统参数的选取和搭建.
怎么训练表达能力【期刊名称】《红外技术》
【年(卷),期】口才表达能力培训2018(040)012
【总页数】6页(P1130-1135)
【关键词】辅助驾驶;红外双目立体系统;立体感知误差;基线长度
【作 者】汪同浩;刘秉琦;黄富瑜;陈一超
【作者单位】陆军工程大学 电子与光学工程系,河北 石家庄 050003;陆军工程大学 电子与光学工程系,河北 石家庄 050003;陆军工程大学 电子与光学工程系,河北 石家庄 050003;陆军工程大学 电子与光学工程系,河北 石家庄 050003
【正文语种】中 文
【中图分类】TN141
ostrava战场环境复杂多变,烟雾灰尘、恶劣天气、复杂地形等不利因素给战车驾驶带来很大不便,严重影响了战场夜间的机动化行进以及武器装备的战时性能发挥。伴随着信息技术的发展,兼具全天候、全被动、隐蔽性好、穿透性强等优势的红外夜视技术应运而生[1]。随着该技术逐渐走向成熟,20世纪90年代中期开始用于战车驾驶。例如美军的布雷德利战车,中国最新的99A2型坦克等都配备了红外夜视辅助驾驶系统[2-3]。
当前的夜间辅助驾驶系统大都通过置于车体外的红外相机捕捉车外的景物信息,再将捕获的信息实时显示在驾驶室的显示器上,以达到辅助驾驶的目的。根据前期调研我们发现,现有的红外夜视辅助驾驶系统很难在实际应用中发挥效果。原因在于目前的夜间驾驶仪采用单相机进行图像采集,因此显示器中的显示的图像只是单一的二维图像,缺乏纵深感。这就导致驾驶员很难判断景物的前后关系以及相对位置,不利于战车行进。因而发展适于人眼观察的红外双目夜视系统就显得尤为重要。
preferences
由于工艺的限制,使得红外相机拍摄的图像很难达到肉眼的分辨精度,这大大增加了人眼立体感知误差,不利于驾驶员获取车前三维信息。为此,本文从红外双目系统以及人眼的立体感知误差方面进行分析,并对观看红外立体影像时立体区域所对应的基线长度范围进行推导。最后通过平行式红外双目[4]图像采集装置以及虚拟现实(VR)显示装置验证了推导结果的正确性。
由于瞳距的存在,使得人眼在观察景物时,左右眼接收的画面存在一定的视差,这种细微的差异经过视觉中枢便会产生立体感受[5-7]。平行式双目立体系统就是通过视差原理获取景物的三维信息。
hiphop是什么意思如图1所示,双目相机的水平视场角为q,基线长度为b,显示屏的水平宽度为m,利用几何关系[8]可得到距双目系统H处景物P在显示屏上的视差为:
当观看立体影像时,由于同一物点存在视差,便会产生立体感受。图2为人眼立体感知原理图。假设物点在屏幕上左右像素点分别记为L和R。当L位于R左侧时(如Q1点),此时人眼观察该物点位于屏幕后方,定义此时两像素点的视差为正;当L位于R右侧时(如Q2点),此时人眼观察该物点位于屏幕前方,定义此时两像素点的视差为负。由几何关系很容易得出:
式中:D为人眼观察屏幕所获得的视在距离;q为视差;L为人眼到屏幕的距离;v为立体深度;e为双眼的瞳距,通常取65mm。
由上式可以看出,视差越大,人眼获得的立体感越明显,纵深感越强。然而当视差q超过人眼的融合范围时,双眼将无法将其融合为单一影像,就会产生复视,从而丧失立体感。人眼所能融合的这一范围称之为Panum融合区[9]。实验表明,一般不能超过以下限制:
式中:D′为人眼瞳孔的直径,取4mm;h为人眼体视锐度,通常取10′[10]。联立(1)、(2)、(3)式可以得到Panum融合区界定下基线长度b的取值范围。结果如下:
式中:参数e、L、h、q、m都是可确定的量,可根据实际条件下不同的H值来选取合理的基线长度。
由于双眼瞳距的存在,使得肉眼观察到的景物具有立体感。如图3所示,物体B在两网膜中的像分别为bL和bR,假设此时有一与物体B距离不等的物A,在两视网膜上的像分别为aL和aR。两者在网膜中的像不对应,即aLbL≠aRbR,这种微小的差别通过大脑分析处理便形成立体感受。
由几何关系可以得出:
由上式可知,Dq越大,人眼感知两物体的相对距离就越大;Dq越小,人眼感知两物体间的距离就越小。当Dq小到人眼恰能分辨时,此时对应的Dq值称之为“体视锐度”[11],记为Dqmin,通常取10²。设此时感受的最小距离为d1min,则:
根据上式可知,人眼立体感知存在一定的误差,也就是说在观看立体影像时,存在一定的立体盲区。取C1=L,如图2所示,定义肉眼能感受到的最小立体深度分别为vmin,则:
由于该立体盲区的范围很小,因此在实际观看立体影像时往往可以被忽略,但在观察红外
立体影像时,由于制造工艺的限制使得立体盲区不再是一个很小的范围。
图4为世界坐标系下两相机的相对位置图,其中O1、O2分别代表两红外相机,为了计算方便,假设物点P和物点Q位于左相机光轴上,两物点距双目系统的距离分别为Lp和Lc。
由几何关系可得出:
式中:p为两物点在相机成像面存在的视差;h为相机成像面水平宽度;q为相机的水平视场角。当两物点在相机成像面存在一个像素时,此时两物点恰能被分辨[12],假设相机的像素宽度为px,两物点恰能分辨的距离为d2,则:
定义显示表面的水平宽度m与相机成像面水平宽度h的比值为放映放大率,用k表示。将(4)式取等号,联立(9)式,取Lp=H可得:
式中:d2min为人眼Panum融合区所允许的最大基线长度条件下对应的最小分辨距离。由于红外探测器分辨率低,因此在获取景物三维信息时,往往不能达到人眼的立体分辨精度。红外双目辅助驾驶系统设计的最终目的是为了夜间的车辆驾驶,因此选取的参数如下:k=20,L=0.5m。选用国内目前像元尺寸较小的长波红外探测器(px=17mm)参数
进行计算。将以上参数带入(6)式和(10)式,通过作图对比红外探测器与人眼所能分辨的最小距离,如图5所示。
从图中可以看出人眼的分辨精度在一定范围内要高于红外双目相机的分辨精度,当到达一“临界点”时(点Q),人眼与红外双目相机的分辨精度相同;当超过该“临界点”后,红外双目的分辨精度将高于人眼,并随着距离增加两者差距逐渐增大。因此在分析立体盲区时还应考虑探测器参数的影响。
假设现通过平行式红外双目系统采集H0处景物的三维信息,根据(4)式选择满足Panum融合区的基线长度b0,此时红外双目系统的立体感知误差为:
根据前面推导可知,此时在临界点前距离内肉眼感受到的立体深度d1min=d0,联立(6)、(11)取C1=H0得出此时对应的体视锐度Dq'min为:
联立(3)、(7)、(12)式可得此时的观影立体区域,如图6所示。式(13)为图6对应的立体区间范围:
根据上述推导,立体观影区存在一定的“立体盲区”,视在距离D,水平视差q与基线长度b存
在一定的联系,这样就可对立体区下的基线长度范围进行界定。
在观察3D立体图像时,水平视差是影响立体感受的主要因素之一。本文通过平行式的双目系统对目标景物的三维信息进行“捕捉”,由于系统本身的缺陷,使得获得的景物视差始终为负。联立(1)、(2)、(4)、(13)式,结合平行双目系统视差产生机制,得出立体区下基线长度的取值为:
根据二次项函数求解得出关于基线长度b0的二次不等式:
求解该二次不等式,得出基线长度的最终取值为:
表1为观看红外立体影像与高清立体影像时最小基线长度,立体区间范围以及立体盲区的取值。在进行参数选择过程中,以某型装甲车红外夜视装置参数进行计算。具体参数如下:px=30mm,L=0.5m,θ=23.5°,m=35.5cm,探测器分辨率为320×248。将上述参数代入结果如表1所示。
从表1可以看出,观察红外双目立体影像的立体盲区要远远高于观看高清立体影像,且立体区所对应的最小基线长度相差2个数量级。与此同时,相比于观看高清立体影像立体盲区占
应用题
立体区比例的0.13%,观看红外立体影像时,当H=20m,该数据高达12.7%。因此,在用红外双目系统获取景物的三维信息时,需要根据特定条件合理选择参数。
实验通过在Google Cardboard 2.0 VR显示红外立体图像对的方式来验证推导结果的正确性。为避免红外相机自身规格对基线长度取值范围的限制,实验采用单个红外相机加高精度平行导轨组合的方式获取视差图像,如图7为搭建的实验采集装置。红外相机参数如下:px=30mm,q=5.5°。
为方便实验验证,对所得视差图进行相对平移,使得在H0处景物的视差为0,距离双目系统特定距离H处景物的立体深度为v,此时距离系统H处景物的视差为:
此时根据(2)、(13)式得出此时基线长度对应的最小取值为:
利用搭建的采集装置对距离系统H0=7m,H=6.7m的两目标景物进行拍摄,根据(18)式计算此时所允许的最小基线长度b'0min。在这需要指出的是,由于VR显示前端有一放大倍率为2的凸透镜,因此观察到的屏幕大小为实际屏幕尺寸的2倍。实验过程中相机及显示终端主要参数如表2所示。
根据上述计算结果,选择5组不同基线长度获取目标景物的视差图像对,利用3ds max将获取的视差图进行相对平移渲染,如图8所示。将处理后的视差图成像在VR显示器上,选择6名无视力障碍的观众观察处理后的视差图,统计不同基线长度下感受到立体感对应的人数。依照上述方法,另选两组不同距离的H0和H进行实验验证,3组实验的统计结果如图9所示。
英语过去完成时从统计结果可以看出,实验结果基本符合实际计算的结果,从而验证了上述推倒的正确性。但是实验过程中也存在部分观察者在限制范围外仍能感受到立体感,还有部分观察者在范围内感受不到立体感。分析主要由以下3方面原因造成实验结果与实际计算结果不符:①公式推导过程中的约运算引起的实验误差。例如人眼的立体感知误差的约运算等。②个体差异。人的双眼瞳距、瞳孔直径、体视锐度的值都是理论值,但不同个体立体感知的能力不同,这必然会带来不必要的误差。③实验操作不当引起的误差。由于上述参数的不确定性以及约运算的误差,使得基线长度的限制范围对不同个体而言不是一个准确的值,但相互之间的误差相差不大。因此,上述推导结果可用于指导红外双目系统的搭建。
当前,随着红外夜视及立体显示技术的发展,平面显示的夜间辅助驾驶系统的弊端日益凸
显。然而,由于制造工艺的局限,使得红外双目夜视系统的立体感知精度在一定范围内满足不了人眼立体分辨水平。因此本文从红外双目系统以及人眼立体分辨距离出发,结合Panum融合区理论对观看红外立体影像立体区对应的基线长度范围进行推导,最后设计实验方案,获取特定距离,特定基线长度下的视察图像对,利用虚拟现实立体显示装置对推导结果的正确性进行了验证。该结果可用于指导红外双目立体系统的搭建及参数选择,从而推动红外夜视技术的发展。