掌桥专利:专业的专利平台
掌桥专利
首页

一种基于改进半全局立体匹配算法的无人车测距方法

文献发布时间:2023-06-19 19:30:30


一种基于改进半全局立体匹配算法的无人车测距方法

技术领域

本发明涉及无人驾驶目标测距技术领域,具体是指一种基于改进半全局立体匹配算法的无人车测距方法。

背景技术

无人车测距系统对无人驾驶技术起到了辅助作用,有助于减少交通事故的发生,加快无人车智能化的进程。当前车辆测距方法有很多,目前主流的方法是采用各种传感器来解决测距的难题,测距传感器主要包括激光雷达、毫米波雷达、双目相机、单目相机以及超声波传感器。目前立体匹配技术主要由以下几种:全局立体匹配、局部立体匹配和半全局立体匹配,该算法通常分为代价计算、代价聚合、视差计算和视差优化四个步骤,其中代价计算部分担负着核心的作用。

当前无人车测距方法大多采用双目相机配合半全局立体匹配算法进行测距,但是现有的半全局立体匹配算法多数在代价计算阶段采用传统的Census算法以及SAD算法,传统Census算法的基本原理是从匹配图像中任选一个像素点,以该像素点为中心,以周边邻域像素点为边框建立n×n大小的矩阵窗口,窗口内包含n×n个像素点,选取除中心像素点之外的每一个像素点,使其分别与中心像素点进行比较,若灰度值大于中心点则该点标记为0,反之则该点标记为1。但是该算法在代价计算过程中,变换过程的窗口大小是固定的,不能根据图像的灰度分布情况自适应变换窗口大小,导致匹配精度不高,此外传统Census仅考虑到图像的亮度信息对光照、噪声鲁棒性的影响,未考虑到颜色信息以及纹理区域的影响,并且过度依赖窗口的中心像素,因此在匹配效果上存在欠缺;与之相同功能的SAD算法其运算方式是通过计算矩阵窗口内左右两个像素块内的像素值之差的绝对值之和,来实现代价计算。该算法尽管可以大大提高匹配速度,缩短匹配时间,但是其对于光照相对比较敏感,在实际应用中效果不佳。

发明人在进行无人车测距方法研究时,发现传统的测距方法使用的匹配算法,在一定程度上具有局限性,使其测量精度受到限制,为了提高无人车测距的精准度,需要解决以下问题:(1)传统Census变换采用固定窗的形式严重限制了像素灰度值信息量,同时Census采用单一的匹配代价,对中心像素的灰度信息过度依赖。其中的技术难点在于如何使得Census变换的固定窗大小根据图像灰度分布进行调整,以及如何融合颜色强度匹配代价;(2)SAD算法与Census算法在代价匹配阶段都具有一定的优势也存在一定的缺陷,如果可以将两种算法结合则可以起到取长补短的作用。但是两种算法在像素灰度值的处理方式不同,使得两算法的结果也不一样。SAD的结果取值范围为[0,255],Census算法使用比特串的形式对图像中对应位置进行处理,结果的范围往往取决于比特串的位数(通常为32位或64位),因此,其中主要的技术难点在于如何将两种算法的结果进行归一化处理,使得两算法的最终结果可以划分到同一个结果区间内。

发明内容

本发明要解决的技术问题就是克服以上的技术缺陷,提供一种基于改进半全局立体匹配算法的无人车测距方法。

为解决上述技术问题,本发明提供的技术方案为:一种基于改进半全局立体匹配算法的无人车测距方法,包括以下步骤:

(1)、无人车总体测距方法:先将双目相机采集到的图像进行图像预处理;通过目标检测算法识别出近距离车辆等障碍物;对双目相机采集的动态视频信息进行分割处理,保留需要测量的目标障碍物;通过改进半全局立体匹配算法对左右相机采集的图像进行立体匹配,生成视差图;根据平行双目视觉的几何关系,将视差图转化为深度图,从深度图像中获取目标障碍物的坐标x,y,根据相似三角形原理计算目标与无人车距离;

(2)、基于自适应窗与多代价融合的改进Census算法:在Census变换之前首先设定初始窗口V

其中I

对比窗口内每个像素灰度值与最终像素灰度值,大于等于最终像素灰度值则置0,否则置1,公式如下:

其中

(3)、SAD算法与改进Census算法进行融合:SAD算法是一种局部立体匹配算法,该算法是通过计算初始窗口中对应位置左右像素块的绝对值差值之和来实现匹配代价,SAD算法代价公式如下:

其中,C

由于SAD算法与Census结果尺度不同,现将两种算法的结果归一化到相同的结果区间内,归一化公式如下:

/>

其中ω表示代价值,λ是控制参数,可以通过该函数将任意代价值归一化为[0,1]的范围。

最终,SAD算法与改进Census算法融合后的匹配代价计算公式如下:

C

(4)、代价聚合:采用十字交叉域的方法进行代价聚合;

(5)、视差计算:采用赢家通吃算法进行视差计算,将全部目标点和对应点进行相似性比较,选择最小代价值对应的视差作为最优时差;

(6)、视差优化:采用左右一致性检测对生成的视差图匹配的错误点,被遮挡、低纹理以及视差不连续点进行处理,通过均值滤波算法对视差优化后的视差图进行滤波处理,降低噪声对视差图的影响。

作为改进,步骤2中对剩余的像素灰度值求取平均值,公式如下:

H

其中I(p)表示像素灰度值,H

作为改进,步骤2中为了提高Census算法对图像重复纹理区域的匹配效果,在Census变换阶段,将灰度值代价与RGB通道颜色绝对值代价相融合,从以上Census变换过程后,引入视差d,左图像某点的像素点用p表示,右图像相对应的像素点用p-d表示,则对应的比特串为C

C

其中C

C

作为改进,步骤6中的视觉处理的方法为从左相机生成的视差图中寻找一点p,所对应的视差值为D

|D

其中A

采用以上方法后,本发明具有如下优点:(1)基于自适应窗与多代价融合的改进Census算法,在Census算法基础上采用自适应窗,设置阈值,使得算法可以根据图像灰度分布情况灵活的选择合适的匹配窗口,提高了匹配的精确性,此外,通过剔除异常像素灰度值和融合RGB颜色绝对值代价,有效的降低了图像重复纹理区域;(2)SAD算法与改进Census算法进行融合SAD算法具有实现简单,匹配速度快的特点,通过与改进Census算法相融合,可以实现代价匹配的速度,以及降低对光照及光照条件下的敏感度,提高立体匹配的精度。

综上所述本发明算法是在原始Census算法基础上融合自适应窗以及颜色强度匹配代价,并将SAD算法与改进后的Census算法相融合,使得匹配结果更佳精准,无人车测距效果更佳,解决了半全局立体匹配算法在无人车测距过程中精度低的问题,在原有半全局立体匹配算法的基础上进行了一系列改进,解决了Census变换过程中图像重复纹理区域,更改了传统Census变换中固定窗口大小,提高了匹配精度;另外通过融合SAD算法,有效提高了匹配代价的速度,降低了匹配代价对光的敏感性,使得半全局立体匹配算法在无人车测距领域精度低问题得以改善,从而加深了无人车智能化程度。

附图说明

图1是本发明的无人车测距流程图。

图2是本发明的改进半全局立体匹配算法流程图。

具体实施方式

下面结合附图对本发明做进一步的详细说明。

请结合附图1和2所示,本发明具体包括以下步骤:

1、无人车总体测距方法

首先,无人车总体测距流程如图一所示。无人车在运行前需要打开车载双目相机,将双目相机采集到的图像进行图像预处理;通过目标检测算法识别出近距离车辆等障碍物;对双目相机采集的动态视频信息进行分割处理,保留需要测量的目标障碍物;通过改进半全局立体匹配算法对左右相机采集的图像进行立体匹配,生成视差图;根据平行双目视觉的几何关系,将视差图转化为深度图,从深度图像中获取目标障碍物的坐标x,y,根据相似三角形原理计算目标与无人车距离。

2、基于自适应窗与多代价融合的改进Census算法

在Census变换之前首先设定初始窗口V

H

其中p代表初始窗口V

移除掉像素灰度值的最大最小值,排除异常灰度值的影响,对剩余的像素灰度值求取平均值,公式如下:

H1={I(p

其中I(p)表示像素灰度值,H

将初始窗口V

设定一个阈值A1,将初始窗口内中心像素的灰度值与求取的像素灰度值平均值做差值绝对值;如果差值绝对值结果小于等于设定的阈值A1,则选用窗口中心像素灰度值的绝对值作为最终的灰度值,如果差值绝对值结果大于设定的阈值A1,则选用求取的像素灰度值平均值作为最终的灰度值,公式如下:

其中I

对比窗口内每个像素灰度值与最终像素灰度值,大于等于最终像素灰度值则置0,否则置1,公式如下:

其中

为了提高Census算法对图像重复纹理区域的匹配效果,在Census变换阶段,将灰度值代价与RGB通道颜色绝对值代价相融合,从以上Census变换过程后,引入视差d,左图像某点的像素点用p表示,右图像相对应的像素点用p-d表示,则对应的比特串为C

C

其中C

C

3、SAD算法与改进Census算法进行融合

SAD算法是一种局部立体匹配算法,该算法是通过计算初始窗口中对应位置左右像素块的绝对值差值之和来实现匹配代价,SAD算法代价公式如下:

其中,C

由于SAD算法与Census结果尺度不同,现将两种算法的结果归一化到相同的结果区间内,归一化公式如下:

/>

其中ω表示代价值,λ是控制参数,可以通过该函数将任意代价值归一化为[0,1]的范围。

最终,SAD算法与改进Census算法融合后的匹配代价计算公式如下:

C

4、代价聚合

本次采用十字交叉域的方法进行代价聚合。首先构建水平和垂直方向的臂长,臂上的所有像素点灰度值和颜色强度值接近相似,十字臂的构造基于像素点处的颜色和灰度值差别,臂长会随着颜色和灰度的影响从中心点位置像上下左右眼延伸,直至遇到像素差别较大的点时停止延伸;臂长的延伸有一个最大限度,当达到最大限度时则不在延伸,构造出十字臂区域。

取一点p,该点垂直臂长上的所有像素点水平臂长之和为p点的支撑区域,代价聚合的过程以p水平臂长代价汇总并存储为临时结果,然后将p水平臂长上每个像素点垂直臂长上的每一步存储的临时结果相加,得出该像素最终的聚合代价值。

5、视差计算

采用赢家通吃算法(WTA)进行视差计算,将全部目标点和对应点进行相似性比较,选择最小代价值对应的视差作为最优时差。

6、视差优化

采用左右一致性检测对生成的视差图匹配的错误点,被遮挡、低纹理以及视差不连续点进行处理。从左相机生成的视差图中寻找一点p,所对应的视差值为D

|D

其中A

通过均值滤波算法对视差优化后的视差图进行滤波处理,降低噪声对视差图的影响。

以上对本发明及其实施方式进行了描述,这种描述没有限制性,实际的结构并不局限于此。总而言如果本领域的普通技术人员受其启示,在不脱离本发明创造宗旨的情况下,不经创造性的设计出与该技术方案相似的结构方式及实施例,均应属于本发明的保护范围。

相关技术
  • 一种基于改进A星算法的无人艇全局路径规划方法
  • 一种基于改进全局果蝇算法的地面无人平台路径规划方法
技术分类

06120115937706