掌桥专利:专业的专利平台
掌桥专利
首页

基于高精地图实时测量局部能见度的方法及系统

文献发布时间:2024-04-18 19:58:53


基于高精地图实时测量局部能见度的方法及系统

技术领域

本发明属于自动驾驶技术领域,具体涉及一种基于高精地图实时测量局部能见度的方法及系统。

背景技术

车辆周围的局部能见度对车辆的安全行驶意义重大。无论是人工驾驶还是自动驾驶,小范围的局部能见度决定了车辆的安全行驶。对于人工驾驶而言,尽管前方的驾驶员能实时捕捉能见度的急剧下降而采取减速等安全措施,但这种以急刹的方式会带来其他的安全驾驶隐患,最直接的隐患是后方车辆难以快速响应前方车辆的急剧降速而带来追尾。此外,面对突然出现的浓雾或烟雾,人工驾驶员也不总能快速安全响应。自动驾驶车辆虽然能拥有比人工视觉更及时的感知能力和响应决策,相应地进行规避,但仍存在急刹带来的自车失控风险和后车追尾风险。由上可知,团雾或秋冬季节燃烧带来的零散分布的烟雾等降低能见度的天气都会带来安全隐患,如何及时快速超视距捕捉是为安全驾驶提供尽可能多的信息和应对时间的关键。

天气预报能预报大范围的能见度,但难以准确预测小范围的能见度。小范围的能见度不仅仅涉及天气,还与非天气现象有关,如局地地理场景,燃烧桔柑等。对于人类驾驶员而言,我们拥有两个高分辨率且高度同步的视觉传感器,即我们的眼睛。通过大脑的立体视觉处理,我们的眼睛能够测量距离,进而判断周围环境的能见度。如何在自动假设中借助高精地图和传感器进行快速高效感知能见度这一局地天气现象是本专利的出发点。

目前,基于局地测度能见度的方法有两类:一类是非车载的摄像头和雷达测量公路上的能见度,但由于固定在公路上而不适用于自动驾驶在连续公路上不间断获取能见度的需求;另一类是车载摄像头和天气预报测度雾霾的方法,比如面向区域的环境治理(如垃圾焚烧的发现)需求的能见度测量、面相交通安全的公路能见度估计。其中,面向区域的环境治理需求的能见度测量只能进行单一目标雾霾识别,不适用于自动驾驶在线性公路上的团雾(不总是雾霾)识别,如会忽略浓雾的识别;面相交通安全的公路能见度估计结合了机器视觉和大气能见度估计,基本上也只能进行单一目标的雾霾或团雾识别。比如公开号为CN109214331A的发明专利公开了一种基于图像频谱的交通雾霾能见度检测方法,根据高速公路雾霾图片分场景建立雾霾图片库,训练深度神经网络进行高速公路雾霾能见度检测,这种能见度检测方法需要大量的训练数据,而且只适用雾霾天气下特定场景的能见度检测,对于其他未训练场景、团雾、零散分布的烟雾等环境下,识别的准确度大大降低。在车辆自动驾驶运行过程中,周围环境随时会发生变化,局地、短临的团雾、雾霾、烟雾、降雨、沙尘暴等因素都会引起能见度变化,现有技术中这些能见度检测方法并不能快速准确地识别这些能见度变化。

发明内容

有鉴于此,本发明提出了基于高精地图实时测量局部能见度的方法及系统,用于解决现有的能见度识别方法不能适用于局地、短临的能进度变化场景的问题。

本发明第一发明,公开了一种基于高精地图实时测量局部能见度的方法,所述方法包括:

利用车辆定位信息查询高精地图,提取车辆沿途的高精地图要素;

通过车载摄像头采集车辆前方的视频数据,并识别地物要素;

在高精地图上匹配高精地图要素和地物要素,确定烟/雾对地物要素和高精地图要素的遮挡关系;

根据烟/雾对地物要素和高精地图要素的遮挡关系计算局部能见度。

在以上技术方案的基础上,优选的,所述高精地图要素为交通要素及对应位置,交通要素包括道路信息、路灯、加油站、交通信号灯和道路指示牌;

在以上技术方案的基础上,优选的,其特征在于,所述地物要素包括交通要素、其他要素以及要素之间的相对位置;其他要素包括道路两旁的树木。

在以上技术方案的基础上,优选的,其特征在于,所述在高精地图上匹配高精地图要素和地物要素具体包括:

根据车辆定位,将地物要素的相对位置转换为绝对位置,并叠加到高精地图上,进行高精地图要素和地物要素匹配。

在以上技术方案的基础上,优选的,其特征在于,所述烟/雾对地物要素和高精地图要素的遮挡关系包括:

对于高精地图要素和地物要素中均存在的要素,距离车辆最远的要素未被遮挡;

对于高精地图中存在而地物要素中不存在的要素,距离车辆最近的要素被遮挡;

对于高精地图中不存在而地物要素中存在的要素,距离车辆最远的要素未被遮挡。

在以上技术方案的基础上,优选的,所述根据烟/雾对地物要素和高精地图要素的遮挡关系计算局部能见度具体包括:

设置地物要素组成集合A,高精地图要素组成集合B;

分别计算集合B与集合A的交集、集合B与集合A的差集和集合A与集合B的差集,根据车辆与集合中各个要素之间的距离以及遮挡关系,计算局部能见度的上限和下线,得到局部能见度的范围。

在以上技术方案的基础上,优选的,其特征在于,所述根据车辆与集合中各个要素之间的距离以及遮挡关系,计算局部能见度的上限和下线,得到局部能见度的范围具体包括:

计算集合B与集合A的交集,得到高精地图要素和地物要素中均存在的要素组成的集合B∩A,计算集合B∩A中各个要素与车辆之间的距离,距离最大值记为D

计算集合B与集合A的差集,得到高精地图中存在而地物要素中不存在的要素组成的集合B-A,计算集合B-A中各个要素与车辆之间的距离,距离最小值记为D

计算集合A与集合B的差集,得到高精地图中不存在而地物要素中存在的要素组成的集合A-B,计算集合A-B中各个要素与车辆之间的距离,距离最大值记为D

局部能见度Visibility的范围为:

max(D

max(·)为求最大值函数。

本发明第一方面,公开一种基于高精地图实时测量局部能见度的系统,所述系统包括:

地图要素提取模块:用于利用车辆定位信息查询高精地图,提取车辆沿途的高精地图要素;

地物要素识别模块:用于通过车载摄像头采集车辆前方视频数据,并识别地物要素;

要素匹配模块:用于在高精地图上匹配高精地图要素和地物要素,确定地物要素和高精地图要素之间的遮挡关系;

能见度计算模块:用于根据地物要素和高精地图要素之间的遮挡关系计算局部能见度的范围。

本发明第三方面,公开一种电子设备,包括:至少一个处理器、至少一个存储器、通信接口和总线;

其中,所述处理器、存储器、通信接口通过所述总线完成相互间的通信;

所述存储器存储有可被所述处理器执行的程序指令,所述处理器调用所述程序指令,以实现如本发明第一方面所述的方法。

本发明第四方面,公开一种计算机可读存储介质,所述计算机可读存储介质存储计算机指令,所述计算机指令使计算机实现如本发明第一方面所述的方法。

本发明相对于现有技术具有以下有益效果:

1)本发明利用高精地图中所包含的丰富地物信息和车辆摄像头采集的视频数据识别和匹配地物要素,分析团雾对交通要素和地物要素的遮挡关系,对车辆周边环境的能见度范围进行测量,可适用于自动驾驶场景下沿公路实时连续测度局部能见度。

2)本发明通过高精地图要素和地物要素的集合之间的包含关系,分析烟/雾对地物要素和高精地图要素的遮挡,并结合车辆与各个要素之间的距离,计算能见度的上限和下限,不需要大量数据或者复杂计算即可快速估算能见度。

3)本发明能适应多种局地、短临的气象变化对能见度变化的影响,当测量到小范围团雾或者烟雾时,可以通过烟/雾对地物的视线遮挡来测量能见度,从而能无偏估计自动驾驶决策所需要的能见度指标。

附图说明

为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。

图1为烟/雾对道路影响示例;

图2为从高精地图中提取的高精地图要素示意图;

图3为从视频数据中采集的地物要素示意图;

图4为对集合B与集合A求交集的结果示意图;

图5为集合B与集合A求交集的结果在高精地图上的展示图;

图6为对集合B减去集合A的结果示意图;

图7为集合B减去集合A的结果在高精地图上的展示图;

图8为对集合A减去集合B的结果示意图;

图9为集合A减去集合B的结果在高精地图上的展示图;

图10为集合A∩B中各个要素与车辆间距离的示意图。

图11为集合B-A中各个要素与车辆间的距离的示意图;

图12为集合A-B中各个要素与车辆之间的距离的示意图;

图13为能见度与各集合的关系示意图。

具体实施方式

下面将结合本发明实施方式,对本发明实施方式中的技术方案进行清楚、完整地描述,显然,所描述的实施方式仅仅是本发明一部分实施方式,而不是全部的实施方式。基于本发明中的实施方式,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施方式,都属于本发明保护的范围。

在有烟/雾的场景中,车辆无法感知到烟雾范围内和范围前方的地物,纯视觉感知的自动驾驶车辆尤为如此,图1所示为烟/雾对道路影响示例。自动驾驶中自动巡航控制、车道变换安全检查和车道变换执行等决策与控制,都依赖于车辆对道路上以及两侧地物距离的正确判断。现有的能见度测量方法一般面向非驾驶场景,如固定区域的能见度度量,区域级的雾霾发现等,不能直接适用于沿公路连续测度能见度。此外,现有方法对于出现在道路上的小范围团雾或者烟雾也很难进行有效判断。对于小范围的烟雾或者团雾,由于其范围小,在进行测量时,容易用周围的能见度掩盖车辆行驶道路方向上的能见度,从而高估能见度的测量值和造成自动驾驶决策的误判及交通安全事故。传统的天气预报已经在微小尺度上难以满足驾驶要求,本发明充分利用车辆的物理传感器和高精度图来捕捉能见度的实时变化。

请参阅图1,本发明提出一种基于高精地图实时测量局部能见度的方法,所述方法包括:

S1、利用车辆定位信息查询高精地图,提取车辆沿途的高精地图要素。

基于车辆定位装置,如GPS等,确定车辆的位置坐标,依据通视分析方法从高精地图上提取车辆沿途的高精地图要素,主要包括道路信息、路灯、加油站、交通信号灯和道路指示牌等交通要素及对应位置。其中,道路信息包括道路宽度、曲率、坡度、坡向等。图2所示为从高精地图中提取的高精地图要素示意图。

S2、通过车载摄像头采集车辆前方的视频数据,并识别地物要素。

对于车载摄像头采集的视频图像,利用图像识别工具进行地物感知,识别其中地物要素。如图3所示为从视频数据中采集的地物要素示意图,地物要素主要包括交通要素和其他要素,交通要素主要包括道路信息、路灯、加油站、交通信号灯和道路指示牌等,其他要素包括道路两旁的树木、其他标志物。然后提取地物的相对位置。

S3、在高精地图上匹配高精地图要素和地物要素,确定烟/雾对地物要素和高精地图要素的遮挡关系。

根据车辆定位,将地物要素的相对位置转换为绝对位置,并叠加到高精地图上,进行高精地图要素和地物要素匹配。

设从视频数据中提取的地物要素组成集合A,以图3对应的地物要素为例,该地物要素组成的集合A包括树木a、树木b、树木c、路灯a、路灯b、道路指示牌a。

设从高精地图中提取的高精地图要素组成集合B,以图2对应的高精地图要素为例,该高精地图要素组成的集合B包括路灯1、路灯2、道路指示牌1、道路指示牌2。

根据高精地图要素和地物要素匹配结果,判断烟/雾对地物要素和高精地图要素的遮挡关系。针对匹配结果,存在着以下几种状况:

①对于高精地图要素和地物要素中均存在的要素,则距离车辆最远的要素未被遮挡。

对集合B与集合A求交集,主要目的是将视频图像中提取的地物要素与高精地图要素进行匹配,进而得到高精地图中和视频图像中都含有的要素,其结果如图4所示,将交集结果映射在高精地图上,则如图5所示。此时,图5中距离车辆最远的要素(道路指示牌1)未被遮挡,说明能见度不小于车辆距该最远要素的距离。

②对于高精地图中存在而地物要素中不存在的要素,则距离车辆最近的要素被遮挡。

集合B减去集合A,只保留集合B中包含、减去集合A中不包含的要素,记为集合B-A,B-A集合在实际上仅分布在视频测距之外,这一部分要素主要是识别理论情况下车辆能够识别到的要素与实际识别得到要素之间的区别,判断哪些要素是在车辆摄像头中识别不到的,这些识别不到的要素,就是潜在的受能见度下降影响的区域。集合B减去集合A的差集结果如图6所示,将B-A的结果映射在高精地图上,则如图7所示。此时,图7中距离车辆最近的要素(道路指示牌2)被遮挡,说明能见度不大于车辆距该最近要素的距离。

③对于高精地图中不存在而地物要素中存在的要素,则距离车辆最远的要素未被遮挡。

集合A减去集合B,只保留集合A中包含,减去集合B中不包含的要素,记为集合A-B,这一部分要素主要是对车辆实际能看到的地物要素与高精地图要素进行区分,因为实际环境中包含地物比如树木等,在高精地图中则不会出现。这些只有在视频数据中才包含的地物,则是对能见度识别的进一步补充。集合A减去集合B的差集结果如图8所示,将B-A的结果映射在高精地图上,则如图9所示。此时,图9中距离车辆最远的要素(树木c)未被遮挡,说明能见度不小于车辆距该最远要素的距离。

S4、根据烟/雾对地物要素和高精地图要素的遮挡关系计算局部能见度。

本发明分别计算集合B与集合A的交集、集合B与集合A的差集和集合A与集合B的差集,根据车辆与集合中各个要素之间的距离以及遮挡关系建立能见度与各个集合的关系,计算局部能见度的上限和下线,从而进行能见度测量,得到局部能见度的范围。

S41、计算集合B与集合A的交集,得到高精地图要素和地物要素中均存在的要素组成的集合B∩A,获取这些要素的地理坐标,计算集合B∩A中各个要素与车辆之间的距离,计算能见度下限。

距离计算公式为:

其中,d

S42、计算集合B与集合A的差集,得到高精地图中存在而地物要素中不存在的要素组成的集合B-A,计算集合B-A中各个要素与车辆之间的距离,计算能见度上限。

图11所示为集合B-A中要素与车辆间的距离d

S43、计算集合A与集合B的差集,得到高精地图中不存在而地物要素中存在的要素组成的集合A-B,计算集合A-B中各个要素与车辆之间的距离。

图12为集合A-B中各个要素与车辆之间的距离d

经过以上分析,得到图13所示为能见度与各集合的关系示意图,在得到D

最终输出车辆所处环境的能见度Visibility的范围,即max(D

本发明针对现有自动驾驶领域能见度数据缺乏局地性和短临性的不足,构建了基于高精地图的能见度测量方法,将摄像头获取到的路况信息与高精地图中的路况信息相匹配,从而为自动驾驶所需要的具有局地性和短临性的高精能见度提供支撑。本发明采用的高精地图技术,它能提供丰富的地物及其高精度位置。一方面,当测量到小范围团雾或者烟雾时,可以通过团/烟雾对地物的视线遮挡来精确测量能见度,从而能无偏估计自动驾驶决策所需要的能见度指标。另一方面,高精地图包含的先验地物信息能提高视频数据识别地物的精度,从而也能提高基于地物识别的能见度测量精度。

本发明通过构建高精地图数据、车辆摄像头数据与能见度之间的关联关系,可以实现基于高精地图的能见度测量,为自动驾驶车辆控制和决策提供所需要的局地、短临能见度数据。同时本发明中的方法还可以扩展到短时强降雨、沙尘天气、降雪天气等各种天气下的能见度测量之中,应用潜力较大。国内标准目前只有基于车载摄像头的能见度测量方法,尚未发现基于高精地图的能见度测量方法,本发明的方法弥补了这一空白,能更好适应自动驾驶的实际需求。

与上述方法实施例相对应,本发明还提出一种基于高精地图实时测量局部能见度的系统,所述系统包括:

地图要素提取模块:用于利用车辆定位信息查询高精地图,提取车辆沿途的高精地图要素;

地物要素识别模块:用于通过车载摄像头采集车辆前方视频数据,并识别地物要素;

要素匹配模块:用于在高精地图上匹配高精地图要素和地物要素,确定烟/雾对地物要素和高精地图要素的遮挡关系;

能见度计算模块:用于根据确定烟/雾对地物要素和高精地图要素的遮挡关系计算局部能见度。

以上系统实施例和方法实施例是一一对应的,系统实施例简述之处请参阅方法实施例即可。

本发明还公开一种电子设备,包括:至少一个处理器、至少一个存储器、通信接口和总线;其中,所述处理器、存储器、通信接口通过所述总线完成相互间的通信;所述存储器存储有可被所述处理器执行的程序指令,所述处理器调用所述程序指令,以实现本发明前述的方法。

本发明还公开一种计算机可读存储介质,所述计算机可读存储介质存储计算机指令,所述计算机指令使所述计算机实现本发明实施例所述方法的全部或部分步骤。所述存储介质包括:U盘、移动硬盘、只读存储器ROM、随机存取存储器RAM、磁碟或者光盘等各种可以存储程序代码的介质。

以上所描述的系统实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以分布到多个网络单元上。本领域普通技术人员在不付出创造性的劳动的情况下,可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。

以上所述仅为本发明的较佳实施方式而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

相关技术
  • 基于高精轨迹数据测量绘制高精地图数据方法
  • 一种基于自动驾驶高精地图的局部地图动态加载方法
  • 基于图像与高精度地图配准的实时高精度定位方法
技术分类

06120116509007