掌桥专利:专业的专利平台
掌桥专利
首页

用于车辆自动驾驶的AEB紧急制动方法、装置

文献发布时间:2023-06-19 11:29:13


用于车辆自动驾驶的AEB紧急制动方法、装置

技术领域

本发明涉及自动驾驶技术领域,具体涉及一种用于车辆自动驾驶的AEB紧急制动方法、一种用于车辆自动驾驶的AEB(Autonomous Emergency Braking,自动制动系统)紧急制动装置。

背景技术

目前,自动驾驶的AEB系统大都通过激光雷达作为障碍物检测传感器,实时检测车辆前方障碍物,报告控制子系统进行紧急制动。但是激光雷达点云数据稀疏,感知难度大,容易造成误检和漏检。并且稀疏点云相对于图像难以提供物体类别信息。所以这类单传感器实现的AEB算法往往感知结果不可靠,这给AEB决策模块进行决策时带来了很多不稳定的因素,影响了安全性和舒适度。

相关技术中,提出一种采用基于毫米波雷达和摄像头视觉的数据融合算法进行AEB制动,然而毫米波雷达是利用目标对电磁波的反射来发现并测定目标位置,而充满杂波的外部环境给毫米波雷达感知带来经常带来虚警问题。而且毫米波雷达无法感知行人,对周边所有障碍物无法进行精准的建模。所以毫米波与摄像头的融合也很难提供稳定,精准的三维感知结果。

发明内容

本发明为解决上述技术问题,提供了用于车辆自动驾驶的AEB紧急制动方法,该方法采用多种传感器联合感知的方法将多种感知信息进行融合,可以提高感知结果的稳定性和准确度,从而在更复杂多交通场景下具有良好的准确性、实时性和容错性,在点云聚类方面通过2D空间哈希实现更快的点云近邻查询,使用2D体素网格减少空间哈希中的点数量减少计算负担,使点云感知算法获得更高的性能,且数据融合采用多层次的融合算法,可以得到一个更为准确的3D感知结果。

本发明还提供了一种用于车辆自动驾驶的AEB紧急制动装置。

本发明采用的技术方案如下:

本发明第一方面实施例提出了一种用于车辆自动驾驶的AEB紧急制动方法,包括以下步骤:将激光雷达与摄像头进行标定,以获取激光雷达坐标系与相机坐标系之间的变换矩阵;通过2D空间哈希和2D体素网格对所述激光雷达采集的点云数据进行聚类,以获取点云感知结果,并通过目标检测神经网络对所述摄像头采集的图像数据进行目标识别,以获取图像感知结果;采用信息融合神经网络将所述点云感知结果和所述图像感知结果进行信息融合,以获取稠密深度图;根据所述变换矩阵将所述稠密深度图与所述点云感知结果进行数据融合,以获取目标的3D感知结果;将所述目标的3D感知结果输入所述AEB的决策层,以使所述决策层根据所述目标的3D感知结果判断是否触发紧急制动。

本发明上述提出的用于车辆自动驾驶的AEB紧急制动方法,还具有如下附加技术特征:

根据本发明的一个实施例,将激光雷达与摄像头进行标定,以获取激光雷达坐标系与相机坐标系之间的变换矩阵,包括:采用棋盘格标定法,检测每张图片中的棋盘图案的角点,通过使用线性最小二乘法估算相机的投影矩阵P;根据所述投影矩阵P获取摄像头的内参矩阵K;采用基于Target平面约束的相机与激光雷达联合标定法,对摄像头的外参进行标定,以获取所述摄像头相对于所述激光雷达的外参矩阵【R,t】;根据所述内参矩阵K和所述外参矩阵【R,t】获取所述激光雷达坐标系与相机坐标系之间的变换矩阵。

根据本发明的一个实施例,上述的用于车辆自动驾驶的AEB紧急制动方法还包括:对所述激光雷达采集的点云数据和所述摄像头采集的图像数据进行预处理,所述预处理包括:滤波去噪和时间对齐。

根据本发明的一个实施例,述目标检测神经网络包括:Yolov3框架。

根据本发明的一个实施例,采用信息融合神经网络将所述点云感知结果和所述图像感知结果进行信息融合,以获取稠密深度图,包括:通过于NASNet的并行编码器对所述点云感知结果和所述图像感知结果进行处理后,融合到共享解码器中,以输出填充后的稠密深度图。

根据本发明的一个实施例,根据所述变换矩阵将所述稠密深度图与所述点云感知结果进行数据融合,以获取目标的3D感知结果,包括:根据所述变换矩阵将所述稠密深度图投影到所述激光雷达坐标系中;根据投影后的结果将所述稠密深度图与所述点云感知结果进行匹配;若匹配成功,则将所述稠密深度图与所述点云感知结果进行数据融合。

本发明第二方面实施例提出了一种用于车辆自动驾驶的AEB紧急制动装置,包括:标定模块,所述标定模块用于将激光雷达与摄像头进行标定,以获取激光雷达坐标系与相机坐标系之间的变换矩阵;第一感知模块,所述第一感知模块用于通过2D空间哈希和2D体素网格对所述激光雷达采集的点云数据进行聚类,以获取点云感知结果;第二感知模块,所述第二感知模块用于通过目标检测神经网络对所述摄像头采集的图像数据进行目标识别,以获取图像感知结果;第一融合模块,所述第一融合模块用于采用信息融合神经网络将所述点5云感知结果和所述图像感知结果进行信息融合,以获取稠密深度图;第二融合模块,所述第二融合模块用于根据所述变换矩阵将所述稠密深度图与所述点云感知结果进行数据融合,以获取目标的3D感知结果;

判断模块,所述判断模块用于将所述目标的3D感知结果输入所述AEB的决策层,以使所述决策层根据所述目标的3D感知结果判断是否触发紧急制动。

发明的有益效果:

本发明采用多种传感器联合感知的方法将多种感知信息进行融合,可以提高感知结果的稳定性和准确度,从而在更复杂多交通场景下具有良好的准确性、实时性和容错性,在点云聚类方面通过2D空间哈希实现更快的点云近邻查询,使用2D体素网格减少空间哈希中的点数量减少计算负担,使点云感知算法获得更高的性能,且数据融合采用多层次的融合算法,可以得到一个更为准确的3D感知结果。

附图说明

图1是根据本发明一个实施例的用于车辆自动驾驶的AEB紧急制动方法的流程图;

图2是根据本发明一个具体示例的激光雷达与摄像头进行标定的示意图;

图3是根据本发明一个具体示例的通过2D空间哈希和2D体素网格对激光雷达采集的点云数据进行聚类的示意图;

图4是根据本发明一个实施例的Yolov3框架的原理图;

图5是根据本发明一个具体示例的图像感知的示意图;

图6是根据本发明一个具体示例的稠密深度图的生成示意图;

图7是根据本发明一个具体示例的目标的3D感知结果的示意图;

图8是根据本发明一个具体示例的点云数据的预处理示意图;

图9是根据本发明一个实施例的用于车辆自动驾驶的AEB紧急制动装置的方框示意图。

具体实施方式

下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。

本发明是发明人基于对以下问题的认识和认知提出的:

传感器融合技术利用多种具有互补特性的传感器来增强感知能力,降低成本,已成为一个新兴的研究课题,特别是深度学习技术提高了摄像机-激光雷达融合算法的性能。相机和激光雷达具有互补的特性,这使得融合模型比其他传感器融合配置更有效、更受欢迎。

基于视觉的感知系统以低成本获得了令人满意的性能,然而,单摄像头感知系统无法提供可靠的3D几何结构,此外,相机基础感知系统与复杂或恶劣的照明条件作斗争,这限制了它们的全天候工作能力。相反,激光雷达可以提供高精度的三维几何图形,并且对环境光是不变性的。

下面是结合附图来描述本发明实施例提出的用于车辆自动驾驶的AEB紧急制动方法、用于车辆自动驾驶的AEB紧急制动装置。

图1是根据本发明一个实施例的用于车辆自动驾驶的AEB紧急制动方法的流程图。如图1所示,该方法包括以下步骤:

S1,将激光雷达与摄像头进行标定,以获取激光雷达坐标系与相机坐标系之间的变换矩阵。

进一步地,根据本发明的一个实施例,将激光雷达与摄像头进行标定,以获取激光雷达坐标系与相机坐标系之间的变换矩阵,可以包括:采用棋盘格标定法,检测每张图片中的棋盘图案的角点,通过使用线性最小二乘法估算相机的投影矩阵P;根据投影矩阵P获取摄像头的内参矩阵K;

采用基于Target平面约束的相机与激光雷达联合标定法,对摄像头的外参进行标定,以获取摄像头相对于激光雷达的外参矩阵【R,t】;根据内参矩阵K和外参矩阵【R,t】获取激光雷达坐标系与相机坐标系之间的变换矩阵。

具体地,首先采用棋盘格标定法,检测每张图片中的棋盘图案的角点,通过使用线性最小二乘法估算相机投影矩阵P,获取摄像头的内参矩阵K,通过非线性优化,提高K的精度,得到摄像头的内参矩阵。然后采用基于Target平面约束的相机与激光雷达联合标定法,对摄像头的外参进行标定,得到摄像头相对于激光雷达的外参矩阵【R,t】。有了雷达坐标系到图像平面坐标系的变换矩阵,就可以将360度点云映射到图像平面上,得到点云图。举例而言,如图2所示的激光雷达与摄像头进行标定的实例图,标定后的点云图可以用于后期与图像的数据融合。

S2,通过2D空间哈希和2D体素网格对激光雷达采集的点云数据进行聚类,以获取点云感知结果,并通过目标检测神经网络对摄像头采集的图像数据进行目标识别,以获取图像感知结果。

具体地,聚类就是按照某种特定的标准把一个数据集分割成不同的簇,使得同一个簇内的数据尽可能相似,不在同一个簇的数据差异尽可能大。三维点云通常利用其特征属性进行聚类,对每个点空间或者局部空间进行特征的提取或者转换,得到多种属性,比如:法向量,密度,距离,高程,强度等等,将不同属性的点云分割出来。在点云处理中常见的有欧式聚类,密度聚类,超体聚类,针对不同的场景其各有优缺点,从算法耗时角度出发超体聚类最慢,欧式聚类最快;从算法效果角度出发欧式距离最暴力直接,超体聚类对特殊形态的物体表征最好。

欧式聚类依据欧式距离作为判定准则,对于空间内的一点P,通过KD-Tree在领域搜索k个距离P点最近的点,其中距离小于设定阈值的便放入集合Q中,如果Q中元素不在增加,则聚类过程结束;否则在集合Q中选取P点以外的点,重复以上步骤。

本发明采用改进后的欧式聚类算法,通过2D哈希散列实现更快的点云查询,将输入点云划分为块,每个块通过映射得到哈希值,组成哈希表,哈希表中每一个条目包含指向块的指针,可以使用整数平面坐标(x,y)从哈希表中检索对应的块,然后对块中存储的点云进行线性查找。除此以外,使用2D体素网格减少哈希散列中的点数量减少计算负担,使点云感知算法获得更高的性能,首先我们将三维的点云数据映射到与地面平行的二维平面,然后利用体素滤波将二维平面划分为网格,将落入同一个体素格的所有点求加权平均值作为融合后的点以此得到降采样后的点云,将采样后的2D点云作为哈希散列的输入。点云欧几里得聚类算法使用邻居之间距离作为判定标准,将不同物体的点云分别组合聚集起来,形成多个点集,最终得到点云感知结果。图3是根据本发明一个具体示例的通过2D空间哈希和2D体素网格对激光雷达采集的点云数据进行聚类的示意图。

目标检测技术也是计算机视觉领域一个主要研究方向。其在安全、军事、交通、医疗等领域均得到了广泛的应用。

目标检测主要是对数字图像或者视频中的多个感兴趣目标进行识别和定位。传统的目标检测可分为三个步骤:首先选择图像中的候选区域,之后提取Haar、HOG等视觉特征,最后基于支持向量机模型、RF模型等常用分类器进行分类。随着深度学习的发展,目标检测算法也从基于手工特征的传统算法转向了基于人工神经网络的检测技术。后者的发展主要集中在两个方向:two stage算法如R-CNN系列和one stage算法如YOLO、SSD等。考虑到算法的实时性并兼顾性能。我们采用one stage目标检测算法yolov3。Yolov3通过在图上铺设先验框并对物体的中心点,长宽,和类别进行回归实现目标的定位和识别。

根据本发明的一个实施例,目标检测神经网络包括:Yolov3框架。

如图4所示,用于二维图像的目标检测网络采用的是Yolov3框架;采用darknet53作为特征提取网络,包括从第0层到第74层,它由一系列的1x1和3x3的卷积层组成,每个卷积层后有一个BN层和一个Leaky-ReLU层,同时Darknet53也采用了残差连接;Darknet53之后的第75层到105层是yolo网络的特征交互层,分别在三个尺度进行边界框的预测,第一个尺度中,特征图经过了32倍的下采样,适合检测图像中尺寸较大的目标;第二个尺度中,特征图经过了16倍的下采样,具有中等大小的感受野,适合检测中等尺寸的目标;第三个尺度中,特征图经过了8倍的下采样,特征图分辨率较大,适合检测小尺寸的目标;通过在三个尺度下就行预测,得到图像中感兴趣目标的边界框和所属标签,从而获取图像感知结果。

为了使神经网络得到更好的性能,在网络训练时本发明使用了迁移学习方法。从在coco数据集上训练的通用目标检测模型中提取预训练权重,然后在我们自己收集建立的数据集上对特定目标进行强化训练,使得模型在特定场景中有更出色的性能表现。同时,我们在训练时对数据进行了增强,增强方法包括图像的水平翻转,缩放,HSV色域变换,以及Mosaic增强方法。Mosaic方法中我们将四张图片进行随机裁剪,再拼接到一张图上作为训练数据,以丰富图片的背景,间接增加训练batch的大小。

如图5所示,通过前述搭建和训练得到的目标检测神经网络我们可以得到图像中感兴趣物体,包括人,车辆,的边界框(boundingbox)和所属标签(label)。

S3,采用信息融合神经网络将点云感知结果和图像感知结果进行信息融合,以获取稠密深度图。

进一步地,根据本发明的一个实施例,采用信息融合神经网络将点云感知结果和图像感知结果进行信息融合,以获取稠密深度图,包括:

通过于NASNet(一种图像识别框架)的并行编码器对点云感知结果和图像感知结果进行处理后,融合到共享解码器中,以输出填充后的稠密深度图。

具体地,用于稠密点云图生成的神经网络采用的是一种自动编码器网络,它可以在不应用有效性掩码的情况下,从稀疏点云图(即上述的点云感知结果)和RGB(Red、Green、Blue,红绿蓝)图像(即上述的图像感知结果)中执行深度生成。RGB图像和稀疏点云图首先由两个基于NASNet的并行编码器进行处理,然后将它们融合到共享解码器中,最后输出填充后的密集深度图。该网络的编码部分采用NASNet的mobile版本,并做了一些改动,去掉了第一个strided卷积层之后的BN层,因为稀疏矩阵中大量的0值会导致batchnorm层在计算均值时出现问题。解码器部分,采用一般的反卷积层,在与编码器相同尺寸的特征图间使用skip connection(跳跃式传递)。这种神经网络可以改善激光雷达扫描得到的点云的不均匀分布。通过高分辨率的图像作为辅助条件来完成稠密深度值的生成。

通过前述的信息融合神经网络我们可以从稀疏的点云图得到稠密深度图。稠密有规则的深度值更加有利于后期的获取后续的目标的3D感知结果。图6是根据本发明一个具体示例的稠密深度图的生成示意图。

S4,根据变换矩阵将稠密深度图与点云感知结果进行数据融合,以获取目标的3D感知结果。

进一步地,根据本发明的一个实施例,根据变换矩阵将稠密深度图与点云感知结果进行数据融合,以获取目标的3D感知结果,可以包括:根据变换矩阵将稠密深度图投影到激光雷达坐标系中;根据投影后的结果将稠密深度图与点云感知结果进行匹配;若匹配成功,则将稠密深度图与点云感知结果进行数据融合。

具体地,步骤S3中描述的是特征层图像与点云数据融合方法,基于稀疏点云图并通过高分辨率的图像作为辅助条件来完成稠密深度图的生成。得到的稠密深度图可以将二维图像目标检测结果投影到3D坐标系中,然后与点云聚类得到的3D感知结果相匹配,匹配成功,则将两者数据进行融合,得到更为准确的3D感知结果,该结果中包含目标类别,坐标,尺寸,方向角等信息。感知结果可以参照图7所示。

S5,将目标的3D感知结果输入AEB的决策层,以使决策层根据目标的3D感知结果判断是否触发紧急制动。

具体地,本发明中运用了Honda模型计算安全距离,作为AEB决策层的判别标准。其计算公式如下:

d

其中d(w)表示预警安全车间距,d(br)表示制动安全车间距,v表示本车车速,v(rel)表示两车相对速度,v2表示目标车车速,a1、a2分别是本车和目标车的最大减速度,t1、t2分别是系统延迟时间和制动时间,t(Honda)、d(Honda)分别是与预警距离相关的Honda参数,我们通常取t(Honda)为2.2,d(Honda)为6.2。通过设置预警距离,AEB可提前通过声光预警等方式来提醒驾驶员前方有碰撞危险,从而能够更及时的采取更大力的制动,提高制动效果。

由上,采用多种传感器联合感知的方法将多种感知信息进行融合,可以提高感知结果的稳定性和准确度,从而在更复杂多交通场景下具有良好的准确性、实时性和容错性,在点云聚类方面通过2D空间哈希实现更快的点云近邻查询,使用2D体素网格减少空间哈希中的点数量减少计算负担,使点云感知算法获得更高的性能,且数据融合采用多层次的融合算法,可以得到一个更为准确的3D感知结果。

根据本发明的一个实施例,上述的用于车辆自动驾驶的AEB紧急制动方法还可以包括:对激光雷达采集的点云数据和摄像头采集的图像数据进行预处理,预处理包括:滤波去噪和时间对齐。

具体地,点云数据预处理又包括点云坐标系转换,点云地面过滤,点云体素滤波。点云坐标转换将原始雷达坐标系下的点云映射到统一坐标系下。点云地面过滤将点云数据中的地面点和非地面点进行分离,非地面点用于之后的障碍物聚类。点云体素网格滤波算法在输入点云数据上创建3D体素网格,在每个体素中,所有存在的点将用它们的质心近似,以此实现点云的降采样。如图8所示,左边第一幅图为原始点云,第二幅为经过地面过滤后的点云,第三幅为体素滤波降采样过后的点云。

由上述可知,本发明提出的用于车辆自动驾驶的AEB紧急制动方法,在图像识别方面针对特有的应用场景建立自己的数据集,采用迁移学习和图像增强算法对神经网络进行训练,使图像感知模型获得更优的性能。在点云聚类方面,对点云聚类算法进行了简化和改进,通过2D空间哈希实现更快的点云近邻查询,也使用2D体素网格减少空间哈希中的点数量减少计算负担,使点云感知算法获得更高的性能。

采用多种传感器联合感知的方法将多种感知信息进行融合以此提高感知结果的稳定性和准确度。经验证,该方案在在更复杂多交通场景下具有良好的准确性,实时性和容错性。

在传感器融合方面,设计的融合方法相对于传统的融合算法也具有很大的优势,传统的融合算法往往是在信号层、特征层获或结果层中一个数据层上进行融合,而本发明设计的信息融合方案是一种多层次的融合算法。首先我们在特征层将图像与点云进行融合,将图像和点云分别输入并行编码器进行处理,然后将它们融合到共享解码器中,输出填充后的密集深度图。然后我们在结果层将图像感知结果和点云感知结果进行融合,利用密集深度图将二维图像目标检测结果投影到三维统一坐标系中,然后与点云聚类得到的目标进行匹配。如果匹配成功,融合两者的数据得到一个更为准确的3D感知信息。

基于以上融合得到的感知结果,AEB决策层将计算安全距离,包括预警安全车间距和制动安全车间距,通过设置预警距离,AEB系统可以进行适当的减速或者通过声光预警等方式来提醒驾驶员前方有碰撞危险,从而能够更及时的采取更大力的制动,提高制动效果。

综上所述,根据本发明实施例的用于车辆自动驾驶的AEB紧急制动方法,采用多种传感器联合感知的方法将多种感知信息进行融合,可以提高感知结果的稳定性和准确度,从而在更复杂多交通场景下具有良好的准确性、实时性和容错性,在点云聚类方面通过2D空间哈希实现更快的点云近邻查询,使用2D体素网格减少空间哈希中的点数量减少计算负担,使点云感知算法获得更高的性能,且数据融合采用多层次的融合算法,可以得到一个更为准确的3D感知结果。

与上述的用于车辆自动驾驶的AEB紧急制动方法相对应,本发明还提出一种用于车辆自动驾驶的AEB紧急制动装置。由于本发明的装置实施例与上述的方法实施例相对应,对于装置实施例中未披露的细节可参照上述的方法实施例,本发明中不再进行赘述。

图9是根据本发明一个实施例的用于车辆自动驾驶的AEB紧急制动装置的方框示意图,如图9所示,该装置包括:标定模块1、第一感知模块2、第二感知模块3、第一融合模块4、第二融合模块5和判断模块6。

其中,标定模块1用于将激光雷达与摄像头进行标定,以获取激光雷达坐标系与相机坐标系之间的变换矩阵;第一感知模块2用于通过2D空间哈希和2D体素网格对所述激光雷达采集的点云数据进行聚类,以获取点云感知结果;第二感知模块3用于通过目标检测神经网络对所述摄像头采集的图像数据进行目标识别,以获取图像感知结果;第一融合模块4用于采用信息融合神经网络将点云感知结果和图像感知结果进行信息融合,以获取稠密深度图;第二融合模块5用于根据变换矩阵将稠密深度图与点云感知结果进行数据融合,以获取目标的3D感知结果;判断模块6用于将目标的3D感知结果输入AEB的决策层,以使决策层根据目标的3D感知结果判断是否触发紧急制动。

根据本发明实施例的用于车辆自动驾驶的AEB紧急制动装置,采用多种传感器联合感知的方法将多种感知信息进行融合,可以提高感知结果的稳定性和准确度,从而在更复杂多交通场景下具有良好的准确性、实时性和容错性,在点云聚类方面通过2D空间哈希实现更快的点云近邻查询,使用2D体素网格减少空间哈希中的点数量减少计算负担,使点云感知算法获得更高的性能,且数据融合采用多层次的融合算法,可以得到一个更为准确的3D感知结果。

为了实现上述实施例,本发明还提出一种非临时性计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现用于车辆自动驾驶的AEB紧急制动方法,所述方法包括:将激光雷达与摄像头进行标定,以获取激光雷达坐标系与相机坐标系之间的变换矩阵;通过2D空间哈希和2D体素网格对激光雷达采集的点云数据进行聚类,以获取点云感知结果,并通过目标检测神经网络对摄像头采集的图像数据进行目标识别,以获取图像感知结果;采用信息融合神经网络将点云感知结果和图像感知结果进行信息融合,以获取稠密深度图;根据变换矩阵将稠密深度图与点云感知结果进行数据融合,以获取目标的3D感知结果;将目标的3D感知结果输入AEB的决策层,以使决策层根据目标的3D感知结果判断是否触发紧急制动。

在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。

此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。

流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现定制逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本发明的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本发明的实施例所属技术领域的技术人员所理解。

在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。就本说明书而言,"计算机可读介质"可以是任何可以包含、存储、通信、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、装置或设备而使用的装置。计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式光盘只读存储器(CDROM)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。

应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。如,如果用硬件来实现和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。

本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。

此外,在本发明各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。

上述提到的存储介质可以是只读存储器,磁盘或光盘等。尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。

相关技术
  • 用于车辆自动驾驶的AEB紧急制动方法、装置
  • 用于车辆自动驾驶机器人的紧急制动控制装置与控制方法
技术分类

06120112940500