掌桥专利:专业的专利平台
掌桥专利
首页

目标检测方法、装置、计算机设备以及存储介质

文献发布时间:2023-06-19 12:13:22


目标检测方法、装置、计算机设备以及存储介质

技术领域

本申请涉及检测技术领域,尤其涉及一种目标检测方法、装置、计算机设备以及存储介质。

背景技术

三维物体的检测是自动驾驶领域中备受关注的问题,而检测结果对于车辆的行驶安全起着至关重要的作用。例如,将检测设备安装在车辆上来检测障碍物,在前方的障碍物是其他车辆的情况下,要求能够检测到其他车辆,并更高精度地计算其位置和速度信息,计算出的位置速度信息例如被用作防碰撞功能或前车追踪功能的输入,有助于实现更恰当的车辆控制。

在现有技术中,常用的三维物体的检测方法是基于相机的方法,具体的,通过单个相机获取到车辆前方的图像,并通过提取图像中物体的特征来进行朝向估计,从而确定图像中物体的检测结果。

然而,基于相机的三维检测方法只依赖于便宜和成熟的相机传感器,得到的是物体的平面信息,无法提供场景的深度信息,存在检测准确度低的问题。

发明内容

本申请实施例提供一种目标检测方法、装置、计算机设备以及存储介质,用以解决现有技术中对于三维物体的检测准确度较低的问题。

第一方面,本申请实施例提供一种目标检测方法,包括:

获取待处理图像,所述待处理图像包括:至少一个目标物体;

对所述待处理图像进行目标检测,得到所述待处理图像中每个目标物体的深度信息和二维框图信息;

根据所述待处理图像中每个目标物体的深度信息和二维框图信息,得到各个目标物体的三维中心信息和维度及朝向信息;

根据各个目标物体的三维中心信息和维度及朝向信息,确定各个目标物体的三维框图信息。

在第一方面一种可能的设计中,所述根据所述待处理图像中每个目标物体的深度信息和二维框图信息,得到各个目标物体的三维中心信息和维度及朝向信息,包括:

对各个目标物体的深度信息和二维框图信息进行自适应体素处理,确定各个目标物体的三维中心信息;

对各个目标物体的二维框图信息进行比例缩放处理,确定各个目标物体的维度及朝向信息。

在该种可能的设计中,所述对各个目标物体的深度信息和二维框图信息进行自适应体素处理,确定各个目标物体的三维中心信息,包括:

针对各个目标物体,根据所述目标物体的深度信息进行重投影处理,得到所述目标物体的空间点云信息;

根据所述目标物体的二维框图信息,将所述目标物体的空间点云信息量化为体素信息,得到所述目标物体的自适应体素信息;

将所述目标物体的自适应体素信息输入至预先训练好的三维中心定位器中,得到所述目标物体的三维中心信息。

在该种可能的设计中,所述根据所述目标物体的二维框图信息,将所述目标物体的空间点云信息量化为体素信息,得到所述目标物体的自适应体素信息,包括:

根据所述目标物体的二维框图信息,确定出所述目标物体对应的点云范围;

根据所述点云范围内的点云密度,确定所述点云范围内各个体素的大小;

根据所述点云范围内各个体素的大小对所述点云范围进行划分,得到所述目标物体的自适应体素信息。

在第一方面另一种可能的设计中,所述对各个目标物体的二维框图信息进行比例缩放处理,确定各个目标物体的维度及朝向信息,包括:

按照预设的长宽比例对各个目标物体的二维框图信息进行缩放处理,得到预设尺寸的缩放结果;

对所述缩放结果中空白区域进行补零操作,得到各个目标物体的自适应框架信息;

将各个目标物体的自适应框架信息输入至物体维度和朝向估计器,得到各个目标物体的维度及朝向信息。

可选的,在所述根据各个目标物体的三维中心信息和维度及朝向信息,确定各个目标物体的三维框图信息之后,所述方法还包括:

针对每个目标物体,根据所述目标物体的二维框图信息和所述目标物体的三维框图信息,确定所述三维框图信息的置信度。

在第一方面再一种可能的设计中,所述对所述待处理图像进行目标检测,得到所述待处理图像中每个目标物体的深度信息和二维框图信息,包括:

将所述待处理图像输入至预先训练好的二维检测器中,得到所述待处理图像中每个目标物体的二维框区域;

对所述待处理图像中每个目标物体的二维框区域进行剪切处理,得到各个目标物体的二维框图信息;

将所述待处理图像输入至预先训练好的深度估计器中,得到所述待处理图像对应的深度图像;

根据所述待处理图像中每个目标物体的二维框区域,对所述深度图像进行剪切处理,得到各个目标物体的深度信息。

第二方面,本申请实施例提供一种目标检测装置,包括:获取模块、检测模块、处理模块;

所述获取模块,用于获取待处理图像,所述待处理图像包括:至少一个目标物体;

所述检测模块,用于对所述待处理图像进行目标检测,得到所述待处理图像中每个目标物体的深度信息和二维框图信息;

所述处理模块,用于根据所述待处理图像中每个目标物体的深度信息和二维框图信息,得到各个目标物体的三维中心信息和维度及朝向信息,并根据各个目标物体的三维中心信息和维度及朝向信息,确定各个目标物体的三维框图信息。

在第二方面一种可能的设计中,所述处理模块,用于根据所述待处理图像中每个目标物体的深度信息和二维框图信息,得到各个目标物体的三维中心信息和维度及朝向信息,具体为:

所述处理模块,具体用于:

对各个目标物体的深度信息和二维框图信息进行自适应体素处理,确定各个目标物体的三维中心信息;

对各个目标物体的二维框图信息进行比例缩放处理,确定各个目标物体的维度及朝向信息。

在该种可能的设计中,所述处理模块,用于对各个目标物体的深度信息和二维框图信息进行自适应体素处理,确定各个目标物体的三维中心信息,具体为:

所述处理模块,具体用于:

针对各个目标物体,根据所述目标物体的深度信息进行重投影处理,得到所述目标物体的空间点云信息;

根据所述目标物体的二维框图信息,将所述目标物体的空间点云信息量化为体素信息,得到所述目标物体的自适应体素信息;

将所述目标物体的自适应体素信息输入至预先训练好的三维中心定位器中,得到所述目标物体的三维中心信息。

可选的,所述处理模块,用于根据所述目标物体的二维框图信息,将所述目标物体的空间点云信息量化为体素信息,得到所述目标物体的自适应体素信息,具体为:

所述处理模块,具体用于:

根据所述目标物体的二维框图信息,确定出所述目标物体对应的点云范围;

根据所述点云范围内的点云密度,确定所述点云范围内各个体素的大小;

根据所述点云范围内各个体素的大小对所述点云范围进行划分,得到所述目标物体的自适应体素信息。

在第二方面另一种可能的设计中,所述处理模块,用于对各个目标物体的二维框图信息进行比例缩放处理,确定各个目标物体的维度及朝向信息,具体为:

所述处理模块,具体用于:

按照预设的长宽比例对各个目标物体的二维框图信息进行缩放处理,得到预设尺寸的缩放结果;

对所述缩放结果中空白区域进行补零操作,得到各个目标物体的自适应框架信息;

将各个目标物体的自适应框架信息输入至物体维度和朝向估计器,得到各个目标物体的维度及朝向信息。

可选的,所述处理模块,还用于针对每个目标物体,根据所述目标物体的二维框图信息和所述目标物体的三维框图信息,确定所述三维框图信息的置信度。

在第二方面再一种可能的设计中,所述检测模块,具体用于:

将所述待处理图像输入至预先训练好的二维检测器中,得到所述待处理图像中每个目标物体的二维框区域;

对所述待处理图像中每个目标物体的二维框区域进行剪切处理,得到各个目标物体的二维框图信息;

将所述待处理图像输入至预先训练好的深度估计器中,得到所述待处理图像对应的深度图像;

根据所述待处理图像中每个目标物体的二维框区域,对所述深度图像进行剪切处理,得到各个目标物体的深度信息。

第三方面,本申请实施例提供一种计算机设备,包括:至少一个处理器、存储器;

所述存储器存储计算机执行指令;

所述至少一个处理器执行所述计算机执行指令,使得所述计算机设备执行如上述第一方面及各种可能的设计中所述的目标检测方法。

第四方面,本申请实施例提供一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机执行指令,所述计算机执行指令被处理器执行时用于实现如上述第一方面及各种可能的设计中所述的目标检测方法。

第五方面,本申请实施例提供一种计算机程序产品,包括计算机程序,所述计算机程序被处理器执行时用于实现如上述第一方面及各种可能的设计中所述的目标检测方法。

本申请实施例提供的目标检测方法、装置、计算机设备以及存储介质,该方法中,首先获取待处理图像,并对待处理图像进行目标检测,得到待处理图像中每个目标物体的深度信息和二维框图信息,再根据待处理图像中每个目标物体的深度信息和二维框图信息,得到各个目标物体的三维中心信息和维度及朝向信息,最后根据各个目标物体的三维中心信息和维度及朝向信息,确定各个目标物体的三维框图信息。该技术方案中,通过对各个目标物体的深度信息和二维框图信息进行自适应体素处理,以及对各个目标物体的二维框图信息进行比例缩放处理,使得更加准确的对待处理图像进行目标检测,避免了现有技术中检测准确度低的问题。

附图说明

此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。

图1为本申请实施例提供的目标检测方法的应用场景示意图;

图2为本申请实施例提供的目标检测方法实施例一的流程示意图;

图3为本申请实施例提供的目标检测方法实施例二的流程示意图;

图4为本申请实施例提供的空间点云示意图;

图5为本申请实施例提供的自适应体素构建示意图;

图6为本申请实施例提供的目标检测方法实施例三的流程示意图;

图7A为本申请实施例提供的现有技术中的缩放处理示意图;

图7B为本申请实施例提供的缩放处理示意图;

图8为本申请实施例提供的目标检测方法实施例四的流程示意图;

图9为本申请实施例提供的目标检测方法的总框架示意图;

图10为本申请实施例提供的目标检测装置的结构示意图;

图11为本申请实施例提供的计算机设备的结构示意图。

通过上述附图,已示出本公开明确的实施例,后文中将有更详细的描述。这些附图和文字描述并不是为了通过任何方式限制本公开构思的范围,而是通过参考特定实施例为本领域技术人员说明本公开的概念。

具体实施方式

这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。

在介绍本申请的实施例之前,首先对本申请的背景技术进行解释说明:

在自动驾驶领域中,三维物体检测一直是备受关注的问题,并且出现了各种解决方法。这些方法大致可以分为两类:基于激光雷达的方法和基于相机的方法。

其中,基于激光雷达的方法通过激光雷达点云提供准确的场景深度值,从而得到的检测结果相对来说准确,然而,激光雷达工作范围有限并且价格过于昂贵,不适合大范围推广。

作为一种替代的方案,基于相机的方法尽管在检测性能方面还远不能令人满意,但它只依赖于更便宜和更成熟的相机传感器,因此,该方法,特别是单目(即只需要单个相机)方法越来越受到工业界和学术界的关注。

由于以往仅基于图像的单目方法缺少显式的深度信息,因此难以准确预测三维空间中的物体。为此,许多最新的单目三维物体检测方法利用预估的深度图直接获取深度信息。其中一些方法将深度图转换为伪激光雷达点云,然后对其进行检测。但是基于伪激光雷达的方法大多是使用现有的专门为精确的激光雷达点云设计的三维探测器。对于高噪声的单目伪激光雷达,这类方法很难处理从而导致性能欠佳。

并且,关于三维物体的朝向估计对检测结果的影响也是重要的。现有技术通常通过从整幅待检测图像或深度图转换为点云,从而提取图像特征来进行朝向估计。然而,该种方法中三维物体的朝向只取决于物体在待检测图像上的外观。而全局语义对于朝向估计来说是不必要的,甚至是有害的。来自物体外部区域的语义可能会干扰甚至压倒重要的局部语义。并且,原始地调整剪切后的图像大小会破坏与朝向估计相关的语义线索,因此对朝向估计结果来说是有害的。

此外,大多数三维物体检测方法引用二维检测的置信度作为三维检测的置信度评分,该策略忽略了三维检测的复杂性,具有高二维检测置信度的物体在三维空间中可能很难被精确定位,例如,遮挡、截断或远处的物体。因此应该根据三维检测的实际情况重新设计置信度策略。

在上述现有技术存在的问题基础上,图1为本申请实施例提供的目标检测方法的应用场景示意图,用以解决上述技术问题。如图1所示,该应用场景示意图包括:待检测图像1000、目标检测装置1100、检测后的图像1200。

其中,在待检测图像1000中包括:至少一个目标物体,例如,车辆图像1001;在检测后的图像1200中包括:车辆图像1001、二维框图1202和三维框图1203。

可选的,目标检测装置1100可以是计算机设备等实体设备,例如,目标检测装置1100可以安装在车辆上。

在一种可能的设计中,该目标检测装置1100可以接收来自车辆拍照设备获取到的待检测图像1000(例如,待检测图像1000中包含有待检测的其他车辆的车辆图像1001),并对该待检测图像1000进行处理(该处理过程在下述实施例中详述),得到检测后的图像1200,该检测后的图像1200中显示有标注车辆图像1001的二维框1202图和三维框图1203。

在得到二维框图1202和三维框图1203之后,该车辆可以对其他车辆进行更高精度地计算其位置信息和速度信息,用作车辆自身的防碰撞功能或前车追踪功能的输入,有助于实现更恰当的车辆控制。

本申请针对上述技术问题,发明人的技术构思过程如下:发明人发现,在得到待检测图像的深度图之后可以进行自适应体素的构建,以提高待检测图像中目标物体在当前绝对位置的可能性,此外,在进行朝向估计时,对目标物体进行缩放处理时,考虑物体本身的长宽比,以适应朝向估计所需的回归网络,从而提高检测结果的准确性。

下面以图1所示的应用场景示意图,通过具体实施例对本申请的技术方案进行详细说明。需要说明的是,下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例中不再赘述。下面将结合附图,对本申请的实施例进行描述。

图2为本申请实施例提供的目标检测方法实施例一的流程示意图。如图2所示,可以包括如下步骤:

步骤21、获取待处理图像。

其中,待处理图像包括:至少一个目标物体。

在本步骤中,当需要对一个场景中的目标物体进行检测时,首先需要捕捉到该包含目标物体的场景信息,即可以通过相机等设备拍摄得到的一张图像、或者从其他设备或存储器中提取的图像,该图像称为待检测图像。

其中,待检测图像中可以有车辆、行人、障碍物等,也即目标物体。

可选的,待处理图像可以是红绿蓝(red green blue,RGB)色彩模式图像。

步骤22、对待处理图像进行目标检测,得到待处理图像中每个目标物体的深度信息和二维框图信息。

在本步骤中,对待处理图像中的每个目标物体进行检测,检测出每个目标物体中实际用于存储图像的灰度或色彩所需要的比特位数,即每个目标物体的深度信息;以及检测出每个分别从二维角度包围的目标物体的框架,即每个目标物体的二维框图信息。

可选的,每个目标物体的深度信息可以是将待检测图像输入至预先训练好的深度估计器得到的,每个目标物体的二维框图信息可以是将待检测图像输入至预先训练好的二维检测器得到的。

步骤23、根据待处理图像中每个目标物体的深度信息和二维框图信息,得到各个目标物体的三维中心信息和维度及朝向信息。

在本步骤中,针对每个目标物体而言,对上述步骤得到的目标物体的深度信息和二维框图信息进行进一步的处理,以得到可以输入至三维中心定位器的自适应体素(Adaptive Voxel,AV)信息,进而三维中心定位器输出三维中心信息,即该目标物体在待处理图像中的当前位置绝对位置的最大可能性的位置,对各个目标物体的二维框图信息进行进一步的处理,以得到可以输入至物体维度和朝向估计器的自适应框架信息,进而物体维度和朝向估计器输出维度及朝向信息,即该目标物体的维度和方向。

可选的,对各个目标物体的二维框图信息进行比例缩放处理,从而将缩放结果输入至物体维度和朝向估计器,输出各个目标物体的维度及朝向信息。

可选的,对各个目标物体的深度信息和二维框图信息进行自适应体素处理,得到自适应体素信息,从而将自适应体素信息输入至三维中心定位器,输出目标物体的三维中心信息。

步骤24、根据各个目标物体的三维中心信息和维度及朝向信息,确定各个目标物体的三维框图信息。

在本步骤中,针对每个目标物体而言,在获取到目标物体的在待处理图像中的当前位置绝对位置的最大可能性的位置、以及该目标物体的维度和方向信息,就可以在待处理图像中标注出该目标物体相应的三维框图。

在该步骤之后,针对每个目标物体,根据目标物体的二维框图信息和目标物体的三维框图信息,确定三维框图信息的置信度。

可选的,在本实施例中,三维框图的置信度检测需要利用目标物体的二维框图信息和目标物体的三维框图信息。

在一种可能的实现中,可以利用二维框图和三维框图的交并比(Intersection ofUnion,IoU)作为衡量指标,除此之外,由于三维检测中深度预测的不可靠性,在待检测图像中远处的目标物体的交并比大于近处的目标物体的交并比,因此,提出了三维框图信息的置信度Conf

Conf

其中,IoU(box

本申请实施例提供的目标检测方法,首先获取待处理图像,并对待处理图像进行目标检测,得到待处理图像中每个目标物体的深度信息和二维框图信息,再根据待处理图像中每个目标物体的深度信息和二维框图信息,得到各个目标物体的三维中心信息和维度及朝向信息,最后根据各个目标物体的三维中心信息和维度及朝向信息,确定各个目标物体的三维框图信息。该技术方案中,通过对各个目标物体的深度信息和二维框图信息进行自适应体素处理,以及对各个目标物体的二维框图信息进行比例缩放处理,使得更加准确的对待处理图像进行目标检测,避免了现有技术中检测准确度低的问题,且为目标物体的三维框图的置信度提供了验证依据。

在上述实施例的基础上,图3为本申请实施例提供的目标检测方法实施例二的流程示意图。如图3所示,步骤23中对各个目标物体的深度信息和二维框图信息进行自适应体素处理,确定各个目标物体的三维中心信息,可以包括如下步骤(针对待检测图像中的各个目标物体而言):

步骤31、根据目标物体的深度信息进行重投影处理,得到目标物体的空间点云信息。

在本步骤中,对目标物体的深度信息进行重投影来产生目标物体的空间点云信息,即目标物体的空间点云的分布。

可选的,结合图4所示内容,对本实施例进行说明,图4为本申请实施例提供的空间点云示意图,图4中空间点云分布400的点代表待处理图像的空间点云。

步骤32、根据目标物体的二维框图信息,将目标物体的空间点云信息量化为体素信息,得到目标物体的自适应体素信息。

在本步骤中,在待处理图像的空间点云中确定出目标物体的空间点云信息,并量化成体素信息,以得到目标物体的自适应体素信息,这样可以充分进行目标物体的特征提取,即每个体素的特征值为其对应到目标物体上的RGB值。

具体的,该量化过程可以通过如下步骤实现:

第1步、根据目标物体的二维框图信息,确定出目标物体对应的点云范围。

可选的,结合目标物体的二维框图,对待处理图像的空间点云信息进行剪切,得到空间点云分布400中虚线框中呈现的空间点云信息,即目标物体对应的点云范围。

第2步、根据点云范围内的点云密度,确定点云范围内各个体素的大小。

在一种可能的实现中,对空间点云分布400中虚线框中呈现的空间点云的密度进行划分,例如,图4中第一构建方式401的每个体素的大小相同,每个体素中空间点云的密度不同。

在另一种可能的实现中,对空间点云分布400中虚线框中呈现的空间点云的密度进行划分,例如,图4中第二构建方式402的每个体素中包含的空间点云的数量一致,即空间点云的密度大的地方体素小,空间点云的密度小的地方体素大。

第3步、根据点云范围内各个体素的大小对点云范围进行划分,得到目标物体的自适应体素信息。

可选的,以图4中第二构建方式402为例,图5为本申请实施例提供的自适应体素构建示意图。如图5所示的第二构建方式402下目标物体的自适应体素信息。

步骤33、将目标物体的自适应体素信息输入至预先训练好的三维中心定位器中,得到目标物体的三维中心信息。

在本步骤中,三维中心定位器的预先训练过程可以是:已知某个目标物体的三维中心信息,然后将该目标物体的自适应体素信息输入至三维中心定位器,以得到处理后的三维中心信息,再同已知的目标物体的三维中心信息进行比较,不断调整三维中心定位器的参数,直到已知的目标物体的三维中心信息与处理后的三维中心信息相一致,从而得到拥有准确参数的三维中心定位器。

此时,将目标物体的自适应体素信息输入至该三维中心定位器中,并输入与目标物体的自适应体素信息分辨率大小相同的三维概率图,每个概率代表该目标物体在当前绝对位置的可能性,最终含有最大概率的当前位置被选为该目标物体的三维中心。

可选的,三维中心定位器可以是三维的U形-网络结构(U-net)。

本申请实施例提供的目标检测方法,首先根据目标物体的深度信息进行重投影处理,得到目标物体的空间点云信息,再根据目标物体的二维框图信息,将目标物体的空间点云信息量化为体素信息,得到目标物体的自适应体素信息,最后根据点云范围内各个体素的大小对点云范围进行划分,得到目标物体的自适应体素信息。该技术方案中,通过对各个目标物体的深度信息和二维框图信息进行自适应体素处理,为准确得到三维框图信息提供了基础。

在上述实施例的基础上,图6为本申请实施例提供的目标检测方法实施例三的流程示意图。如图6所示,步骤23中对各个目标物体的二维框图信息进行比例缩放处理,确定各个目标物体的维度及朝向信息,可以包括如下步骤:

步骤61、按照预设的长宽比例对各个目标物体的二维框图信息进行缩放处理,得到预设尺寸的缩放结果。

示例性的,图7A为本申请实施例提供的现有技术中的缩放处理示意图。如图7A所示,对目标物体(例如,车辆)进行缩放时,需要符合物体维度和朝向估计器的输入要求,例如,物体维度和朝向估计器要求的输入尺寸是a*a,则对目标物体的长和宽分别拉伸至a,得到处理后的目标物体图像。

在本步骤中,为了克服现有技术中物体维度和朝向估计器的输入要求,而造成缩放过程中对目标物体形状的改变,首先需要保证缩放过程不对目标物体的长宽比进行改变。

可选的,目标物体的二维框图信息可以是剪切后的目标物体的图像,可以是长方形。

在一种可能的实现中,图7B为本申请实施例提供的缩放处理示意图。如图7B所示,物体维度和朝向估计器要求的输入尺寸是a*a(即预设尺寸),则此时将目标物体的长宽进行缩放,使得目标物体的长为a,则目标物体的宽小于a,即得到了预设尺寸的缩放结果。

应理解,上述进行缩放处理,也可以是按长宽比例进行扩大,以满足物体维度和朝向估计器输入要求的预设尺寸。

步骤62、对缩放结果中空白区域进行补零操作,得到各个目标物体的自适应框架信息。

在本步骤中,如图7B所示,对缩放结果中空白的区域进行补零操作,即表示在此区域不包括目标物体的图像信息,之后得到目标物体的自适应框架信息。

步骤63、将各个目标物体的自适应框架信息输入至物体维度和朝向估计器,得到各个目标物体的维度及朝向信息。

在本步骤中,物体维度和朝向估计器的预先训练过程可以是:已知某个目标物体的维度及朝向信息,然后将该目标物体的自适应框架信息输入至物体维度和朝向估计器,以得到处理后的维度及朝向信息,再同已知的目标物体的维度及朝向信息进行比较,不断调整物体维度和朝向估计器的参数,直到已知的目标物体的维度及朝向信息与处理后的维度及朝向信息相一致,从而得到拥有准确参数的物体维度和朝向估计器。

此时,将目标物体的自适应框架信息输入至该物体维度和朝向估计器中,得到该目标物体的维度及朝向信息。

可选的,物体维度和朝向估计器可以是视觉几何组网络(Visual Geometry GroupNetwork,VGG)模型。

本申请实施例提供的目标检测方法,首先按照预设的长宽比例对各个目标物体的二维框图信息进行缩放处理,得到预设尺寸的缩放结果,并对缩放结果中空白区域进行补零操作,得到各个目标物体的自适应框架信息,最后将各个目标物体的自适应框架信息输入至物体维度和朝向估计器,得到各个目标物体的维度及朝向信息。该技术方案中,通过对目标物体的缩放结果进行补零处理,保证了目标物体的二维框图信息输入至物体维度和朝向估计器前不变形,从而提高了目标物体的维度及朝向信息的准确度。

在上述实施例的基础上,图8为本申请实施例提供的目标检测方法实施例四的流程示意图。如图8所示,上述步骤22可以包括如下步骤:

步骤81、将待处理图像输入至预先训练好的二维检测器中,得到待处理图像中每个目标物体的二维框区域。

在本步骤中,将待处理图像输入至预先训练好的二维检测器中,输出具有二维框区域的图像,该图像上的每个二维框区域均包含有目标物体。

应理解,二维检测器的预先训练过程同上,此处不再赘述。

步骤82、对待处理图像中每个目标物体的二维框区域进行剪切处理,得到各个目标物体的二维框图信息。

在本步骤中,将二维检测器输出的图像按照二维框区域进行剪切处理,得到各个目标物体的二维框图信息,该二维框图信息可以是大小不一的各个目标物体的二维框图。

步骤83、将待处理图像输入至预先训练好的深度估计器中,得到待处理图像对应的深度图像。

在本步骤中,将待处理图像输入至预先训练好的深度估计器中,输出的图像为待处理图像所示的当前场景下每个像素的深度值。

应理解,深度估计器的预先训练过程同上,此处不再赘述。

步骤84、根据待处理图像中每个目标物体的二维框区域,对深度图像进行剪切处理,得到各个目标物体的深度信息。

在本步骤中,上述步骤获得待处理图像对应的深度图像,按照各个目标物体在深度图像上的位置(每个目标物体的二维框区域)进行剪切处理,以得到各个目标物体的深度图像,即深度信息。

本申请实施例提供的目标检测方法,通过将待处理图像输入至预先训练好的二维检测器中,得到待处理图像中每个目标物体的二维框区域,并对待处理图像中每个目标物体的二维框区域进行剪切处理,得到各个目标物体的二维框图信息,然后将待处理图像输入至预先训练好的深度估计器中,得到待处理图像对应的深度图像,最后根据待处理图像中每个目标物体的二维框区域,对深度图像进行剪切处理,得到各个目标物体的深度信息。该技术方案,通过确定出各个目标物体的深度信息,为后续更加准确的得到三维框图信息提供了基础。

在上述实施例的基础上,图9为本申请实施例提供的目标检测方法的总框架示意图。如图9所示,总框架示意图包括:待检测图像1000、目标检测装置1100和检测后的图像1200。

其中,待检测图像1000包括:至少一个车辆图像1001;目标检测装置1100包括:深度估计器901,二维检测器902、物体维度和朝向估计器903和三维中心定位器904;检测后的图像1200包括:对车辆图像1001进行标注的三维框图。

在一种可能的实现方式中,将待检测图像1000输入至二维检测器902中,得到具有车辆图像1001对应的二维框图1202,结合待检测图像1000进行二维框图1202的剪切,得到剪切后的车辆图像1002,此时将待检测图像1000输入至深度估计器901中,得到该待检测图像1000的深度信息,基于二维框图1202,对待检测图像1000的深度信息进行剪切,得到车辆的深度信息。

进一步地,对车辆图像进行缩放处理,得到自适应框架信息,并结合车辆的深度信息,进行转换处理,得到自适应体素信息,此时,将自适应框架信息输入至物体维度和朝向估计器903,得到车辆的维度及朝向信息,将自适应体素信息输入至三维中心定位器904,得到车辆的三维中心信息,而后根据维度及朝向信息和三维中心信息,确定出车辆的三维框图1203。

其中,转换处理的具体过程为:对车辆的深度信息进行重投影操作,得到车辆的点云信息,结合剪切后的车辆图像1002,生成自适应体素信息。

本申请实施例提供的目标检测方法的总框架,通过将待检测图像分别输入至深度估计器和二维检测器,得到待检测图像的深度信息和车辆的二维框图,进一步对待检测图像的深度信息和车辆的二维框图进行剪切操作,得到车辆的深度信息和车辆图像,并对车辆的深度信息进行转换操作,得到自适应体素信息,以及对车辆图像进行缩放操作,得到自适应框架信息,最后将自适应体素信息和自适应框架信息分别输入至三维中心定位器和物体维度和朝向估计器903,根据得到的结果,确定出待检测图中车辆的三维框图信息。该技术方案,通过对各个目标物体的深度信息和二维框图信息进行自适应体素处理,以及对各个目标物体的二维框图信息进行缩放处理,使得更加准确的对待处理图像进行目标检测,避免了现有技术中检测准确度低的问题。

在上述目标检测方法实施例的基础上,图10为本申请实施例提供的目标检测装置的结构示意图。如图10所示,该目标检测装置包括:获取模块101、检测模块102、处理模块103;

获取模块101,用于获取待处理图像,待处理图像包括:至少一个目标物体;

检测模块102,用于对待处理图像进行目标检测,得到待处理图像中每个目标物体的深度信息和二维框图信息;

处理模块103,用于根据待处理图像中每个目标物体的深度信息和二维框图信息,得到各个目标物体的三维中心信息和维度及朝向信息,并根据各个目标物体的三维中心信息和维度及朝向信息,确定各个目标物体的三维框图信息。

在本申请实施例提供的一种可能的设计中,处理模块103,用于根据待处理图像中每个目标物体的深度信息和二维框图信息,得到各个目标物体的三维中心信息和维度及朝向信息,具体为:

处理模块103,具体用于:

对各个目标物体的深度信息和二维框图信息进行自适应体素处理,确定各个目标物体的三维中心信息;

对各个目标物体的二维框图信息进行比例缩放处理,确定各个目标物体的维度及朝向信息。

在该种可能的设计中,处理模块103,用于对各个目标物体的深度信息和二维框图信息进行自适应体素处理,确定各个目标物体的三维中心信息,具体为:

处理模块103,具体用于:

针对各个目标物体,根据目标物体的深度信息进行重投影处理,得到目标物体的空间点云信息;

根据目标物体的二维框图信息,将目标物体的空间点云信息量化为体素信息,得到目标物体的自适应体素信息;

将目标物体的自适应体素信息输入至预先训练好的三维中心定位器中,得到目标物体的三维中心信息。

可选的,处理模块103,用于根据目标物体的二维框图信息,将目标物体的空间点云信息量化为体素信息,得到目标物体的自适应体素信息,具体为:

处理模块103,具体用于:

根据目标物体的二维框图信息,确定出目标物体对应的点云范围;

根据点云范围内的点云密度,确定点云范围内各个体素的大小;

根据点云范围内各个体素的大小对点云范围进行划分,得到目标物体的自适应体素信息。

在本申请实施例提供的另一种可能的设计中,处理模块103,用于对各个目标物体的二维框图信息进行比例缩放处理,确定各个目标物体的维度及朝向信息,具体为:

处理模块103,具体用于:

按照预设的长宽比例对各个目标物体的二维框图信息进行缩放处理,得到预设尺寸的缩放结果;

对缩放结果中空白区域进行补零操作,得到各个目标物体的自适应框架信息;

将各个目标物体的自适应框架信息输入至物体维度和朝向估计器,得到各个目标物体的维度及朝向信息。

可选的,处理模块103,还用于针对每个目标物体,根据目标物体的二维框图信息和目标物体的三维框图信息,确定三维框图信息的置信度。

在本申请实施例提供的再一种可能的设计中,检测模块102,具体用于:

将待处理图像输入至预先训练好的二维检测器中,得到待处理图像中每个目标物体的二维框区域;

对待处理图像中每个目标物体的二维框区域进行剪切处理,得到各个目标物体的二维框图信息;

将待处理图像输入至预先训练好的深度估计器中,得到待处理图像对应的深度图像;

根据待处理图像中每个目标物体的二维框区域,对深度图像进行剪切处理,得到各个目标物体的深度信息。

本申请实施例提供的目标检测装置,可用于执行上述实施例中目标检测方法对应的技术方案,其实现原理和技术效果类似,在此不再赘述。

需要说明的是,应理解以上目标检测装置中各个模块的划分仅仅是一种逻辑功能的划分,实际实现时可以全部或部分集成到一个物理实体上,也可以物理上分开。且这些模块可以全部以软件通过处理元件调用的形式实现;也可以全部以硬件的形式实现;还可以部分模块通过处理元件调用软件的形式实现,部分模块通过硬件的形式实现。此外这些模块全部或部分可以集成在一起,也可以独立实现。这里所述的处理元件可以是一种集成电路,具有信号的处理能力。在实现过程中,上述方法的各步骤或以上各个模块可以通过处理器元件中的硬件的集成逻辑电路或者软件形式的指令完成。

图11为本申请实施例提供的计算机设备的结构示意图。如图11所示,该计算机设备可以包括:至少一个处理器110、存储器111及存储在该存储器111上并可在处理器110上运行的计算机程序指令。

可选的,该计算机设备还可以包括:收发器112。

处理器110执行存储器111存储的计算机执行指令,使得处理器110执行上述实施例中的方案。处理器110可以是通用处理器,包括中央处理器CPU、网络处理器(networkprocessor,NP)等;还可以是数字信号处理器DSP、专用集成电路ASIC、现场可编程门阵列FPGA或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。

存储器111和收发器112通过系统总线与处理器110连接并完成相互间的通信,存储器111用于存储计算机程序指令。

收发器112用于和其他计算机设备进行通信,该收发器112构成通信接口。

可选的,在硬件实现上,上述图10所示实施例中的获取模块101对应于本实施例中的收发器112。

在一种可能的实现中,该计算机设备还可以包括:显示器113,该显示器113用于显示目标检测结果。

系统总线可以是外设部件互连标准(peripheral component interconnect,PCI)总线或扩展工业标准结构(extended industry standard architecture,EISA)总线等。系统总线可以分为地址总线、数据总线、控制总线等。为便于表示,图中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。

应理解,计算机设备可以是计算机、车辆的电子控制单元、手机等。

本申请实施例提供的计算机设备,可用于执行上述实施例中目标检测方法对应的技术方案,其实现原理和技术效果类似,在此不再赘述。

本申请实施例还提供一种运行指令的芯片,该芯片用于执行上述实施例中目标检测方法的技术方案。

本申请实施例还提供一种计算机可读存储介质,该计算机可读存储介质中存储有计算机指令,当该计算机指令在计算机设备上运行时,使得计算机设备执行上述实施例中目标检测方法的技术方案。

本申请实施例还提供一种计算机程序产品,包括计算机程序,所述计算机程序被处理器执行时用于执行上述实施例中目标检测方法的技术方案。

上述的计算机可读存储介质可以是由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。可读存储介质可以是通用或专用计算机能够存取的任何可用介质。

应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求书来限制。

相关技术
  • 目标检测方法、装置、计算机设备和计算机可读存储介质
  • 目标检测方法、装置、计算机可读存储介质和计算机设备
技术分类

06120113210421