掌桥专利:专业的专利平台
掌桥专利
首页

基于物体通用特征的目标检测方法、装置、设备及介质

文献发布时间:2023-06-19 19:30:30


基于物体通用特征的目标检测方法、装置、设备及介质

技术领域

本申请涉及物体通用特征提取和多传感器特征融合技术领域,特别涉及一种基于物体通用特征的目标检测方法、装置、设备及介质。

背景技术

随着用于环境感知任务的多传感器融合方法的快速发展,逐渐形成了从多传感器特征表示,到更复杂、稳健的多传感器融合深度学习模型和技术。其中,根据融合规则可以将多传感器融合方法分为前融合、特征融合和后融合三大类,分别对应数据级、特征级和目标级融合,而特征融合是多传感器融合的主要发展趋势。

相关技术中,大多采用前融合方法以达到使用多模态传感器融合来检测目标的目的,即通过数据级处理技术对传感器采集的数据进行融合并提取物体特征。

然而,前融合方法在检测目标时,易造成大量的资源浪费且在不同传感器信息融合后会出现信息冗余的情况,导致数据和算力的损耗;同时,在通过前融合方法检测目标后,环境噪声也会容易影响特征提取的质量,从而不能满足环境感知系统在各个领域中的各种复杂场景。

发明内容

本申请提供一种基于物体通用特征的目标检测方法、装置、电子设备及存储介质,以解决相关技术中的目标检测方法无法获取检测任务的深度信息,从而不能满足环境感知系统在各个领域中的各种复杂场景等问题。

本申请第一方面实施例提供一种基于物体通用特征的目标检测方法,包括以下步骤:

获取激光雷达采集的激光雷达点云图像、可见光相机采集的可见光图像和红外相机采集的热红外图像;

将所述激光雷达点云图像输入至预设的骨干网络,基于多尺度点云分割网络分割点云特征,提取得到所述激光雷达点云图像的点云特征,并根据所述可见光图像和所述热红外图像融合得到双光融合图像;以及

从所述双光图像中提取目标图像特征,并基于预设的鸟瞰图空间,对所述目标图像特征和所述点云特征进行跨模态融合,并基于跨模态融合结果在所述鸟瞰图空间进行目标检测。

根据本申请的一个实施例,获取所述激光雷达采集的激光雷达点云图像、可见光相机采集的可见光图像和红外相机采集的热红外图像之前,还包括:

根据预设标定策略,对所述激光雷达点云图像进行外参标定,并对所述可见光图像和5所述热红外图像进行内参标定;

同步所述可见光相机和所述红外相机的时间戳。

根据本申请的一个实施例,根据所述可见光图像和所述热红外图像融合得到双光融合图像,包括:

采集转换后的所述可见光图像和所述热红外图像,生成已转换可见光图像和已转换热0红外图像;

基于预设的变换模型,分别配准所述已转换可见光图像和所述已转换热红外图像,得

到已配准可见光图像和已配准热红外图像,其中,所述预设的变换模型为:

其中,(x

根据本申请的一个实施例,从所述双光图像中提取目标图像特征,并基于预设的鸟瞰图空间,对所述目标图像特征和所述点云特征进行跨模态融合,并基于跨模态融合结果在所述鸟瞰图空间进行目标检测,包括:

基于ResNet101骨干网络提取所述双光图像的2D图像特征,并利用BEVFormer网络将所述双光融合图像的2D图像特征转化到所述预设的鸟瞰图空间的3D点云特征,得到所述预设的鸟瞰图空间点云特征;

利用预设的融合加权算法,对所述激光雷点云特征和所述预设的鸟瞰图空间点云特征进行跨模态融合,得到所述跨模态融合结果;

基于所述跨模态融合结果在所述鸟瞰图空间进行目标检测。

根据本申请实施例的基于物体通用特征的目标检测方法,通过获取激光雷达点云图像、可见光图像和热红外图像,将激光雷达点云图像输入至预设的骨干网络,提取点云特征,并根据可见光图像和热红外图像融合得到双光融合图像,从双光融合图像中提取目标图像特征,并基于预设的鸟瞰图空间,对目标图像特征和点云特征进行跨模态融合,将融合结果在鸟瞰图空间进行目标检测。由此,解决了相关技术中的目标检测方法无法获取检测任务的深度信息,从而不能满足环境感知系统在各个领域中的各种复杂场景等问题,通过对不同传感器采集的数据提取中间层特征,并对传感器有效特征进行融合,从而达到目标检测的最佳推理效果。

本申请第二方面实施例提供一种基于物体通用特征的目标检测装置,包括:

获取模块,用于获取激光雷达采集的激光雷达点云图像、可见光相机采集的可见光图像和红外相机采集的热红外图像;

提取模块,用于将所述激光雷达点云图像输入至预设的骨干网络,基于多尺度点云分割网络分割点云特征,提取得到所述激光雷达点云图像的点云特征,并根据所述可见光图像和所述热红外图像融合得到双光融合图像;以及

检测模块,用于从所述双光图像中提取目标图像特征,并基于预设的鸟瞰图空间,对所述目标图像特征和所述点云特征进行跨模态融合,并基于跨模态融合结果在所述鸟瞰图空间进行目标检测。

根据本申请的一个实施例,获取所述激光雷达采集的激光雷达点云图像、可见光相机采集的可见光图像和红外相机采集的热红外图像之前,所述获取模块,还用于:

根据预设标定策略,对所述激光雷达点云图像进行外参标定,并对所述可见光图像和所述热红外图像进行内参标定;

同步所述可见光相机和所述红外相机的时间戳。

根据本申请的一个实施例,所述提取模块,具体用于:

采集转换后的所述可见光图像和所述热红外图像,生成已转换可见光图像和已转换热红外图像;

基于预设的变换模型,分别配准所述已转换可见光图像和所述已转换热红外图像,得到已配准可见光图像和已配准热红外图像,其中,所述预设的变换模型为:

其中,(x

基于预设的双判别器生成对抗网络分别融合高分辨率的转换可见光图像和低分辨率的已配准热红外图像,得到双光融合图像。

根据本申请的一个实施例,所述检测模块,具体用于:

基于ResNet101骨干网络提取所述双光图像的2D图像特征,并利用BEVFormer网络将所述双光融合图像的2D图像特征转化到所述预设的鸟瞰图空间的3D点云特征,得到所述预设的鸟瞰图空间点云特征;

利用预设的融合加权算法,对所述激光雷点云特征和所述预设的鸟瞰图空间点云特征进行跨模态融合,得到所述跨模态融合结果;

基于所述跨模态融合结果在所述鸟瞰图空间进行目标检测。

根据本申请实施例的基于物体通用特征的目标检测装置,通过获取激光雷达点云图像、可见光图像和热红外图像,将激光雷达点云图像输入至预设的骨干网络,提取点云特征,并根据可见光图像和热红外图像融合得到双光融合图像,从双光融合图像中提取目标图像特征,并基于预设的鸟瞰图空间,对目标图像特征和点云特征进行跨模态融合,将融合结果在鸟瞰图空间进行目标检测。由此,解决了相关技术中的目标检测方法无法获取检测任务的深度信息,从而不能满足环境感知系统在各个领域中的各种复杂场景等问题,通过对不同传感器采集的数据提取中间层特征,并对传感器有效特征进行融合,从而达到目标检测的最佳推理效果。

本申请第三方面实施例提供一种电子设备,包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述程序,以实现如上述实施例所述的基于物体通用特征的目标检测方法。

本申请第四方面实施例提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行,以用于实现如上述实施例所述的基于物体通用特征的目标检测方法。

本申请附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本申请的实践了解到。

附图说明

本申请上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:

图1为根据本申请实施例提供的一种基于物体通用特征的目标检测方法的流程图;

图2为根据本申请一个实施例的基于物体通用特征进行激光雷达和双光融合的目标检测方法的框架示意图;

图3为根据本申请一个实施例的深度学习网络框架示意图;

图4为根据本申请一个实施例的可见光图像和红外图像融合的步骤示意图;

图5为根据本申请一个实施例的生成对抗网络模型结构示意图;

图6为根据本申请实施例的基于物体通用特征的目标检测装置的方框示意;

图7为根据本申请实施例的电子设备的结构示意图。

具体实施方式

下面详细描述本申请的实施例,实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本申请,而不能理解为对本申请的限制。

下面参考附图描述本申请实施例的基于物体通用特征的目标检测方法、装置、电子设备及存储介质。针对上述背景技术中提到的相关技术中的目标检测方法无法获取检测任务的深度信息,从而不能满足环境感知系统在各个领域中的各种复杂场景的问题,本申请提供了一种基于物体通用特征的目标检测方法,在该方法中,通过获取激光雷达点云图像、可见光图像和热红外图像,将激光雷达点云图像输入至预设的骨干网络,提取点云特征,并根据可见光图像和热红外图像融合得到双光融合图像,从双光融合图像中提取目标图像特征,并基于预设的鸟瞰图空间,对目标图像特征和点云特征进行跨模态融合,将融合结果在鸟瞰图空间进行目标检测。由此,解决了相关技术中的目标检测方法无法获取检测任务的深度信息,从而不能满足环境感知系统在各个领域中的各种复杂场景等问题,通过对不同传感器采集的数据提取中间层特征,并对传感器有效特征进行融合,从而达到目标检测的最佳推理效果。

具体而言,图1为本申请实施例所提供的一种基于物体通用特征的目标检测方法的流程示意图。

如图1所示,该基于物体通用特征的目标检测方法包括以下步骤:

在步骤S101中,获取激光雷达采集的激光雷达点云图像、可见光相机采集的可见光图像和红外相机采集的热红外图像。

进一步地,在一些实施例中,在获取可见光相机采集的可见光图像和红外相机采集的热红外图像之前,还包括:根据预设标定策略,对激光雷达点云图像进行外参标定,并对可见光图像和热红外图像进行内参标定;同步可见光相机和红外相机的时间戳。

其中,预设标定策略可以为本领域技术人员根据目标检测的实际需求进行制定标定策略,在此不做具体限定。

具体地,本申请实施例在采集目标检测物体的图像之前,首先需要定义目标检测物体的通用特征属性,例如,定义物体的类别、2D物体图像的边界框(长、宽、中心点)坐标、3D物体尺寸(长、宽、高)、3D物体中心点坐标、目标检测物体的旋转角度等,以及定义目标检测物体的特征属性,例如,物体的静止属性、运动属性、遮挡和截断比例等;其次,在对目标检测物体的特征属性定义完成后,本申请实施例可以通过具有时空同步功能的多模传感器对目标检测物体进行数据采集。

进一步地,本申请实施例在对目标检测物体进行采集时,多模传感器至少需要一台激光雷达扫描仪、可见光相机以及红外相机,通过激光雷达扫描仪、可见光相机以及红外相机分别采集对应的目标检测物体图像,并且在采集之前需要对可见光相机以及红外相机进行内参标定,对可见光相机、红外相机以及激光雷达组成的系统进行外参标定以达到时空同步的目的。其中,可见光相机以及红外相机的标定方法可以采用张氏标定法,主要标定方法为,通过标定板标定,计算标定板在世界坐标系到成像坐标系的映射关系以及计算在3D立体空间下的位置坐标,变换关系可以表示为:

其中,(u,v)为像素坐标系下的坐标,(X

举例而言,如图2所示,本申请实施例以激光雷和相机之间的联合标定为例,通过激光雷达3D激光点和相机测量的标定板上的3D坐标之间建立约束,并由激光雷达坐标系通过旋转、平移到相机坐标系,分别得到其旋转、平移矩阵

其中,(x,y,z)为激光雷达坐标系下的坐标,(x,y,z,1)是将三维坐标向量扩展为四维向量以此来进行坐标矩阵的运算。

进一步地,本申请实施例在对目标检测物体的通用特征属性联合标定后,并同步可见光相机和红外相机的时间戳,即可获取到由激光雷达采集的激光雷达点云图像、可见光相机采集的可见光图像和红外相机采集的热红外图像;同时,在采集到激光雷达点云图像、可见光图像以及热红外图像后,通过上述定义的目标检测物体的通用特征属性对采集到的图像进行标定,分别得到图像的尺寸、位置坐标、旋转角等信息。

在步骤S102中,将激光雷达点云图像输入至预设的骨干网络,基于多尺度点云分割网络分割点云特征,提取得到激光雷达点云图像的点云特征,并根据可见光图像和热红外图像融合得到双光融合图像。

优选地,本申请实施例采用的预设的骨干网络可以为多尺度点云分割网络PointNet++,也可以为其他深度学习网络,在此不做具体限定。

具体地,如图3所示,本申请实施例在采集到激光雷达点云图像、可见光图像以及热红外图像后,将激光雷达点云图像输入至PointNet++网络,以实现对激光雷达点云图像中前背景点的分割和点云图像候选特征的提取,由于点云图像标注的数据中可以清楚的标注出点云数据的前景点和背景点,但是背景点的数量远多于前景点的数量,因此,在实际操作中网络模型可以采用focal loss降低易分类样本的损失贡献,而增加难分类样本的损失比例,以解决类别不平衡问题,具体可以表现为:

L

其中,L

此外,本申请实施例在前景点中提取点云图像的候选特征包括,在每帧点云数据中随机采样若干个点,通过PointNet++网络的编码和解码获取每个点的特征向量,用来分割每个点最终得到物体的特征点,通过上述处理后,即可以提取前景点中激光雷达点云图像的点云特征。

进一步地,在一些实施例中,根据可见光图像和热红外图像融合得到双光融合图像,包括:采集转换后的可见光图像和热红外图像,生成已转换可见光图像和已转换热红外图像;基于预设的变换模型,分别配准已转换可见光图像和已转换热红外图像,得到已配准可见光图像和已配准热红外图像,其中,预设的变换模型为:

其中,(x

具体地,如图4所示,本申请实施例需要对采集和标注后的可见光图像和红外图像进行预处理操作,主要过程为计算图像偏移和进行双光图像配准。

具体而言,本申请实施例对于标定后的可见光相机和红外相机,利用一个定时器外部触发双光相机并同步采集双光图像数据,将得到的双光图像缩放到统一的尺寸,利用相机标定得到的相机参数和尺度因子计算世界坐标系下的一个点在可见光图像和红外图像直接的像素差,然后利用像素差偏移、旋转使得物体的每个像素点在双光图像下的位置一致,最终达到双光图像配准的目的,从而得到已配准可见光图像和已配准热红外图像。其中,双光图像的预设变换模型可以表示为:

其中,(x

进一步地,如图4所示,本申请实施例的可见光图像和热红外图像经过配准后需要进行图像融合,通过采用一个具有双判别器的生成对抗网络融合低分辨率的红外图像和高分辨率的可见光图像,其网络模型结构如图5所示,通过生成器G生成融合图像以达到欺骗判别器D的目的,判别器D旨在区分生成器G融合的图像和原始双光图像,最终通过网络模型输出双光融合图像,并且保留红外图像的热辐射特征和可见光图像的纹理信息。

在步骤S103中,从双光图像中提取目标图像特征,并基于预设的鸟瞰图空间,对目标图像特征和点云特征进行跨模态融合,并基于跨模态融合结果在鸟瞰图空间进行目标检测。

进一步地,在一些实施例中,从双光图像中提取目标图像特征,并基于预设的鸟瞰图空间,对目标图像特征和点云特征进行跨模态融合,并基于跨模态融合结果在鸟瞰图空间进行目标检测,包括:基于ResNet101骨干网络提取双光图像的2D图像特征,并利用BEVFormer网络将双光融合图像的2D图像特征转化到预设的鸟瞰图空间的3D点云特征,得到预设的鸟瞰图空间点云特征;利用预设的融合加权算法,对激光雷点云特征和预设的鸟瞰图空间点云特征进行跨模态融合,得到跨模态融合结果;基于跨模态融合结果在鸟瞰图空间进行目标检测。

其中,预设的鸟瞰图空间为BEV(Bird’s Eye View,鸟瞰图)空间。

具体地,如图3所示,本申请实施例通过网络模型输出双光融合图像后,将双光融合图像输入至ResNet101骨干网络,并基于ResNet101骨干网络提取双光图像的2D图像特征,主要方法为利用RseNet101骨干网络提取2D双光融合图像的特征图,由于深层的特征图具有更强的语义特征,浅层的特征图具有较强的位置信息,因此,通过FPN(FeaturePyramidNetworks,特征金字塔网络)结构把深层的语义信息转移到浅层,利用PAN(PathAggregation Network,路径聚合网络)结构将浅层的定位信息转移到深层,最终实现增强不同层的特征融合的目的,并输出多尺度特征图。

进一步地,如图3所示,本申请实施例通过ResNet101骨干网络并采用注意力机制提取双光图像的2D图像特征,利用BEVFormer网络将双光融合图像的2D图像特征转化到BEV空间3D点云特征,得到BEV空间点云特征。其中,在进行图像特征到BEV空间转换时,BEVFormer网络是通过网络划分的BEV查询机制和空间交叉注意力机制进行相应的转换。

具体而言,本申请实施例通过设定一个大小为H×W×C的空间,其中H和W是BEV空间的尺寸,C是与H×W平面垂直的高度坐标,以目标物体作为原点,BEV查询机制不间断查询找到空间中每个坐标点(x,y)的柱状3D参考点,最终完成所有2D图像特征到BEV空间的转换。

进一步地,如图2所示,本申请利用卷积网络提取转换后的双光融合图像特征,并将图像特征投影到BEV空间中,同时与激光雷达点云图像的点云特征进行融合,由于BEV空间和激光雷达点云空间是稀疏的,因此可以采用深度可连续卷积网络提取双光融合图像。

进一步地,本申请实施例在给定一组BEV空间的图像特征和一组激光雷达点云特征的情况下,每个BEV空间的像素均包含从双光融合图像中提取的特征,以达到创建密集的BEV要素地图的目的。其主要过程为,首先,对BEV空间图像特征的每个目标像素,在2D的BEV平面上找到其最近邻的若干个激光雷达3D点,将若干个激光雷达3D点反投影在3D空间中;其次,计算原始的激光雷达点与目标检测物体图像之间的3D相邻偏移,建立点云特征和图像特征在BEV空间的几何关系,将图像特征和连续的几何偏移利用深度可连续卷积网络进行预测,最终完成在BEV空间的图像特征和激光雷达点云的跨模态融合,从而得到检测物体在BEV空间的特征值,并将特征融合后的BEV空间通过神经网络计算和输出检测结果,然后通过anchor-base的方式计算锚框和预定义物体通用特征之间的损失,最终,输出训练模型用来识别和检测物体。

综上,本申请实施例所具有的优势包括:

(1)通过可见光图像和红外图像融合并提取2D图像上的物体特征,可以有效的识别各种光照条件和恶劣环境下物体的特征,并有效规避可见光相机在照明条件不足(包括夜晚、雨雪、炫光等条件)情况下无法获取有效的图像信息,解决了可见光相机在恶劣环境下无法正常工作的问题。

(2)使用激光雷达和相机融合的方式不仅可以获取物体的边缘、纹理、语义等信息,还可以获取空间位置、尺寸、距离等深度信息,适合多场景、多模态的环境感知任务,以提供更加精确的目标检测和分类。

(3)基于物体特征提取的融合方案,有效规避的背景噪声对于环境感知任务的影响,提高目标检测的精度和检测速度。

(4)对于物体有效特征在BEV空间进行融合,一方面可以减少算力的消耗,另一方面可以减少数据的损失,相比于其他融合方式具有一定的优势。

(5)本申请采用一种解耦的架构,各个模块直接相互独立,可以根据实际需求替换各个模块和功能,并且进行灵活的组合,削弱各个模块之间的依赖。

根据本申请实施例的基于物体通用特征的目标检测方法,通过获取激光雷达点云图像、可见光图像和热红外图像,将激光雷达点云图像输入至预设的骨干网络,提取点云特征,并根据可见光图像和热红外图像融合得到双光融合图像,从双光融合图像中提取目标图像特征,并基于预设的鸟瞰图空间,对目标图像特征和点云特征进行跨模态融合,将融合结果在鸟瞰图空间进行目标检测。由此,解决了相关技术中的目标检测方法无法获取检测任务的深度信息,从而不能满足环境感知系统在各个领域中的各种复杂场景等问题,通过对不同传感器采集的数据提取中间层特征,并对传感器有效特征进行融合,从而达到目标检测的最佳推理效果。

其次参照附图描述根据本申请实施例提出的基于物体通用特征的目标检测装置。

图6是本申请实施例的基于物体通用特征的目标检测装置的方框示意图。

如图6所示,该基于物体通用特征的目标检测装置10包括:获取模块100、提取模块200和检测模块300。

其中,获取模块100,用于获取激光雷达采集的激光雷达点云图像、可见光相机采集的可见光图像和红外相机采集的热红外图像;

提取模块200,用于将激光雷达点云图像输入至预设的骨干网络,基于多尺度点云分割网络分割点云特征,提取得到激光雷达点云图像的点云特征,并根据可见光图像和热红外图像融合得到双光融合图像;以及

检测模块300,用于从双光图像中提取目标图像特征,并基于预设的鸟瞰图空间,对目标图像特征和点云特征进行跨模态融合,并基于跨模态融合结果在鸟瞰图空间进行目标检测。

进一步地,在一些实施例中,取所述激光雷达采集的激光雷达点云图像、可见光相机采集的可见光图像和红外相机采集的热红外图像之前,所述获取模块100,还用于:

根据预设标定策略,对所述激光雷达点云图像进行外参标定,并对所述可见光图像和所述热红外图像进行内参标定;

同步所述可见光相机和所述红外相机的时间戳。

进一步地,在一些实施例中,提取模块200,具体用于:

采集转换后的可见光图像和热红外图像,生成已转换可见光图像和已转换热红外图像;

基于预设的变换模型,分别配准已转换可见光图像和已转换热红外图像,得到已配准可见光图像和已配准热红外图像,其中,预设的变换模型为:

其中,(x

基于预设的双判别器生成对抗网络分别融合高分辨率的转换可见光图像和低分辨率的已配准热红外图像,得到双光融合图像。

进一步地,在一些实施例中,检测模块300,具体用于:

基于ResNet101骨干网络提取双光图像的2D图像特征,并利用BEVFormer网络将双光融合图像的2D图像特征转化到预设的鸟瞰图空间的3D点云特征,得到预设的鸟瞰图空间点云特征;

利用预设的融合加权算法,对激光雷点云特征和预设的鸟瞰图空间点云特征进行跨模态融合,得到跨模态融合结果;

基于跨模态融合结果在鸟瞰图空间进行目标检测。

根据本申请实施例的基于物体通用特征的目标检测装置,通过获取激光雷达点云图像、可见光图像和热红外图像,将激光雷达点云图像输入至预设的骨干网络,提取点云特征,并根据可见光图像和热红外图像融合得到双光融合图像,从双光融合图像中提取目标图像特征,并基于预设的鸟瞰图空间,对目标图像特征和点云特征进行跨模态融合,将融合结果在鸟瞰图空间进行目标检测。由此,解决了相关技术中的目标检测方法无法获取检测任务的深度信息,从而不能满足环境感知系统在各个领域中的各种复杂场景等问题,通过对不同传感器采集的数据提取中间层特征,并对传感器有效特征进行融合,从而达到目标检测的最佳推理效果。

图7为本申请实施例提供的电子设备的结构示意图。该电子设备可以包括:

存储器701、处理器702及存储在存储器701上并可在处理器702上运行的计算机程序。

处理器702执行程序时实现上述实施例中提供的基于物体通用特征的目标检测方法。

进一步地,电子设备还包括:

通信接口703,用于存储器701和处理器702之间的通信。

存储器701,用于存放可在处理器702上运行的计算机程序。

存储器701可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatilememory),例如至少一个磁盘存储器。

如果存储器701、处理器702和通信接口703独立实现,则通信接口703、存储器701和处理器702可以通过总线相互连接并完成相互间的通信。总线可以是工业标准体系结构(Industry Standard Architecture,简称为ISA)总线、外部设备互连(PeripheralComponent,简称为PCI)总线或扩展工业标准体系结构(Extended IndustryStandardArchitecture,简称为EISA)总线等。总线可以分为地址总线、数据总线、控制总线等。为便于表示,图7中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。

可选的,在具体实现上,如果存储器701、处理器702及通信接口703,集成在一块芯片上实现,则存储器701、处理器702及通信接口703可以通过内部接口完成相互间的通信。

处理器702可能是一个中央处理器(Central Processing Unit,简称为CPU),或者是特定集成电路(Application Specific Integrated Circuit,简称为ASIC),或者是被配置成实施本申请实施例的一个或多个集成电路。

本申请实施例还提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如上的基于物体通用特征的目标检测方法。

在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本申请的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或N个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。

此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本申请的描述中,“N个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。

流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更N个用于实现定制逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本申请的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本申请的实施例所属技术领域的技术人员所理解。

在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。就本说明书而言,"计算机可读介质"可以是任何可以包含、存储、通信、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、装置或设备而使用的装置。计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或N个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式光盘只读存储器(CDROM)。另外,计算机可读介质甚至可以是可在其上打印程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得程序,然后将其存储在计算机存储器中。

应当理解,本申请的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,N个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。如,如果用硬件来实现和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。

本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。

此外,在本申请各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。

上述提到的存储介质可以是只读存储器,磁盘或光盘等。尽管上面已经示出和描述了本申请的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本申请的限制,本领域的普通技术人员在本申请的范围内可以对上述实施例进行变化、修改、替换和变型。

相关技术
  • 一种连续图像的目标检测方法、装置、设备及存储介质
  • 目标检测方法、装置、终端设备和计算机可读存储介质
  • 目标检测方法和装置、电子设备、存储介质、程序产品
  • 提高动目标检测精度的方法、装置、电子设备及存储介质
  • 一种动目标检测方法、装置、电子设备及存储介质
  • 基于多特征融合的红外目标检测方法、装置、设备及介质
  • 基于特征聚合的视频目标检测方法、装置、设备及介质
技术分类

06120115938861