掌桥专利:专业的专利平台
掌桥专利
首页

一种目标识别追踪方法及机器人

文献发布时间:2023-06-19 12:02:28


一种目标识别追踪方法及机器人

技术领域

本发明涉及智能机器人技术领域,具体而言,涉及一种目标识别追踪方法及机器人。

背景技术

随着人们生活水平的提高,对智能机器人的要求也越来越高,希望智能机器人能够实现更多的智能操作,例如,根据用户的需求智能识别周边的目标物,并根据识别结果对目标物进行跟踪。

但是,目前的机器人通常仅能对目标进行简单的识别,其识别准确率不高,此外,该机器人是在识别后,是根据用户通过后端监控控制端的控制,继续进行行走以实现跟踪的目的,并不能对目标进行识别并跟踪目标行走。

发明内容

本发明的目的在于提供一种目标识别追踪方法,其能够对目标进行识别并对该目标进行跟踪。

本发明的另一目的在于提供一种机器人,其能够对目标进行识别并对该目标进行跟踪。

本发明的实施例是这样实现的:

第一方面,本申请实施例提供一种目标识别追踪方法,其应用于机器人的控制芯片,方法包括:获取特定目标物以及当前待检测图像信息。将待检测图像信息输入至预先训练好的深度学习模型中。根据深度学习模型从当前待检测图像信息中识别出追踪目标物,其中,追踪目标物与特定目标物相匹配。采用追踪算法对追踪目标物在当前待检测图像的下一帧图像中的位置进行追踪。在上述实现过程中,机器人的控制芯片获取特定目标物以及当前待检测图像信息后,会通过深度学习模型准确的从待检测图像信息中识别出与特定目标物匹配的追踪目标物,再采用追踪算法对当前待检测图像的下一帧图像中的追踪目标物的位置进行追踪,以实现对目标物进行智能的识别以及追踪。

在本发明的一些实施例中,将待检测图像信息输入至预先训练好的深度学习模型中的步骤之前,方法还包括以下步骤,获取训练样本集以及测试样本集,构建深度学习模型,并利用训练样本集对深度学习模型进行训练,以得到训练后的深度学习模型,利用测试样本集对训练后的深度学习模型进行测试和修正,以得到训练好的深度学习模型。深度学习模型能够对数据内在的规律和表示层次进行学习,并对人类的思维进行模仿,可以对目标进行准确的识别。通过训练样本集对深度学习模型进行训练,使该深度学习模型具有数据分析的能力,保证的对目标进行识别的准确性。再通过测试样本集对训练后的深度学习模型进行测试和修正,进一步保证深度学习模型识别结果的准确性。

在本发明的一些实施例中,根据深度学习模型从当前待检测图像信息中识别出追踪目标物的步骤包括以下步骤,根据深度学习模型从当前待检测图像信息中识别出初始目标物,获取初始目标物与特定目标物之间的匹配度,若匹配度大于预设阈值,则将初始目标物作为追踪目标物。为了避免出现识别出的目标与特定目标物之间的差异过大,因此可以采用匹配度的方式判断识别出的初始目标物是否为追踪目标物,以提高目标识别的准确性。

在本发明的一些实施例中,采用追踪算法对追踪目标物在当前待检测图像的下一帧图像中的位置进行追踪的步骤之后,方法还包括以下步骤,获取场景的地图信息以及机器人的预设追踪参数,根据地图信息、追踪目标物在当前待检测图像的下一帧图像中的位置以及预设追踪参数生成追踪指令,以控制机器人根据追踪指令对追踪目标物进行追踪。采用追踪算法在当前待检测图像的下一帧图像中对追踪目标物进行追踪后,还可以获取场景的地图信息以及预设追踪参数,以生成用于控制机器人进行行走追踪的追踪指令。

在本发明的一些实施例中,根据地图信息、追踪目标物在当前待检测图像的下一帧图像中的位置以及预设追踪参数生成追踪指令的步骤,包括:根据地图信息以及追踪目标物在当前待检测图像的下一帧图像中的位置确定追踪距离数据。根据追踪距离数据以及追踪参数生成追踪指令。

第二方面,本申请实施例提供一种机器人,其包括深度摄像头以及控制芯片,深度摄像头以及控制芯片连接。深度摄像头,用于获取当前待检测图像信息。控制芯片,用于获取特定目标物以及当前待检测图像信息。控制芯片,还用于将待检测图像信息输入至预先训练好的深度学习模型中。控制芯片,还用于根据深度学习模型从当前待检测图像信息中识别出追踪目标物,其中,追踪目标物与特定目标物相匹配。控制芯片,还用于采用追踪算法对追踪目标物在当前待检测图像的下一帧图像中的位置进行追踪。

在本发明的一些实施例中,控制芯片还用于获取训练样本集以及测试样本集;还用于构建深度学习模型,并利用训练样本集对深度学习模型进行训练,以得到训练后的深度学习模型;还用于利用测试样本集对训练后的深度学习模型进行测试和修正,以得到训练好的深度学习模型。

在本发明的一些实施例中,控制芯片还用于根据深度学习模型从当前待检测图像信息中识别出初始目标物;还用于获取初始目标物与特定目标物之间的匹配度;还用于若匹配度大于预设阈值,则将初始目标物作为追踪目标物。

在本发明的一些实施例中,深度摄像头还用于获取场景的地图信息,控制芯片,还用于获取地图信息以及机器人的预设追踪参数。控制芯片还用于根据地图信息、追踪目标物在当前待检测图像的下一帧图像中的位置以及预设追踪参数生成追踪指令,以控制机器人根据追踪指令对追踪目标物进行追踪。

在本发明的一些实施例中,控制芯片在根据地图信息、追踪目标物在当前待检测图像的下一帧图像中的位置以及预设追踪参数生成追踪指令时,控制芯片还用于根据地图信息以及追踪目标物在当前待检测图像的下一帧图像中的位置确定追踪距离数据。控制芯片还用于根据追踪距离数据以及追踪参数生成追踪指令。

第三方面,本申请实施例提供一种电子设备,其包括存储器,用于存储一个或多个程序,处理器。当所述一个或多个程序被所述处理器执行时,实现上述第一方面中任一项所述的方法。

第四方面,本申请实施例提供一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现上述第一方面中任一项所述的方法。

附图说明

为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。

图1为本发明实施例提供的一种目标识别追踪方法的流程框图;

图2为本发明实施例提供的一种深度学习模型训练的流程图;

图3为本发明实施例提供的一种机器人内部的结构连接示意图;

图4为本发明实施例提供的一种机器人的结构示意图;

图5为本发明实施例提供的一种电子设备的结构示意图。

图标:100-机器人;110-深度摄像头;120-控制芯片;130-行走装置;101-存储器;102-处理器;103-通信接口。

具体实施方式

为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本申请实施例的组件可以以各种不同的配置来布置和设计。

因此,以下对在附图中提供的本申请的实施例的详细描述并非旨在限制要求保护的本申请的范围,而是仅仅表示本申请的选定实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。

应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。

需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。

在本申请的描述中,还需要说明的是,除非另有明确的规定和限定,术语“设置”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本申请中的具体含义。

下面结合附图,对本申请的一些实施方式作详细说明。在不冲突的情况下,下述的各个实施例及实施例中的各个特征可以相互组合。

请参看图1,图1为本发明实施例提供的一种目标识别追踪方法的流程框图。该目标识别追踪方法应用于机器人的控制芯片,包括以下步骤:

步骤S110:获取特定目标物以及当前待检测图像信息。

当机器人启动后,机器人上设置的深度摄像头等视觉感知装置会获取该机器人周边的环境,并获取当前待检测图像信息。其中,若机器人仅设置有深度摄像头时,当前待检测图像信息可以为深度图像,若机器人上还设置有热成像摄像头时,当前待检测图像信息中还可以包括热图像。

特定目标物的获取可以通过人为的方式输入,用户可以根据不同应用场景通过输入装置将特定目标物输入至控制芯片中,例如,若用户需要将该机器人用于人群温度的检测,则可以设定特定目标物为人,若用户需要将该机器人用于网球的追踪,则可以设定特定目标物为网球,若用户需要将该机器人用于火灾现场的检测和追踪,则可以设定特定目标物为火焰。其中,特定目标物还可以是人的特征,例如,人脸、性别等。此外,特定目标物的获取还可以通过该奇迹人周边所处的环境进行自动识别和确定,例如,若机器人在启动后,通过深度摄像头拍摄的深度图像识别出其所在的场景为机场,则可以获取用户预先设定的机场场景所对应的特定目标物。

步骤S120:将待检测图像信息输入至预先训练好的深度学习模型中。

深度学习模型能够对数据内在的规律和表示层次进行学习,并对人类的思维进行模仿。通过预先训练好的深度学习模型可以对待检测图像信息进行识别。

步骤S130:根据深度学习模型从当前待检测图像信息中识别出追踪目标物。

其中,追踪目标物与特定目标物相匹配。为了避免出现识别出的目标与特定目标物之间的差异过大,因此可以采用匹配度的方式判断识别出的初始目标物是否为追踪目标物,以提高目标识别的准确性。

详细地,在根据深度学习模型从当前待检测图像信息中识别出追踪目标物时,可以先根据深度学习模型从当前待检测图像信息中识别出初始目标物,然后获取初始目标物与特定目标物之间的匹配度,若匹配度大于预设阈值,则将初始目标物作为追踪目标物。若匹配度的值过小,则说明根据深度学习模型从当前待检测图像信息中识别出来的初始目标物与特定目标物之间的差距过大,例如,若特定目标物为火焰,深度学习模型从当前待检测图像信息中识别出初始目标物为与仿真火焰灯,则通过计算初始目标物以及特定目标物之间的匹配度,可以将本次识别出的初始目标物丢弃掉,并继续对特定目标物进行识别。通过该方式可以有效的避免由于误判带来的其他影响。

作为另一种实施方式,可以通过人工审核的方式判断深度学习模型识别出的初始目标物是否为追踪目标物。例如,当根据深度学习模型从当前待检测图像信息中识别出初始目标物,可以将该初始目标物发送至输出设备中,例如该输出设备可以为显示屏,也可以为远程显示终端。用户通过输出设备查看到初始目标物后,再通过输入设备确定该初始目标物是否为追踪目标物。

步骤S140:采用追踪算法对追踪目标物在当前待检测图像的下一帧图像中的位置进行追踪。

追踪算法可以是相关滤波法、均值漂移算法、运动目标建模法等。例如,可以采用相关滤波法中的KCF算法。

在上述实现过程中,机器人的控制芯片获取特定目标物以及当前待检测图像信息后,会通过深度学习模型准确的从待检测图像信息中识别出与特定目标物匹配的追踪目标物,再采用追踪算法对当前待检测图像的下一帧图像中的追踪目标物的位置进行追踪,以实现对目标物进行智能的识别以及追踪。

请参阅图2,图2为本发明实施例提供的一种深度学习模型训练的流程图,在本发明的一些实施例中,在将待检测图像信息输入至预先训练好的深度学习模型中的步骤之前,可以通过以下步骤获取预先训练好的深度学习模型:

步骤S210:获取训练样本集以及测试样本集。

步骤S220:构建深度学习模型,并利用训练样本集对深度学习模型进行训练,以得到训练后的深度学习模型。

步骤S230:利用测试样本集对训练后的深度学习模型进行测试和修正,以得到训练好的深度学习模型。

深度学习模型能够对数据内在的规律和表示层次进行学习,并对人类的思维进行模仿,可以对目标进行准确的识别。通过训练样本集对深度学习模型进行训练,使该深度学习模型具有数据分析的能力,保证的对目标进行识别的准确性。再通过测试样本集对训练后的深度学习模型进行测试和修正,进一步保证深度学习模型识别结果的准确性。

在本发明的一些实施例中,采用追踪算法对追踪目标物在当前待检测图像的下一帧图像中的位置进行追踪的步骤之后,还可以获取场景的地图信息以及机器人的预设追踪参数。然后根据地图信息、追踪目标物在当前待检测图像的下一帧图像中的位置以及预设追踪参数生成追踪指令,以控制机器人根据追踪指令对追踪目标物进行追踪。采用追踪算法在当前待检测图像的下一帧图像中对追踪目标物进行追踪后,还可以获取场景的地图信息以及预设追踪参数,以生成用于控制机器人进行行走追踪的追踪指令。

作为其中的一种实施方式,在根据地图信息、追踪目标物在当前待检测图像的下一帧图像中的位置以及预设追踪参数生成追踪指令时,可以先根据地图信息以及追踪目标物在当前待检测图像的下一帧图像中的位置确定追踪距离数据,然后再根据追踪距离数据以及追踪参数生成追踪指令。其中追踪距离数据可以包括机器人与目标物之间的距离,还可以包括目标物在以机器人正前方为基准的方向,因此可以根据追踪距离数据生成以及追踪参数生成追踪指令,保证机器人能够准确的对目标物进行追踪。

详细地,机器人中可以包括行走装置,该行走装置可以包括底盘控制系统、编码器以及电机,底盘控制系统与编码器连接,编码器与电机连接,底盘控制系统接收到追踪指令之后,可以向编码器发送控制编码,从而使编码器带动电机进行运动,进而带动机器人完成追踪行走的动作。

作为其中的一种实施方式,可以基于ROS下应用深度相机的KCF追踪算法实现机器人的追踪动作。启动ROS环境后,打开深度相机的节点,并发出可播放深度图像和rgb图像的topic,查看ROS的topic列表中是否有深度图像和rgb图像的topic,然后进行编译,编译完成后启动追踪程序。追踪程序启动后,用户可以在图像窗口内通过输入设备框选所要跟踪的目标,并对速度进行规划,例如,可以设置的参数包括与目标之间的最小距离、与目标之间的最大距离、最小直线速度、最大直线速度、最小转旋转度以及最大旋转速度。如,当目标距离机器人1.5m时开始跟踪,初始速度为0.4m/s,速度随着距离的增大而增加,当目标与机器人之间的距离达到设定的最大距离5m时,速度可能会增加到最大直线速度0.6m/s。若机器人最初的旋转速度为0,当目标与相机中心点之间的角度逐渐增大时,机器人的旋转速度会随之增加,最大旋转速度为0.75rad/s。

本申请提供的目标识别追踪方法可以用于不同的场景,例如,火焰识别追踪、实时视频的识别追踪、车道线识别追踪等等。

请参看图3,图3为本发明实施例提供的一种机器人内部的结构连接示意图,该机器人100包括深度摄像头110以及控制芯片120,深度摄像头110以及控制芯片120连接。深度摄像头110,用于获取当前待检测图像信息。控制芯片120,用于获取特定目标物以及当前待检测图像信息。控制芯片120,还用于将待检测图像信息输入至预先训练好的深度学习模型中。控制芯片120,还用于根据深度学习模型从当前待检测图像信息中识别出追踪目标物,其中,追踪目标物与特定目标物相匹配。控制芯片120,还用于采用追踪算法对追踪目标物在当前待检测图像的下一帧图像中的位置进行追踪。

其中,请参看图4,图4为本申请提供的一种机器人100的结构示意图,该机器人100还包括行走装置130,该行走装置130包括底盘控制系统、编码器以及电机,底盘控制系统与编码器连接,编码器与电机连接。

在本发明的一些实施例中,控制芯片120还用于获取训练样本集以及测试样本集;还用于构建深度学习模型,并利用训练样本集对深度学习模型进行训练,以得到训练后的深度学习模型;还用于利用测试样本集对训练后的深度学习模型进行测试和修正,以得到训练好的深度学习模型。

在本发明的一些实施例中,控制芯片120还用于根据深度学习模型从当前待检测图像信息中识别出初始目标物;还用于获取初始目标物与特定目标物之间的匹配度;还用于若匹配度大于预设阈值,则将初始目标物作为追踪目标物。

在本发明的一些实施例中,深度摄像头110还用于获取场景的地图信息,控制芯片120,还用于获取地图信息以及机器人100的预设追踪参数。控制芯片120还用于根据地图信息、追踪目标物在当前待检测图像的下一帧图像中的位置以及预设追踪参数生成追踪指令,以控制机器人100根据追踪指令对追踪目标物进行追踪。

在本发明的一些实施例中,控制芯片120在根据地图信息、追踪目标物在当前待检测图像的下一帧图像中的位置以及预设追踪参数生成追踪指令时,控制芯片120还用于根据地图信息以及追踪目标物在当前待检测图像的下一帧图像中的位置确定追踪距离数据。控制芯片120还用于根据追踪距离数据以及追踪参数生成追踪指令。

请参阅图5,图5为本申请实施例提供的电子设备的一种示意性结构框图。电子设备包括存储器101、处理器102和通信接口103,该存储器101、处理器102和通信接口103相互之间直接或间接地电性连接,以实现数据的传输或交互。例如,这些元件相互之间可通过一条或多条通讯总线或信号线实现电性连接。存储器101可用于存储软件程序及模块,处理器102通过执行存储在存储器101内的软件程序及模块,从而执行各种功能应用以及数据处理。该通信接口103可用于与其他节点设备进行信令或数据的通信。

其中,存储器101可以是但不限于,随机存取存储器(Random Access Memory,RAM),只读存储器(Read Only Memory,ROM),可编程只读存储器(Programmable Read-OnlyMemory,PROM),可擦除只读存储器(Erasable Programmable Read-Only Memory,EPROM),电可擦除只读存储器(Electric Erasable Programmable Read-Only Memory,EEPROM)等。

处理器102可以是一种集成电路芯片,具有信号处理能力。该处理器102可以是通用处理器,包括中央处理器(Central Processing Unit,CPU)、网络处理器(NetworkProcessor,NP)等;还可以是数字信号处理器(Digital Signal Processing,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。

可以理解,图5所示的结构仅为示意,电子设备还可包括比图5中所示更多或者更少的组件,或者具有与图5所示不同的配置。图5中所示的各组件可以采用硬件、软件或其组合实现。

在本申请所提供的实施例中,应该理解到,所揭露的装置和方法,也可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,附图中的流程图和框图显示了根据本申请的多个实施例的装置、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现方式中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。

另外,在本申请各个实施例中的各功能模块可以集成在一起形成一个独立的部分,也可以是各个模块单独存在,也可以两个或两个以上模块集成形成一个独立的部分。

所述功能如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。

综上所述,本申请实施例提供的一种目标识别追踪方法及机器人,该方法应用于机器人的控制芯片,包括:获取特定目标物以及当前待检测图像信息。将待检测图像信息输入至预先训练好的深度学习模型中。根据深度学习模型从当前待检测图像信息中识别出追踪目标物,其中,追踪目标物与特定目标物相匹配。采用追踪算法对追踪目标物在当前待检测图像的下一帧图像中的位置进行追踪。在上述实现过程中,机器人的控制芯片获取特定目标物以及当前待检测图像信息后,会通过深度学习模型准确的从待检测图像信息中识别出与特定目标物匹配的追踪目标物,再采用追踪算法对当前待检测图像的下一帧图像中的追踪目标物的位置进行追踪,以实现对目标物进行智能的识别以及追踪。

以上所述仅为本申请的优选实施例而已,并不用于限制本申请,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。

对于本领域技术人员而言,显然本申请不限于上述示范性实施例的细节,而且在不背离本申请的精神或基本特征的情况下,能够以其它的具体形式实现本申请。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本申请的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化囊括在本申请内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。

相关技术
  • 一种目标识别追踪方法及机器人
  • 一种基于片上异构系统的运动目标识别与追踪方法及系统
技术分类

06120113147050