掌桥专利:专业的专利平台
掌桥专利
首页

一种机器人重定位方法、装置、设备及存储介质

文献发布时间:2023-06-19 11:14:36


一种机器人重定位方法、装置、设备及存储介质

技术领域

本发明涉及机器人定位技术领域,尤其涉及一种机器人重定位方法、装置、设备及存储介质。

背景技术

近年来,重定位问题已成为移动机器人领域备受关注的热点问题。重定位可以帮助机器人纠正自身的累计误差,以及在丢失定位时,找回自身正确的位置。移动机器人的重定位是移动机器人实现智能导航和环境探索的一个基础,也是移动机器人实现真正智能化和完全自主的关键技术之一。目前,移动机器人的重定位分为基于视觉的重定位和基于激光的重定位。而基于激光的重定位技术使用激光雷达,精度更高,但在成本上使用激光雷达要比相机要高很多,不适合广泛使用,因此,市场上主要使用相机的基于视觉的重定位技术为主,但是基于视觉的重定位技术主要使用单目视觉的方案,定位精度相对来说也较低。因此,如何提高基于视觉的重定位的精度是移动机器人领域亟待解决的技术问题。

发明内容

针对上述问题,本发明的目的在于提供一种机器人重定位方法、装置、设备及存储介质,其能有效提高重定位的精度,降低成本。

第一方面,本发明实施例提供了一种机器人重定位方法包括:

获取机器人的拍摄设备捕捉到的图像关键帧;其中,所述图像关键帧包括2D图像;

将所述2D图像与所述机器人预存的地图关键帧进行图像匹配,得到一估计位姿;

所述图像关键帧进行点云变换得到第一3D点云,并获取所述地图关键帧的第二3D点云;其中,第一3D点云的一个3D特征点和对应的第二3D点云的3D特征点作为一对匹配点对,每一对匹配点对应现实场景中同一个点;

计算每一对匹配点对之间的距离作为距离误差,并根据所述距离误差确定总距离误差;

根据所述总距离误差和所述估计位姿,计算得到重定位位姿。

作为上述方案的改进,所述根据所述总距离误差和所述估计位姿,计算得到重定位位姿,包括:

将所述总距离误差与预设的误差容忍值进行比较;

在所述总距离误差小于或等于所述误差容忍值的情况下,确定所述估计位姿正确,并计算得到重定位位姿;

在所述总距离误差大于所述误差容忍值的情况下,确定所述估计位姿不正确,并重新获取图像关键帧和估计位姿。

作为上述方案的改进,所述图像关键帧还包括对应所述2D图像的深度图像;所述地图关键帧包括2D地图图像以及对应所述2D地图图像的深度地图图像;

所述对所述图像关键帧进行点云变换得到第一3D点云,并获取所述地图关键帧的第二3D点云,包括:

根据所述图像关键帧的深度图像,对所述2D图像进行点云转换,得到第一3D点云;

根据所述地图关键帧的深度地图图像,对所述地图关键帧的2D地图图像进行点云转换得到第二3D点云,或者获取预存在所述地图关键帧中的第二3D点云。

作为上述方案的改进,所述计算每一对匹配点对之间的距离误差,并根据所述距离误差确定总距离误差,包括:

获取每一对匹配点对的坐标信息,并根据每一对匹配点对的坐标信息计算每一对匹配点对之间的距离,作为每一对匹配点对的距离误差;

对各对匹配点对的距离误差求和,得到所述总距离误差。

作为上述方案的改进,所述获取机器人的拍摄设备捕捉到的图像关键帧,包括:

获取所述拍摄设备采集到的视频流,并从所述拍摄设备采集到的视频流中提取图像关键帧。

作为上述方案的改进,所述从所述拍摄设备采集到的视频流中提取图像关键帧,包括:

对所述视频流进行解码,得到若干帧当前位姿的图像帧,所述图像帧包括图像帧2D图像;

对当前位姿的图像帧2D图像进行2D特征点提取,得到图像帧2D图像的2D特征点,并统计图像帧2D图像的2D特征点的数量;

将当前位姿的图像帧2D图像的2D特征点的数量与预设的第一数量阈值进行比较;

在当前位姿的图像帧2D图像的2D特征点的数量大于或等于所述第一数量阈值的情况下,提取出当前位姿对应的图像帧作为图像关键帧;

在当前位姿对应的图像帧2D图像的2D特征点的数量小于所述第一数量阈值的情况下,剔除当前图像帧,并控制所述机器人旋转到下一位姿,并获取所述机器人在下一位姿输出的视频流。

作为上述方案的改进,将所述2D图像与所述机器人预存的地图关键帧进行图像匹配,得到一估计位姿,包括:

将所述2D图像的2D特征点和所述地图关键帧中的2D特征点进行匹配,在2D特征点的特征向量匹配量大于或等于第二数量阈值的情况下,则匹配成功,然后经计算得到估计位姿;

在2D特征点的特征向量匹配量小于第二数量阈值的情况下,则控制机器人旋转到下一位姿,并获取所述机器人在下一位姿的图像关键帧。

第二方面,在本发明实施例提供了一种机器人重定位装置,包括:

第一关键帧提取模块,用于获取机器人的拍摄设备捕捉到的图像关键帧;其中,所述图像关键帧包括2D图像;

位姿估计模块,用于将所述2D图像与所述机器人预存的地图关键帧进行图像匹配,得到一估计位姿;

点云转换模块,用于对所述图像关键帧进行点云变换得到第一3D点云,并获取所述地图关键帧的第二3D点云;其中,第一3D点云的一个3D特征点和对应的第二3D点云的3D特征点作为一对匹配点对,每一对匹配点对应现实场景中同一个点;

误差计算模块,用于计算每一对匹配点对间的距离误差,并根据所述距离误差确定总距离误差;

重定位模块,用于根据所述总距离误差和所述估计位姿,计算得到重定位位姿。

第三方面,在本发明实施例提供了一种机器人重定位设备,包括处理器、存储器以及存储在所述存储器中且被配置为由所述处理器执行的计算机程序,所述处理器执行所述计算机程序时实现如第一实施例中任意一项所述的机器人重定位方法。

第四方面,在本发明实施例提供了一种计算机可读存储介质,所述计算机可读存储介质包括存储的计算机程序,其中,在所述计算机程序运行时控制所述计算机可读存储介质所在设备执行如第一实施例中任意一项所述的机器人重定位方法。

相对于现有技术,本发明的有益效果在于:先通过机器人的拍摄设备捕捉的2D图像进行重定位,得到初步的估计位姿,然后通过结合3D点云进行总距离误差计算,通过总距离误差优化初步的估计位姿,得到最终的重定位位姿。结合了2D视觉重定位和3D点云重定位的优势,3D点云匹配能够识别错误的2D匹配结果,正确的2D匹配结果能够给3D点云重定位带来良好的初值,加速3D点云重定位优化计算。所以,本发明相对比仅有2D视觉重定位方法精度更高,相比仅有3D视觉重定位方法速度更快。由于本发明利用多方面信息息,定位鲁棒性大幅提高。

附图说明

为了更清楚地说明本发明的技术方案,下面将对实施方式中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。

图1是本发明第一实施例提供的机器人重定位方法的流程图;

图2是本发明实施例提供的2D特征点匹配示意图;

图3是本发明实例提供的3D点云误差示意图;

图4是本发明实例提供的重定位流程示意图;

图5是本发明第二实施例提供的机器人重定位装置的示意图;

图6是本发明第三实施例提供的机器人重定位设备的示意图。

具体实施方式

下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。

请参阅图1,其是本发明第一实施例提供的一种机器人重定位方法的流程图,所述机器人的重定位方法包括:

S1:获取机器人的拍摄设备捕捉到的图像关键帧;其中,所述图像关键帧包括2D图像;

在本发明实施例中,所述拍摄设备为RGB-D深度相机,用于拍摄现场场景以获得相关的视频流。需要说明的是,RGBD相机输出的每一图像帧,都包含有两幅图像,即2D图像和深度图像,2D图像和深度图像记录的是完全相同的场景。其中,2D图像保存的是颜色信息,深度图像保存的是对应2D图像的所有像素的深度信息。

S2:将所述2D图像与所述机器人预存的地图关键帧进行图像匹配,计算得到一估计位姿;

在本发明实施例中,2D图像具有多个2D特征点,如图2所示,p

若2D图像的2D特征点匹配小于第二数量阈值,即图像不匹配,则机器人旋转并返回上一步骤,重新获取新的图像关键帧。所述机器人的存储器中预存若干地图关键帧,各地图关键帧记录了不同的位置,本实施例通过将当前的图像关键帧和地图关键帧做一一匹配,匹配完成后经计算找到现在机器人在地图中的位置。需要说明的是,地图关键帧包括2D地图图像和深度地图图像,在进行位置估计时,将所述图像关键帧的2D图像和若干所述地图关键帧的2D地图图像进行匹配,即找出与图像关键帧匹配的地图关键帧,从而通过找出的地图关键帧确定一估计位姿。其中2D图像的匹配指两幅图像中第二数量阈值以上的2D特征点匹配,而2D图像中2D特征点的匹配是指2D特征点的特征向量匹配。该步骤中2D图像是经过S2匹配完成后选定的2D图像。在本实施例中,所述第二数量阈值可为70%、80%、90%或以上。

S3:对所述图像关键帧进行点云变换得到第一3D点云,并获取所述地图关键帧的第二3D点云;其中,第一3D点云的一个3D特征点和对应的第二3D点云的3D特征点作为一对匹配点对,每一对匹配点对应现实场景中同一个点;

在本发明实施例中,采用所述深度图像的深度信息和相应2D图像的位置信息可以恢复相应2D图像的每个2D特征点在3维空间中的实际位置,从而把所有的2D特征点结合深度信息恢复成3D特征点,从而形成第一3D点云。其中,所述地图关键帧中记录了若干已知位置的3D特征点,或是同理借助图像关键帧中的2D地图图像与深度地图图像得出第二3D点云。

S4:计算每一对匹配点对之间的距离误差,并根据所述距离误差确定总距离误差。

S5:根据所述总距离误差和所述估计位姿,计算得到重定位位姿。

在本发明实施例中,先通过机器人的拍摄设备捕捉的图像关键帧的2D图像进行重定位,得到初步的估计位姿,然后通过2D特征点结合对应的深度图像得到3D点云,进而进行距离误差和总距离误差计算,通过总距离误差优化初步的估计位姿,然后得到最终的重定位位姿,通过2D图像和深度图像进行重定位,有效纠正了错误的2D重定位位姿,提高了重定位的精度和稳健性。

本发明结合了2D视觉重定位和3D点云重定位的优势,3D点云匹配能够识别错误的2D匹配结果,正确的2D匹配结果能够给3D点云重定位带来良好的初值,加速3D点云重定位优化计算。所以,本方法相对比仅有2D视觉重定位方法精度更高,相比仅有3D视觉重定位方法速度更快。由于本发明利用多方面信息息,定位鲁棒性大幅提高。

在一种可选的实施例中,S1:所述获取机器人的拍摄设备捕捉到的图像关键帧,包括:

获取所述拍摄设备采集到的视频流,并从所述拍摄设备采集到的视频流中提取图像关键帧。

在一种可选的实施例中,所述从所述拍摄设备采集到的视频流中提取图像关键帧,包括:

对所述视频流进行解码,得到若干帧当前位姿的图像帧,所述图像帧包括图像帧2D图像;

对当前位姿对应的图像帧2D图像进行2D特征点提取,并统计2D特征点数量;

将当前位姿对应的图像帧2D图像的2D特征点数量与预设的第一数量阈值进行比较;

当当前位姿对应的图像帧2D图像的2D特征点数量小于所述第一数量阈值时,剔除当前图像帧,并控制所述机器人旋转到下一位姿,获取所述机器人在下一位姿输出的视频流;

当当前位姿对应的图像帧2D图像的2D特征点数量大于或等于所述第一数量阈值时,提取出当前位姿对应的图像帧作为图像关键帧。

所述第一数量阈值可以为100、200、300或以上。在本发明实施例中,所述第一数量阈值为100。若当前图像帧2D图像的2D特征点的数量大于或等于100,则将该当前图像帧作为图像关键帧;若2D图像的2D特征点的数量小于100,则将该当前图像帧作为普通帧并剔除,控制所述机器人旋转以寻找新的图像帧。

在本发明实施例中,所述机器人在开机是可能会面对一堵白墙,RGB相机拍摄到的白色的墙面,不具有特征点或是特征点较少,无法进行位姿估计,此时,所述机器人将按照设定角度旋转到下一位姿,并重复上述S1的过程,避免了人工介入。具体地,预设的第一数量阈值为100,若当前位姿对应的2D特征点数量小于100,判定无法识别位姿,逆时针或顺时针旋转6度或1度到下一位姿,重新拍摄获取图像帧;若当前位姿对应的图像的特征点数量大于或等于100,判定可以识别位姿,当前位姿的图像帧作为图像关键帧。

在一种可选的实施例中,S2:将所述2D图像与所述机器人预存的地图关键帧进行图像匹配,得到一估计位姿

将所述2D图像的2D特征点和所述地图关键帧中的2D特征点进行匹配,在2D特征点的特征向量匹配量大于或等于第二数量阈值的情况下,则匹配成功,然后经计算得到估计位姿;

在2D特征点的特征向量匹配量小于第二数量阈值的情况下,则控制所述机器人旋转到下一位姿,并获取所述机器人在下一位姿的图像关键帧。

所述第二数量阈值可为70%、80%或以上。具体的,本实施例中,第二数量阈值为80%,即所述2D图像与地图关键帧进行匹配时,当2D图像的2D特征点和地图关键帧中的2D特征点有80%的特征点的特征向量匹配即可认为匹配成功。

在一种可选的实施例中,所述图像关键帧还包括对应所述2D图像的深度图像;所述地图关键帧包括2D地图图像以及对应所述2D地图图像的深度地图图像;

在一种可选的实施例中,S3:所述对所述图像关键帧进行点云变换得到第一3D点云,并获取所述地图关键帧的第二3D点云,包括:

根据所述图像关键帧的深度图像,对所述2D图像进行点云转换,得到第一3D点云;

根据所述地图关键帧的深度地图图像,对所述地图关键帧的2D地图图像进行点云转换得到第二3D点云,或者获取预存在所述地图关键帧中的第二3D点云。

具体地,当所述地图关键帧中存储有第二3D点云时,直接获取所述第二3D点云;当所述地图关键帧中未存储有第二3D点云时,对根据所述地图关键帧的深度地图图像,对所述地图关键帧的2D地图图像进行点云转换得到第二3D点云。

在一种可选的实施例中,S4:计算每一对匹配点对之间的距离误差,并根据所述距离误差确定总距离误差,包括:

获取每一对匹配点对的坐标信息,并根据每一对匹配点对的坐标信息计算每一对匹配点对之间的距离,作为每一对匹配点对的距离误差;

对各对匹配点对的距离误差求和,得到所述总距离误差。

请参阅图3,P

在一种可选的实施例中,S5:所述根据所述总距离误差和所述估计位姿,得到重定位位姿,包括:

将所述总距离误差与预设的误差容忍值进行比较;

当所述总距离误差小于等于所述误差容忍值时,确定所述估计位姿正确,并计算求取所有匹配点间的最小距离误差,根据最小距离误差和所述估计位姿得到重定位位姿。

当所述总距离误差大于所述误差容忍值时,确定所述估计位姿不正确,并重新进行图像关键帧的确定和位姿估计。

其中,计算求取所有匹配点间的最小距离误差可使用ICP算法,其属于本领域的现有技术,再此不再进行详细的说明。通过ICP算法微调当前相机的位姿,经过其迭代计算可以求解出所有匹配点的最小距离误差,并通过最小距离误差优化所述估计位姿,得到最终的重定位位姿。ICP算法主要用于迭代计算将所有匹配点间的距离误差最小的位姿作为重定位位姿。

在本发明实施例中,可以统计100对匹配点对的总距离误差

相对于现有技术,本发明实施例的有益效果在于:

1、可以通过计算匹配点对之间距离误差来识别错误的估计位姿,从而剔除错误的估计位姿,可以避免错误视觉重定位,能够极大地提高机器人重定位的鲁棒性。使用匹配点对之间的距离误差来衡量估计位姿,即定位中考虑了深度信息的影响,如能够识别出拍摄到的是照片还是现实场景中的实物。

2、相对于三维激光雷达的方案,本发明实施例使用RGB-D深度相机,成本更低。

3、本发明实施例结合了2D特征匹配和三维点云误差计算来进行重定位,能有效纠正错误的2D重定位位姿,消除机器人里程计的累计误差,提高重定位的精度,因为2D图像匹配时,即图像关键帧与地图关键帧匹配时,80%的特征点匹配即可得出估计位姿,而在本发明中结合了三维点云误差计算,其能够剔除错误的估计位姿;同时由于2D特征点匹配和三维点云误差计算为后续的ICP迭代优化提供了良好的初始值,所以提高了计算速度,更能满足实时性要求,同时利用2D图像信息和深度图像信息,保障了重定位的稳健性。

4、机器人在已知地图中重新开机启动时,可以执行本发明实施例的重定位方法进行快速的自动重定位,无需人员再操作,提高机器人的智能化程度。

请参阅图5,本发明第二实施例提供了一种机器人重定位装置,包括:

关键帧提取模块1,用于获取机器人的拍摄设备捕捉到的图像关键帧;其中,所述图像关键帧包括2D图像;

位姿估计模块2,用于将所述2D图像与所述机器人预存的地图关键帧进行图像匹配,得到一估计位姿;

点云转换模块3,用于对所述2D图像结合深度图像转换得到第一3D点云,获取所述地图关键帧的第二3D点云;其中,第一3D点云的一个3D特征点与第二3D点云的3D特征点组成一对匹配点对,每一对匹配点对应映射现实场景的同一点;

误差计算模块4,用于计算每一对匹配点对之间的距离误差,并根据所述距离误差确定总距离误差;

重定位模块5,用于根据所述总距离误差和所述估计位姿,得到重定位位姿。

在一种可选的实施例中,所述重定位模块5包括:

第一比较单元,用于将所述总距离误差与预设的误差容忍值进行比较;

位姿优化单元,用于当所述总距离误差小于或等于所述误差容忍值时,确定所述估计位姿正确,并采用ICP算法求取所有匹配点对间的最小距离误差,根据最小距离误差得到重定位位姿。

返回单元,用于当所述总距离误差大于所述误差容忍值时,确定所述估计位姿不正确,并重新进行位姿估计。

在一种可选的实施例中,所述图像关键帧还包括对应所述2D图像的深度图像;所述地图关键帧包括2D地图图像以及对应所述2D地图图像的深度地图图像;

所述点云转换模块3包括:

第一点云转化单元,用于根据所述图像关键帧的深度图像,对所述2D图像进行点云转换,得到第一3D点云;

第二点云转化单元,用于根据所述地图关键帧的深度地图图像,对所述地图关键帧的2D地图图像进行点云转换得到第二3D点云,或者地图关键帧中存储有第二3D点云,从而省略第二点云转化单元,直接获取预存在所述地图关键帧中的第二3D点云。

在一种可选的实施例中,误差计算模块4包括:

距离误差计算单元,用于获取每一对匹配点对的坐标信息,并根据每一对匹配点对的坐标信息计算每一对匹配点对之间的距离,作为每一对匹配点对的距离误差;

求和单元,用于计算各匹配点对的距离误差的总和,得到所述总距离误差。

在一种可选的实施例中,所述图像关键帧提取模块1包括:

图像帧获取单元,用于获取所述拍摄设备采集到的视频流,并从所述拍摄设备采集到的视频流中提取图像关键帧。

图像帧获取单元包括:

解码单元,用于对所述视频流进行解码,得到若干帧当前位姿的图像帧,所述图像帧包括图像帧2D图像;

特征点统计单元,用于对当前位姿的图像帧2D图像进行2D特征点提取,得到图像帧2D图像的2D特征点,并统计图像帧2D图像的2D特征点的数量;

第二比较单元,用于将当前位姿的图像帧2D图像的2D特征点的数量与预设的第一数量阈值进行比较;

提取单元,用于在当前位姿的图像帧2D图像的2D特征点的数量大于或等于所述第一数量阈值的情况下,提取出当前位姿对应的图像帧作为图像关键帧;

控制单元,用于在当前位姿对应的图像帧2D图像的2D特征点的数量小于所述第一数量阈值的情况下,剔除当前图像帧,并控制所述机器人旋转到下一位姿,并获取所述机器人在下一位姿输出的视频流。

在一种可选的实施例中,位姿估计模块2包括:

2D特征点匹配单元,用于2D图像的2D特征点和地图关键帧中的2D特征点进行匹配;

估计单元,用于在2D特征点的特征向量匹配量大于或等于第二数量阈值的情况下,则匹配成功,然后经计算得到估计位姿;

旋转控制单元,用于在2D特征点的特征向量匹配量小于第二数量阈值的情况下,则控制机器人旋转到下一位姿,并获取所述机器人在下一位姿的图像关键帧。

在一种可选的实施例中,所述拍摄设备为RGB-D深度相机。

需要说明的是,本发明实施例所述的机器人重定位装置的实现原理和技术效果与第一实施例所述的机器人重定位方法相同,在此不再进行详细的说明。

见图6,是本发明第三实施例提供的机器人重定位设备的示意图。如图6所示,该机器人重定位设备包括:至少一个处理器11,例如CPU,至少一个网络接口14或者其他用户接口13,存储器15,至少一个通信总线12,通信总线12用于实现这些组件之间的连接通信。其中,用户接口13可选的可以包括USB接口以及其他标准接口、有线接口。网络接口14可选的可以包括Wi-Fi接口以及其他无线接口。存储器15可能包含高速RAM存储器,也可能还包括非不稳定的存储器(non-volatilememory),例如至少一个磁盘存储器。存储器15可选的可以包含至少一个位于远离前述处理器11的存储装置。

在一些实施方式中,存储器15存储了如下的元素,可执行模块或者数据结构,或者他们的子集,或者他们的扩展集:

操作系统151,包含各种系统程序,用于实现各种基础业务以及处理基于硬件的任务;

程序152。

具体地,处理器11用于调用存储器15中存储的程序152,执行上述实施例所述的机器人重定位方法,例如图1所示的步骤S1。或者,所述处理器执行所述计算机程序时实现上述各装置实施例中各模块/单元的功能,例如第一关键帧提取模块。

示例性的,所述计算机程序可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器中,并由所述处理器执行,以完成本发明。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序在所述机器人重定位设备中的执行过程。

所述机器人重定位设备可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述机器人重定位设备可包括,但不仅限于,处理器、存储器。本领域技术人员可以理解,所述示意图仅仅是机器人重定位设备的示例,并不构成对机器人重定位设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件。

所称处理器11可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等,所述处理器11是所述机器人重定位设备的控制中心,利用各种接口和线路连接整个机器人重定位设备的各个部分。

所述存储器15可用于存储所述计算机程序和/或模块,所述处理器11通过运行或执行存储在所述存储器内的计算机程序和/或模块,以及调用存储在存储器内的数据,实现所述机器人重定位设备的各种功能。所述存储器15可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器15可以包括高速随机存取存储器,还可以包括非易失性存储器,例如硬盘、内存、插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(SecureDigital,SD)卡,闪存卡(FlashCard)、至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。

其中,所述机器人重定位设备集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。

本发明第四实施例提供了一种计算机可读存储介质,所述计算机可读存储介质包括存储的计算机程序,其中,在所述计算机程序运行时控制所述计算机可读存储介质所在设备执行如第一实施例中任意一项所述的机器人重定位方法。

需说明的是,以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。另外,本发明提供的装置实施例附图中,模块之间的连接关系表示它们之间具有通信连接,具体可以实现为一条或多条通信总线或信号线。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。

以上所述是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也视为本发明的保护范围。

相关技术
  • 一种机器人重定位方法、装置、设备及存储介质
  • 一种机器人重定位方法、装置、控制设备和存储介质
技术分类

06120112857653