掌桥专利:专业的专利平台
掌桥专利
首页

一种场景识别方法、装置、计算机可读存储介质及机器人

文献发布时间:2024-04-18 19:59:31


一种场景识别方法、装置、计算机可读存储介质及机器人

技术领域

本申请属于机器人技术领域,尤其涉及一种场景识别方法、装置、计算机可读存储介质及机器人。

背景技术

随着技术的发展,越来越多的机器人走进千家万户。机器人在工作时,若被人为地移动,则会需要进行重定位;通常情况下,机器人会在原地旋转,获取多帧激光点云数据和已有的地图进行模版匹配,从而获得新的定位信息。然而,当机器人处于复杂场景时,如激光源周围存在多个障碍物,若继续使用该重定位方法,则障碍物后方的激光点云数据可能会存在大片缺失,导致重定位失败;因此,准确高效的场景识别方法对于机器人的重定位而言十分重要。

发明内容

有鉴于此,本申请实施例提供了一种场景识别方法、装置、计算机可读存储介质及机器人,以进行场景识别,提升机器人重定位的鲁棒性。

本申请实施例的第一方面提供了一种场景识别方法,可以包括:

获取机器人的激光点云数据;

对所述激光点云数据进行图像映射处理,得到与所述激光点云数据对应的目标场景图像;

计算与所述目标场景图像对应的图形复杂度;

根据所述图形复杂度确定所述机器人所处的场景。

在第一方面的一种具体实现方式中,所述计算与所述目标场景图像对应的图形复杂度,可以包括:

统计所述目标场景图像中的白色像素点的第一数目;其中,白色像素点用于表征已知区域;

将所述目标场景图像中的黑色像素点转换为白色像素点,得到转换图像;其中,黑色像素点用于表征障碍物;

对所述转换图像进行边缘提取,得到边缘图像;

统计所述边缘图像中的边缘像素点的第二数目;

根据所述第一数目和所述第二数目计算与所述目标场景图像对应的图形复杂度。

在第一方面的一种具体实现方式中,所述根据所述第一数目和所述第二数目计算与所述目标场景图像对应的图形复杂度,可以包括:

计算所述第二数目与所述第一数目的比值;

将所述比值作为与所述目标场景图像对应的图形复杂度。

在第一方面的一种具体实现方式中,所述根据所述图形复杂度确定所述机器人所处的场景,可以包括:

若所述图形复杂度大于预设的复杂度阈值,则确定所述机器人所处的场景为复杂场景;

若所述图形复杂度小于或等于所述复杂度阈值,则确定所述机器人所处的场景为正常场景。

在第一方面的一种具体实现方式中,在根据所述图形复杂度确定所述机器人所处的场景之前,还可以包括:

计算正多边形的周长面积比最大值;

获取所述机器人的激光帧率和最大缺失点云像素个数;

根据所述周长面积比最大值、所述激光帧率和所述最大缺失点云像素个数计算所述复杂度阈值。

在第一方面的一种具体实现方式中,所述计算正多边形的周长面积比最大值,可以包括:

获取所述机器人的激光最大有效距离和地图分辨率;

根据所述激光最大有效距离和所述地图分辨率计算所述正多边形的边长;

根据所述正多边形的边长计算正多边形的周长面积比最大值。

在第一方面的一种具体实现方式中,在根据所述图形复杂度确定所述机器人所处的场景之后,还可以包括:

确定与所述机器人所处的场景对应的目标重定位算法;

使用所述目标重定位算法对所述机器人进行重定位,得到重定位结果。

本申请实施例的第二方面提供了一种场景识别装置,可以包括:

数据获取模块,用于获取机器人的激光点云数据;

映射处理模块,用于对所述激光点云数据进行图像映射处理,得到与所述激光点云数据对应的目标场景图像;

复杂度计算模块,用于计算与所述目标场景图像对应的图形复杂度;

场景确定模块,用于根据所述图形复杂度确定所述机器人所处的场景。

在第二方面的一种具体实现方式中,所述复杂度计算模块可以包括:

第一数目统计子模块,用于统计所述目标场景图像中的白色像素点的第一数目;其中,白色像素点用于表征已知区域;

像素点转换子模块,用于将所述目标场景图像中的黑色像素点转换为白色像素点,得到转换图像;其中,黑色像素点用于表征障碍物;

边缘提取子模块,用于对所述转换图像进行边缘提取,得到边缘图像;

第二数目统计子模块,用于统计所述边缘图像中的边缘像素点的第二数目;

复杂度计算子模块,用于根据所述第一数目和所述第二数目计算与所述目标场景图像对应的图形复杂度。

在第二方面的一种具体实现方式中,所述复杂度计算子模块可以包括:

比值计算单元,用于计算所述第二数目与所述第一数目的比值;

复杂度确定单元,用于将所述比值作为与所述目标场景图像对应的图形复杂度。

在第二方面的一种具体实现方式中,所述场景确定模块可以包括:

复杂场景确定子模块,用于若所述图形复杂度大于预设的复杂度阈值,则确定所述机器人所处的场景为复杂场景;

正常场景确定子模块,用于若所述图形复杂度小于或等于所述复杂度阈值,则确定所述机器人所处的场景为正常场景。

在第二方面的一种具体实现方式中,所述场景识别装置还可以包括:

最大值计算模块,用于计算正多边形的周长面积比最大值;

帧率获取模块,用于获取所述机器人的激光帧率和最大缺失点云像素个数;

根据所述周长面积比最大值、所述激光帧率和所述最大缺失点云像素个数计算所述复杂度阈值。

在第二方面的一种具体实现方式中,所述最大值计算模块可以包括:

分辨率获取子模块,用于获取所述机器人的激光最大有效距离和地图分辨率;

边长计算子模块,用于根据所述激光最大有效距离和所述地图分辨率计算所述正多边形的边长;

最大值计算子模块,用于根据所述正多边形的边长计算正多边形的周长面积比最大值。

在第二方面的一种具体实现方式中,所述场景识别装置还可以包括:

重定位算法确定模块,用于确定与所述机器人所处的场景对应的目标重定位算法;

重定位模块,用于使用所述目标重定位算法对所述机器人进行重定位,得到重定位结果。

本申请实施例的第三方面提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述任一种场景识别方法的步骤。

本申请实施例的第四方面提供了一种机器人,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述任一种场景识别方法的步骤。

本申请实施例的第五方面提供了一种计算机程序产品,当计算机程序产品在机器人上运行时,使得机器人执行上述任一种场景识别方法的步骤。

本申请实施例与现有技术相比存在的有益效果是:本申请实施例获取机器人的激光点云数据;对所述激光点云数据进行图像映射处理,得到与所述激光点云数据对应的目标场景图像;计算与所述目标场景图像对应的图形复杂度;根据所述图形复杂度确定所述机器人所处的场景。通过本申请实施例,可以计算与目标场景图像对应的图形复杂度,并根据该图形复杂度确定机器人所处的场景,从而可以在不同场景下使用合适的重定位方法,提升机器人重定位的鲁棒性和场景适配性。

附图说明

为了更清楚地说明本申请实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。

图1为机器人所处场景的示意图;

图2为本申请实施例中一种场景识别方法的一个实施例流程图;

图3为目标场景图像的示意图;

图4为转换图像的示意图;

图5为边缘图像的示意图;

图6为复杂度阈值计算过程的示意流程图;

图7为本申请实施例中一种场景识别装置的一个实施例结构图;

图8为本申请实施例中一种机器人的示意框图。

具体实施方式

为使得本申请的发明目的、特征、优点能够更加的明显和易懂,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,下面所描述的实施例仅仅是本申请一部分实施例,而非全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本申请保护的范围。

应当理解,当在本说明书和所附权利要求书中使用时,术语“包括”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。

还应当理解,在此本申请说明书中所使用的术语仅仅是出于描述特定实施例的目的而并不意在限制本申请。如在本申请说明书和所附权利要求书中所使用的那样,除非上下文清楚地指明其它情况,否则单数形式的“一”、“一个”及“该”意在包括复数形式。

还应当进一步理解,在本申请说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。

如在本说明书和所附权利要求书中所使用的那样,术语“如果”可以依据上下文被解释为“当...时”或“一旦”或“响应于确定”或“响应于检测到”。类似地,短语“如果确定”或“如果检测到[所描述条件或事件]”可以依据上下文被解释为意指“一旦确定”或“响应于确定”或“一旦检测到[所描述条件或事件]”或“响应于检测到[所描述条件或事件]”。

另外,在本申请的描述中,术语“第一”、“第二”、“第三”等仅用于区分描述,而不能理解为指示或暗示相对重要性。

随着技术的发展,越来越多的机器人走进千家万户。机器人在工作时,若被人为地移动,则会需要进行重定位;通常情况下,机器人会在原地旋转,获取多帧激光点云数据和已有的地图进行模版匹配,从而获得新的定位信息,当机器人处于正常场景时,请参阅图1,探测到的障碍物(如墙体或者靠墙的沙发等)的后方可能并无其它特征,此时激光点云数据中不会由于障碍物的遮挡而存在大片缺失,所以该重定位方法可以有效地进行重定位;然而,当机器人处于复杂场景时,此处请继续参阅图1,如激光源周围存在多个障碍物,此时障碍物后方的激光点云数据可能会存在大片缺失,从而导致重定位失败。

有鉴于此,本申请实施例提供了一种场景识别方法、装置、计算机可读存储介质及机器人,以解决在复杂场景下机器人容易重定位失败的问题。

需要说明的是,本申请方法的执行主体为机器人,具体可以包括但不限于扫地机、洗地机、巡检机器人、引导机器人、送餐机器人等现有技术中常见的机器人。

请参阅图2,本申请实施例中一种场景识别方法的一个实施例可以包括:

步骤S201、获取机器人的激光点云数据。

在本申请实施例中,可以通过预设的激光雷达设备对机器人的周边环境进行探测扫描,得到激光点云数据,据此,可以获知机器人的周边环境信息。

具体地,机器人上通常可以安装有预设的激光雷达设备,用于实现地图探测、导航和避障等功能,在需要进行场景识别时,可以控制机器人原地旋转,并利用预设的激光雷达设备实时采集激光点云数据,之后,可以将该激光点云数据存储于预设的存储模块中,通过该存储模块,可以获取到机器人的激光点云数据。

步骤S202、对激光点云数据进行图像映射处理,得到与激光点云数据对应的目标场景图像。

在本申请实施例中,可以对激光点云数据进行图像映射处理,以增强激光点云数据的可视化程度,提升后续处理的效率。具体地,请参阅图3,可以将激光点云数据中的已知区域设置为白色像素点,将激光点云数据中的障碍物设置为黑色像素点,将激光点云数据中的未知区域设置为灰色像素点,得到与激光点云数据对应的目标场景图像。

在实际应用中,还可以根据实际需要对激光点云数据进行图像映射处理,本申请对此不作具体限定。

步骤S203、计算与目标场景图像对应的图形复杂度。

在本申请实施例中,可以根据由激光点云数据组成的图形的紧凑程度,确定机器人是否处于复杂场景。此处,可以计算目标场景图像中已知区域的周长面积比。

需要说明的是,可以使用不同颜色的像素点来表征目标场景图像中的不同区域,便于进行区分和处理。此处,白色像素点可以用于表征已知区域,黑色像素点可以用于表征障碍物,灰色像素点可以用于表征未知区域。

具体地,可以统计目标场景图像中的白色像素点的第一数目s(即已知区域的面积);之后,可以将目标场景图像中的黑色像素点转换为白色像素点,得到转换图像,如图4所示,并可以使用预设的边缘提取算法对转换图像进行边缘提取,得到边缘图像,如图5所示;之后,可以统计边缘图像中的边缘像素点的第二数目c(即已知区域的周长),根据第一数目和第二数目,可以计算与目标场景图像对应的图形复杂度。

在本申请实施例中,可以计算第二数目与第一数目的比值ratio:

ratio=c/s

之后,可以将该比值作为与目标场景图像对应的图形复杂度。

其中,上述边缘提取算法可以为现有技术中任意一种常见的边缘提取算法,包括但不限于Canny边缘检测算子、Roberts边缘检测算子、Sobel边缘检测算子、Prewitt边缘检测算子、Laplacian边缘检测算子等常见边缘检测算法。

步骤S204、根据图形复杂度确定机器人所处的场景。

在本申请实施例中,若图形复杂度大于预设的复杂度阈值,则可以认为已知区域的图形的紧凑程度较低,如图1所示的复杂场景,因此,可以确定机器人所处的场景为复杂场景;若图形复杂度小于或等于复杂度阈值,则可以认为已知区域的图形的紧凑程度较高,如图1所示的正常场景,因此,可以确定机器人所处的场景为正常场景。其中,复杂度阈值可以根据实际需要进行具体化、情景化设置,例如,可以将其设置为0.1、0.15、0.2或者其它取值,本申请实施例对此不作具体限定。

在一种具体的实现方式中,可以根据周长面积比最大值、激光帧率和最大缺失点云像素个数计算复杂度阈值。请参阅图6,具体地,复杂度阈值的计算过程可以包括如下步骤:

步骤S601、计算正多边形的周长面积比最大值。

在本申请实施例中,可以获取机器人的激光最大有效距离和地图分辨率,其中,激光最大有效距离为激光雷达设备的最大有效探测距离,地图分辨率为地图上每个像素点所代表的实际距离,例如,地图分辨率为0.05,则可以表示地图上一个像素点代表的实际距离为0.05米。

此处,可以将正多边形作为计算复杂度阈值的基准图形,并可以将机器人的激光最大有效距离作为正多边形的基准边长。根据激光最大有效距离和地图分辨率,可以计算正多边形的边长在场景图像中的像素点个数:

d=L÷r

其中,d为正多边形的边长的像素点个数,L为激光最大有效距离,r为地图分辨率。

根据正多边形的边长d,可以计算正多边形的周长c_:

c_=n×d

其中,n为正多边形的边长的个数。

另外,还可以计算正多边形的面积s_:

s_=0.25×n×d

其中,n为正多边形的边长的个数。据此,可以计算正多边形的周长面积比ratio_:

ratio_=c_/s_

将正多边形的周长c_和正多边形的面积s_的计算公式代入上式,可得:

ratio_=c_/s_=n×d/0.25×n×d

需要理解的是,若图形的紧凑程度越低(即发散程度越高),则其对应的周长面积比越大;若图形的紧凑程度越高(即发散程度越低),则其对应的周长面积比越小。因此,在本申请实施例中,可以根据已知区域在正常场景下可能达到的最高紧凑程度(周长面积比最大值),计算复杂度阈值。

具体地,由于tan(π/n)的取值为(0,1),且一般可以认为激光雷达设备探测到的图形至少存在4条边,即n≥4,因此,tan(π/n)的取值最大值可以为1,则正多边形的周长面积比最大值ratio_max为:

ratio_max=4/d

步骤S602、获取机器人的激光帧率和最大缺失点云像素个数。

在本申请实施例中,还可以在计算复杂度阈值时,根据实际情况,获取机器人的激光帧率f和最大缺失点云像素个数α。其中,激光帧率f为每秒采集到激光点云数据的帧数,最大缺失点云像素个数α为最大可以容忍的点云像素缺失的个数。

需要理解的是,机器人的激光帧率与正多边形的周长面积比负相关,若机器人的激光帧率越大,则正多边形的周长面积比越小;若机器人的激光帧率越小,则正多边形的周长面积比越小;而最大缺失点云像素个数则与正多边形的周长面积比正相关,若最大缺失点云像素个数越大,则正多边形的周长面积比越大;若最大缺失点云像素个数越小,则正多边形的周长面积比越小。

步骤S603、根据周长面积比最大值、激光帧率和最大缺失点云像素个数计算复杂度阈值。

在本申请实施例中,可以根据周长面积比最大值、激光帧率和最大缺失点云像素个数计算复杂度阈值,具体公式为:

其中,ratio_threshold为复杂度阈值,最大缺失点云像素个数α的取值可以根据实际需要进行具体化、情景化设置,本申请对此不做限定,此处,可以优选地设置为40。

例如,机器人的激光最大有效距离为6.5米,地图分辨率r为0.05,激光帧率f为6(即每秒可采集到6帧激光点云数据),根据上述过程,可以计算出复杂度阈值ratio_threshold为0.205。

需要说明的是,在本申请实施例的一种具体实现方式中,在根据图形复杂度确定机器人所处的场景之后,还可以确定与机器人所处的场景对应的目标重定位算法,并使用目标重定位算法对机器人进行重定位,得到重定位结果。具体地,当机器人处于正常场景时,可以将传统的激光重定位算法确定为目标重定位算法,此时,可以控制机器人原地旋转并获取激光点云数据,并将激光点云数据和已有地图进行模版匹配,得到重定位结果;当机器人处于复杂场景时,可以利用其它传感器和对应的重定位方法进行重定位,例如,可以将超声波重算法方法确定为目标重定位算法,此时,可以利用超声波信号的反射和传播特性,通过比较机器人与预设的各个标定物体的距离,确定机器人的定位;又例如,可以将射频识别(Radio Frequency Identification,RFID)的重定位算法确定为目标重定位算法,此时,可以在机器人和预设的各个标定物体上安装RFID标签,利用无线通信读取标签信息来确定机器人和各个标定物体的距离,以计算机器人的定位;又例如,可以将多种传感器结合的重定位算法确定为目标重定位算法,具体可以利用红外传感器和地磁传感器来获取机器人的位置信息,通过对红外传感器和地磁传感器的数据进行处理和分析来计算机器人的位置和姿态,从而进行机器人重定位。

据此,可以根据机器人所处的实际场景,灵活地选择合适的重定位算法,从而可以提升机器人重定位的鲁棒性和场景适配性,有助于提升用户体验。

综上所述,本申请实施例获取机器人的激光点云数据;对所述激光点云数据进行图像映射处理,得到与所述激光点云数据对应的目标场景图像;计算与所述目标场景图像对应的图形复杂度;根据所述图形复杂度确定所述机器人所处的场景。通过本申请实施例,可以计算与目标场景图像对应的图形复杂度,并根据该图形复杂度确定机器人所处的场景,从而可以在不同场景下使用合适的重定位方法,提升机器人重定位的鲁棒性和场景适配性。

应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。

对应于上文实施例所述的一种场景识别方法,图7示出了本申请实施例提供的一种场景识别装置的一个实施例结构图。

本申请实施例中,一种场景识别装置可以包括:

数据获取模块701,用于获取机器人的激光点云数据;

映射处理模块702,用于对所述激光点云数据进行图像映射处理,得到与所述激光点云数据对应的目标场景图像;

复杂度计算模块703,用于计算与所述目标场景图像对应的图形复杂度;

场景确定模块704,用于根据所述图形复杂度确定所述机器人所处的场景。

在本申请实施例的一种具体实现方式中,所述复杂度计算模块可以包括:

第一数目统计子模块,用于统计所述目标场景图像中的白色像素点的第一数目;其中,白色像素点用于表征已知区域;

像素点转换子模块,用于将所述目标场景图像中的黑色像素点转换为白色像素点,得到转换图像;其中,黑色像素点用于表征障碍物;

边缘提取子模块,用于对所述转换图像进行边缘提取,得到边缘图像;

第二数目统计子模块,用于统计所述边缘图像中的边缘像素点的第二数目;

复杂度计算子模块,用于根据所述第一数目和所述第二数目计算与所述目标场景图像对应的图形复杂度。

在本申请实施例的一种具体实现方式中,所述复杂度计算子模块可以包括:

比值计算单元,用于计算所述第二数目与所述第一数目的比值;

复杂度确定单元,用于将所述比值作为与所述目标场景图像对应的图形复杂度。

在本申请实施例的一种具体实现方式中,所述场景确定模块可以包括:

复杂场景确定子模块,用于若所述图形复杂度大于预设的复杂度阈值,则确定所述机器人所处的场景为复杂场景;

正常场景确定子模块,用于若所述图形复杂度小于或等于所述复杂度阈值,则确定所述机器人所处的场景为正常场景。

在本申请实施例的一种具体实现方式中,所述场景识别装置还可以包括:

最大值计算模块,用于计算正多边形的周长面积比最大值;

帧率获取模块,用于获取所述机器人的激光帧率和最大缺失点云像素个数;

根据所述周长面积比最大值、所述激光帧率和所述最大缺失点云像素个数计算所述复杂度阈值。

在本申请实施例的一种具体实现方式中,所述最大值计算模块可以包括:

分辨率获取子模块,用于获取所述机器人的激光最大有效距离和地图分辨率;

边长计算子模块,用于根据所述激光最大有效距离和所述地图分辨率计算所述正多边形的边长;

最大值计算子模块,用于根据所述正多边形的边长计算正多边形的周长面积比最大值。

在本申请实施例的一种具体实现方式中,所述场景识别装置还可以包括:

重定位算法确定模块,用于确定与所述机器人所处的场景对应的目标重定位算法;

重定位模块,用于使用所述目标重定位算法对所述机器人进行重定位,得到重定位结果。

所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的装置,模块和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。

在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。

图8示出了本申请实施例提供的一种机器人的示意框图,为了便于说明,仅示出了与本申请实施例相关的部分。

如图8所示,该实施例的机器人8包括:处理器80、存储器81以及存储在所述存储器81中并可在所述处理器80上运行的计算机程序82。所述处理器80执行所述计算机程序82时实现上述各个场景识别方法实施例中的步骤,例如图2所示的步骤S201至步骤S204。或者,所述处理器80执行所述计算机程序82时实现上述各装置实施例中各模块/单元的功能,例如图7所示模块701至模块704的功能。

示例性的,所述计算机程序82可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器81中,并由所述处理器80执行,以完成本申请。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序82在所述机器人8中的执行过程。

本领域技术人员可以理解,图8仅仅是机器人8的示例,并不构成对机器人8的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述机器人8还可以包括输入输出设备、网络接入设备、总线等。

所述处理器80可以是中央处理单元(Central Processing Unit,CPU),还可以是其它通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其它可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。

所述存储器81可以是所述机器人8的内部存储单元,例如机器人8的硬盘或内存。所述存储器81也可以是所述机器人8的外部存储设备,例如所述机器人8上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,所述存储器81还可以既包括所述机器人8的内部存储单元也包括外部存储设备。所述存储器81用于存储所述计算机程序以及所述机器人8所需的其它程序和数据。所述存储器81还可以用于暂时地存储已经输出或者将要输出的数据。

所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。

在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。

本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。

在本申请所提供的实施例中,应该理解到,所揭露的装置/机器人和方法,可以通过其它的方式实现。例如,以上所描述的装置/机器人实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。

所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。

另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。

所述集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读存储介质中。基于这样的理解,本申请实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读存储介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读存储介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读存储介质不包括电载波信号和电信信号。

以上所述实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围,均应包含在本申请的保护范围之内。

相关技术
  • 基于离子选择性电极的土壤硝态氮多参数检测方法与仪表
  • 基于离子选择电极的土壤硝态氮快速检测设备与方法
  • 基于离子选择电极的土壤硝态氮快速检测设备
技术分类

06120116518876