掌桥专利:专业的专利平台
掌桥专利
首页

一种基于视觉激光的垃圾清扫无人车的主动垃圾清扫方法

文献发布时间:2024-04-18 19:58:26


一种基于视觉激光的垃圾清扫无人车的主动垃圾清扫方法

技术领域

本发明属于垃圾清扫车技术领域,具体为一种基于视觉激光的垃圾清扫无人车的主动垃圾清扫方法。

背景技术

扫地机器人广泛应用于多种场景下的垃圾清扫作业中,通过室内外扫地机器人与现场人员的配合,极大的提高了清洁工作的效率与质量,降低了原有清洁工人的劳动强度。同时,简单易学的操作方式,使得非技术人员也能在短时间内独立使用。

室内扫地机器人技术已相对成熟,目前已经实现了较好的产品化落地。但现有无人室外垃圾清扫车存在以下问题,距离产品化落地仍有改进和提升的空间。(1)室外扫地车均采用区域遍历全覆盖的方式进行清扫,无法对垃圾和脏污进行识别以完成精准导航清扫,清扫效率有一定的提升空间,不适用于大面积的室外清扫作业;(2)室外扫地车转弯半径过大,清扫直角拐角处时盲区较大,清扫效果不佳,车库等较窄区域脱困效果不佳;(3)室外扫地车清扫时贴边效果过分依赖于地图的修图精度,部分区域贴边效果不理想。

发明内容

针对上述情况,为弥补上述现有缺陷,本发明提供了一种基于视觉激光的垃圾清扫无人车的主动垃圾清扫方法,该方法基于视觉激光融合垃圾位置估计算法,主动识别垃圾并规划路径进行清扫作业,清扫效率高并且耗能低,此外通过将激光雷达技术、视觉识别技术以及多目标路径规划技术等多项技术融合,可以精确定位到视野狭窄区的垃圾,精准高效地清理垃圾。

本发明提供如下的技术方案:

本发明提供了一种基于视觉激光的垃圾清扫无人车的主动垃圾清扫方法,具体包括下述步骤:

步骤S1:规定无人清扫车的巡航路径,在未发现有垃圾之前,无人清扫车会一直在这条路径上巡航;

步骤S2:构建YOLOv7神经网络基础模型,并加入注意力机制对其改进;

步骤S3:对改进后YOLOv7神经网络模型进行训练,并将训练后的模型作为垃圾识别模型;

步骤S4:利用LVI-SAM模型将垃圾识别模型输出的二维坐标点转化为真实世界的三维坐标,即垃圾所在位置;

步骤S5:设计一种多目标规划的垃圾清扫路径;

步骤S6:控制无人清扫车在垃圾清扫路径上运动;

步骤S7:控制垃圾清扫机构清除地面上的垃圾。

进一步地,步骤S2所述构建YOLOv7神经网络基础模型,并加入注意力机制对其改进,其详细步骤如下:

步骤S201:构建YOLOv7神经网络基础模型;

YOLOv7的网络结构主要可以分为个四部分:图片数据输入(input);网络主干特征提取部分(backbone);特征融合部分(neck);多尺度特征及预测回归分类部分(head);

其中,YOLOv7的Backbone主要由CBL模块和ELAN组成,CBL模块的结构如主要由Conv层、Batch normalization层和LeakyReLU激活函数构成;在YOLOv7的网络中,CBL模块就和砖头一样搭建了整个网络,是网络的基础部分;而ELAN则是一种网络结构,是一种采用控制最短和最长的梯度路径使网络具有更强的鲁棒性并可以接纳更多的特征的网络结构;

YOLOv7的neck部分,其部分采用的是在PANet框架中引入ELAN的融合结构,从深层到浅层进行上采样,再从浅层到深层进行下采样;PANet是一种用于实例分割的神经网络结构,其主要优点是能够有效处理不同尺度和分辨率的特征图以提高实例分割的准确性;PANet网络能够将来自不同尺度的特征图进行融合,并且能够最大化地利用特征图的空间信息,从而更好地提取目标特征;

YOLOv7的head部分,其输出是从主干网络的不同尺度特征中提取得到的;在特征融合模块中,这些特征被组合起来以生成三个不同尺度的最终特征图;通过这些特征图可以最终得出目标的置信度在特征融合模块中,这些特征被组合起来以生成三个不同尺度的最终特征图;通过这些特征图可以最终得出目标的置信度;

步骤S202:加入卷积注意力机制CBAM对YOLOv7神经网络模型进行改进和优化;具体是在YOLOv7中依次加入通道注意力模块Mc和空间注意力模块Ms,其中通道注意力模块Mc是对各卷积模块之间的通道进行处理,空间注意力模块Ms是基于空间维度下对Mc输入的特征图进行最大池化和平均池化处理,计算过程分别为:

式中,F为特征图;M

进一步地,步骤S3所述对改进后YOLOv7神经网络模型进行训练,其详细步骤如下:

步骤S301:将垃圾数据集按4:1划分为训练集和测试集;

步骤S302:冻结YOLOv7神经网络模型中靠近输入端的卷积块,保持起始层权重不变,用训练集训练剩余靠近输出端的卷积块和Softmax分类器,得到新的权重;其中新的权重是用初始权重减去反向传播的误差,当反向传播的误差为正时,减小当前权重的数值,当反向传播的误差为负时,增加当前权重的数值,训练及微调权重值后的YOLOv7神经网络模型即为垃圾检测模型;

步骤S303:用测试集检验垃圾检测模型的性能,包括判断测试集图像中出现的物体是否为垃圾的准确率和损失率。

进一步地,步骤S4所述LVI-SAM是一种激光视觉惯性里程计系统,用于无人车的定位和建图,在此本发明利用该系统进行垃圾的3D位置估计,它由两个子系统组成:一个视觉惯导系统和一个激光惯导系统;这两个子系统利用紧耦合的方法,视觉惯导的系统利用激光惯导的估计来做初始化;视觉惯导系统利用激光雷达的测量给视觉特征提供深度来提升精度;同时激光惯导系统利用视觉惯导的估计值作为初值来做帧的匹配;利用视觉做闭环检测,把检测的结果给激光惯导系统来做优化;当激光惯导和视觉惯导子系统的一个失败的时候LVI-SAM仍然可以工作,这极大的提升了系统在缺少纹理或者特征场景中的鲁棒性。

进一步地,步骤S4所述利用LVI-SAM模型将垃圾识别模型输出的二维坐标点转化为真实世界的三维坐标,其详细步骤如下:

步骤S401:视觉惯导的系统利用激光惯导的估计来做初始化

基于优化的VIO系统,由于很强的非线性导致初始化发散,初始化的质量取决于两个主要因素:初始化的传感器运动和IMU参数的精度;事实上,我们发现VINS很容易在系统速度很小或者匀速的时候初始化失败,这就是由于加速度激励不够大导致尺度不可观;另外IMU的参数包含渐变的BIAS和高斯白噪声,它影响着加速度和角速度的测量,在初始化的时候,好的初值可以帮助系统快速的优化;

为了改善VIS初始化的鲁棒性,利用LIS系统来估计系统的状态x和IMU的偏置b,因为直接可以通过雷达的观测得到深度信息;我们首先初始化LIS系统获得x和b,然后我们通过插值来把激光帧和视觉帧通过时间戳对齐,假设IMU的偏置在两个图象关键帧之间是常数;最后把LIS系统初始化得到的x和b作为VIS初始值,这很有效的改善初始化的速度和鲁棒性;

步骤S402:深度计算

根据VIS初始化的结果,利用视觉里程计对齐视觉帧和雷达帧,由于当前的3D雷达扫描的是稀疏的点,把多帧激光点云组合起来得到一个稠密的深度图;为了把特征和深度值关联起来,需要把视觉特征和雷达点投影到以相机为圆心的单位圆上;然后对深度点进行降采样并利用极坐标进行保存保证点的密度是常数的;通过利用二维的KD-tree(极坐标)来找视觉特征点周围最近的三个点,由这三个点可以得到一个平面,最后特征点的深度计算的是相机中心到这个平面的距离;

步骤S403:通过LVI-SAM模型对垃圾图像再进行特征提取,接收YOLOv7传输垃圾中心点坐标,再与(2)获得的相机深度坐标结合,构成带有相机深度的三维坐标,最后再将此坐标转换为真实世界坐标,即垃圾所在的具体位置。

进一步地,步骤S5所述设计一种多目标规划的垃圾清扫路径,其详细步骤如下:

步骤S501:将所有垃圾所在的具体位置视作为多个目标点;

步骤S502:首先根据多个目标点中的相邻两个点的位姿数据,获取所述三维模型中对应的多条路径曲线;

步骤S503:再计算所述多条路径曲线的曲线长度并将最短曲线长度对应的路径曲线作为所述两个目标点之间的规划路径,当每相邻的两个靶点之间的路径规划好之后将会形成一条完整的规划路径。

进一步地,步骤S503中计算每相邻两目标点之间的路径及最短路径,其详细步骤如下:

为了计算每一条路径曲线的曲线长度,这里针对每一条路径曲线均需要进行分段插值,也就是在路径曲线的两个目标点之间进行插值得到多个插值点,插值点的选取可以是任意的,也可以是按照一定规则来设定,例如每隔固定间隔设置一插值点,在已知两个目标点的位姿数据并已确定多条路径曲线的情况下,可以依据分段插值的规则来计算得到每一条路径曲线上多个插值点的位姿数据,这里可以依据多个插值点的位姿数据中的三维坐标计算得到两个目标点之间每相邻两个插值点之间的距离,将这些距离求和后就可以得到两个目标点之间的曲线长度,针对所确定的每一条路径曲线均计算其曲线长度,由此可以得到多条路径曲线的曲线长度,最后选取其中最短且可行的一条路径作为该相邻目标点之间的路径。

(1)所要规划的路径即从两个目标点中的第一目标点切换至第二目标点,第一目标点用Ts表示,第一目标点的位姿数据为Ts=[Xs,Ys,Zs,αs,βs,γs],第二目标点用Te表示,第二目标点的位姿数据为Te=[Xe,Ye,Ze,αe,βe,γe];在第一目标点Ts与第二目标点Te的连线上等间隔地取N-1个点,N为正整数,这N-1个点即为中间点;第一目标点Ts和第二目标点Te的位姿数据是已知的,可以计算得到N-1个中间点的位姿数据;

(2)针对每一条模型曲线,通过与第一目标点Ts与第二目标点Te的连线垂直并分别经过N-1个中间点中的每一个中间点的面将多个中间点分别投影到多条模型曲线上,分别在每一条模型曲线上得到多个投影点。具体来说,针对其中一条模型曲线,通过与第一目标点Ts与第二目标点Te的连线垂直并分别经过这N-1个中间点的面可以将这N-1个点投影到该模型曲线上,那么针对每一条模型曲线可以得到N-1个投影点。在已知N-1个中间点的位姿数据的情况下,由于每一条模型曲线也是已知的,所以可以计算得到N-1个投影点的位姿数据;

(3)在得到N-1个投影点及其位姿数据之后,分别沿与模型曲线的每一个投影点处切平面垂直且经过相应投影点的线将N-1个投影点分别映射到相应的路径曲线上,简单来说也就是将这N-1个投影点沿每一个投影点分别对应的z轴方向移动固定距离h,那么对于每条路径曲线均可以得到N-1个插值点,用K1,K2,......Kn-1表示,在N-1个投影点的位姿数据已知的情况下,可以得到N-1个插值点的位姿数据;

(4)针对一条路径曲线,从第一目标点Ts对应的起点到第二目标点Te对应的终点之间的N-1个插值点,其中,经过N-1个插值点从第一目标点Ts对应的起点到第二目标点Te对应的终点的每相邻两点之间的直线距离分别可以表示d1,d2......dn,条线段,计算公式如下:

式中,di表示插值点Ki-1到插值点Ki的距离;

由此可计算Ts到Te的曲线长度,计算公式如下:

式中,D表示一条路径曲线的曲线长度;

针对每一条路径曲线均计算得到一个曲线长度D,那么多条路径曲线将对应得到多个曲线长度。通过比较得到最短曲线长度并将最短曲线长度对应的路径曲线作为第一目标点Ts与第二目标点Te之间的规划路径。

进一步地,步骤S6所述控制无人清扫车在垃圾清扫路径上运动,是指通过系统指令控制小车底盘,使小车运动。

进一步地,步骤S7所述控制垃圾清扫机构清除地面上的垃圾,是指当小车沿着规划的路径行驶并到达垃圾点位置时,控制小车清扫机构将垃圾清扫完成。

采用上述结构本发明取得的有益效果如下:本发明提出的一种基于视觉激光的垃圾清扫无人车的主动垃圾清扫方法,相较于现有技术,具体具有下述优点:

(1)本发明所述的图像识别分类方法在YOLOv7神经网络基础上,引入了卷积注意力机制CBAM结构对其模型进行了进一步优化,进一步提升了模型识别的精确度和训练速度,同时也提升模型的域适应能力;

(2)本发明利用LVI-SAM模型将图像中垃圾的2D坐标转换为现实世界的3D坐标,能够精确的定位到垃圾所在位置,也为本发明中的多目标路径规划技术提供了技术保障和技术依耐;

(3)本发明针对采集垃圾点,设计了多目标路径规划技术。通过规划每相邻两个垃圾点的之间路径,从而规划出一条完整的路径,这使得无人垃圾车主动清扫垃圾更有效率和节能;

(4)本发明将视觉识别技术、激光雷达SLAM技术以及多目标路径规划技术等多项技术相结合应用在无人驾驶中,使得垃圾清扫更加智能化,同时使得无人车主动垃圾清扫更具有可行性。

附图说明

附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。在附图中:

图1为本发明的整体流程示意图;

图2为本发明的技术路线图;

图3为本发明的技术路线示意图;

图4为本发明的YOLOv7神经网络模型的训练流程图;

图5为本发明的LVI-SAM模型中坐标变化流程图;

图6为本发明的多目标路径规划流程图。

具体实施方式

下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例;基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。

需要说明的是,下面描述中使用的词语“前”、“后”、“左”、“右”、“上”和“下”指的是附图中的方向,词语“内”和“外”分别指的是朝向或远离特定部件几何中心的方向。

实施例

参阅图1-6,本实施例提供了一种基于视觉激光的垃圾清扫无人车的主动垃圾清扫方法,具体包括下述步骤:

步骤S1:规定无人清扫车的巡航路径,在未发现有垃圾之前,无人清扫车会一直在这条路径上巡航;

步骤S2:构建YOLOv7神经网络基础模型,并加入注意力机制对其改进;

步骤S3:对改进后YOLOv7神经网络模型进行训练,并将训练后的模型作为垃圾识别模型;

步骤S4:利用LVI-SAM模型将垃圾识别模型输出的二维坐标点转化为真实世界的三维坐标,即垃圾所在位置;

步骤S5:设计一种多目标规划的垃圾清扫路径;

步骤S6:控制无人清扫车在垃圾清扫路径上运动;

步骤S7:控制垃圾清扫机构清除地面上的垃圾。

具体地,在本实施例中,步骤S2所述构建YOLOv7神经网络基础模型,并加入注意力机制对其改进,其详细步骤如下:

步骤S201:构建YOLOv7神经网络基础模型;

YOLOv7的网络结构主要可以分为个四部分:图片数据输入(input);网络主干特征提取部分(backbone);特征融合部分(neck);多尺度特征及预测回归分类部分(head);

其中,YOLOv7的Backbone主要由CBL模块和ELAN组成,CBL模块的结构如主要由Conv层、Batch normalization层和LeakyReLU激活函数构成;在YOLOv7的网络中,CBL模块就和砖头一样搭建了整个网络,是网络的基础部分;而ELAN则是一种网络结构,是一种采用控制最短和最长的梯度路径使网络具有更强的鲁棒性并可以接纳更多的特征的网络结构;

YOLOv7的neck部分,其部分采用的是在PANet框架中引入ELAN的融合结构,从深层到浅层进行上采样,再从浅层到深层进行下采样;PANet是一种用于实例分割的神经网络结构,其主要优点是能够有效处理不同尺度和分辨率的特征图以提高实例分割的准确性;PANet网络能够将来自不同尺度的特征图进行融合,并且能够最大化地利用特征图的空间信息,从而更好地提取目标特征;

YOLOv7的head部分,其输出是从主干网络的不同尺度特征中提取得到的;在特征融合模块中,这些特征被组合起来以生成三个不同尺度的最终特征图;通过这些特征图可以最终得出目标的置信度在特征融合模块中,这些特征被组合起来以生成三个不同尺度的最终特征图;通过这些特征图可以最终得出目标的置信度;

步骤S202:加入卷积注意力机制CBAM对YOLOv7神经网络模型进行改进和优化;具体是在YOLOv7中依次加入通道注意力模块Mc和空间注意力模块Ms,其中通道注意力模块Mc是对各卷积模块之间的通道进行处理,空间注意力模块Ms是基于空间维度下对Mc输入的特征图进行最大池化和平均池化处理,计算过程分别为:

式中,F为特征图;M

具体地,在本实施例中,步骤S3所述对改进后YOLOv7神经网络模型进行训练,其详细步骤如下:

步骤S301:将垃圾数据集按4:1划分为训练集和测试集;

步骤S302:冻结YOLOv7神经网络模型中靠近输入端的卷积块,保持起始层权重不变,用训练集训练剩余靠近输出端的卷积块和Softmax分类器,得到新的权重;其中新的权重是用初始权重减去反向传播的误差,当反向传播的误差为正时,减小当前权重的数值,当反向传播的误差为负时,增加当前权重的数值,训练及微调权重值后的YOLOv7神经网络模型即为垃圾检测模型;

步骤S303:用测试集检验垃圾检测模型的性能,包括判断测试集图像中出现的物体是否为垃圾的准确率和损失率。

具体地,在本实施例中,步骤S4所述LVI-SAM是一种激光视觉惯性里程计系统,用于无人车的定位和建图,在此本发明利用该系统进行垃圾的3D位置估计,它由两个子系统组成:一个视觉惯导系统和一个激光惯导系统;这两个子系统利用紧耦合的方法,视觉惯导的系统利用激光惯导的估计来做初始化;视觉惯导系统利用激光雷达的测量给视觉特征提供深度来提升精度;同时激光惯导系统利用视觉惯导的估计值作为初值来做帧的匹配;利用视觉做闭环检测,把检测的结果给激光惯导系统来做优化;当激光惯导和视觉惯导子系统的一个失败的时候LVI-SAM仍然可以工作,这极大的提升了系统在缺少纹理或者特征场景中的鲁棒性。

具体地,在本实施例中,步骤S4所述利用LVI-SAM模型将垃圾识别模型输出的二维坐标点转化为真实世界的三维坐标,其详细步骤如下:

步骤S401:视觉惯导的系统利用激光惯导的估计来做初始化

基于优化的VIO系统,由于很强的非线性导致初始化发散,初始化的质量取决于两个主要因素:初始化的传感器运动和IMU参数的精度;事实上,我们发现VINS很容易在系统速度很小或者匀速的时候初始化失败,这就是由于加速度激励不够大导致尺度不可观;另外IMU的参数包含渐变的BIAS和高斯白噪声,它影响着加速度和角速度的测量,在初始化的时候,好的初值可以帮助系统快速的优化;

为了改善VIS初始化的鲁棒性,利用LIS系统来估计系统的状态x和IMU的偏置b,因为直接可以通过雷达的观测得到深度信息;我们首先初始化LIS系统获得x和b,然后我们通过插值来把激光帧和视觉帧通过时间戳对齐,假设IMU的偏置在两个图象关键帧之间是常数;最后把LIS系统初始化得到的x和b作为VIS初始值,这很有效的改善初始化的速度和鲁棒性;

步骤S402:深度计算

根据VIS初始化的结果,利用视觉里程计对齐视觉帧和雷达帧,由于当前的3D雷达扫描的是稀疏的点,把多帧激光点云组合起来得到一个稠密的深度图;为了把特征和深度值关联起来,需要把视觉特征和雷达点投影到以相机为圆心的单位圆上;然后对深度点进行降采样并利用极坐标进行保存保证点的密度是常数的;通过利用二维的KD-tree(极坐标)来找视觉特征点周围最近的三个点,由这三个点可以得到一个平面,最后特征点的深度计算的是相机中心到这个平面的距离;

步骤S403:通过LVI-SAM模型对垃圾图像再进行特征提取,接收YOLOv7传输垃圾中心点坐标,再与(2)获得的相机深度坐标结合,构成带有相机深度的三维坐标,最后再将此坐标转换为真实世界坐标,即垃圾所在的具体位置。

具体地,在本实施例中,步骤S5所述设计一种多目标规划的垃圾清扫路径,其详细步骤如下:

步骤S501:将所有垃圾所在的具体位置视作为多个目标点;

步骤S502:首先根据多个目标点中的相邻两个点的位姿数据,获取所述三维模型中对应的多条路径曲线;

步骤S503:再计算所述多条路径曲线的曲线长度并将最短曲线长度对应的路径曲线作为所述两个目标点之间的规划路径,当每相邻的两个靶点之间的路径规划好之后将会形成一条完整的规划路径。

具体地,在本实施例中,步骤S503中计算每相邻两目标点之间的路径及最短路径,其详细步骤如下:

为了计算每一条路径曲线的曲线长度,这里针对每一条路径曲线均需要进行分段插值,也就是在路径曲线的两个目标点之间进行插值得到多个插值点,插值点的选取可以是任意的,也可以是按照一定规则来设定,例如每隔固定间隔设置一插值点,在已知两个目标点的位姿数据并已确定多条路径曲线的情况下,可以依据分段插值的规则来计算得到每一条路径曲线上多个插值点的位姿数据,这里可以依据多个插值点的位姿数据中的三维坐标计算得到两个目标点之间每相邻两个插值点之间的距离,将这些距离求和后就可以得到两个目标点之间的曲线长度,针对所确定的每一条路径曲线均计算其曲线长度,由此可以得到多条路径曲线的曲线长度,最后选取其中最短且可行的一条路径作为该相邻目标点之间的路径。

(1)所要规划的路径即从两个目标点中的第一目标点切换至第二目标点,第一目标点用Ts表示,第一目标点的位姿数据为Ts=[Xs,Ys,Zs,αs,βs,γs],第二目标点用Te表示,第二目标点的位姿数据为Te=[Xe,Ye,Ze,αe,βe,γe];在第一目标点Ts与第二目标点Te的连线上等间隔地取N-1个点,N为正整数,这N-1个点即为中间点;第一目标点Ts和第二目标点Te的位姿数据是已知的,可以计算得到N-1个中间点的位姿数据;

(2)针对每一条模型曲线,通过与第一目标点Ts与第二目标点Te的连线垂直并分别经过N-1个中间点中的每一个中间点的面将多个中间点分别投影到多条模型曲线上,分别在每一条模型曲线上得到多个投影点。具体来说,针对其中一条模型曲线,通过与第一目标点Ts与第二目标点Te的连线垂直并分别经过这N-1个中间点的面可以将这N-1个点投影到该模型曲线上,那么针对每一条模型曲线可以得到N-1个投影点。在已知N-1个中间点的位姿数据的情况下,由于每一条模型曲线也是已知的,所以可以计算得到N-1个投影点的位姿数据;

(3)在得到N-1个投影点及其位姿数据之后,分别沿与模型曲线的每一个投影点处切平面垂直且经过相应投影点的线将N-1个投影点分别映射到相应的路径曲线上,简单来说也就是将这N-1个投影点沿每一个投影点分别对应的z轴方向移动固定距离h,那么对于每条路径曲线均可以得到N-1个插值点,用K1,K2,......Kn-1表示,在N-1个投影点的位姿数据已知的情况下,可以得到N-1个插值点的位姿数据;

(4)针对一条路径曲线,从第一目标点Ts对应的起点到第二目标点Te对应的终点之间的N-1个插值点,其中,经过N-1个插值点从第一目标点Ts对应的起点到第二目标点Te对应的终点的每相邻两点之间的直线距离分别可以表示d1,d2......dn,条线段,计算公式如下:

式中,di表示插值点Ki-1到插值点Ki的距离;

由此可计算Ts到Te的曲线长度,计算公式如下:

式中,D表示一条路径曲线的曲线长度;

针对每一条路径曲线均计算得到一个曲线长度D,那么多条路径曲线将对应得到多个曲线长度。通过比较得到最短曲线长度并将最短曲线长度对应的路径曲线作为第一目标点Ts与第二目标点Te之间的规划路径。

具体地,在本实施例中,步骤S6所述控制无人清扫车在垃圾清扫路径上运动,是指通过系统指令控制小车底盘,使小车运动。

具体地,在本实施例中,步骤S7所述控制垃圾清扫机构清除地面上的垃圾,是指当小车沿着规划的路径行驶并到达垃圾点位置时,控制小车清扫机构将垃圾清扫完成。

要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物料或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物料或者设备所固有的要素。

尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。

相关技术
  • 一种基于视觉感知的清扫车垃圾清扫方法及系统
  • 一种基于视觉感知的清扫车垃圾清扫方法及系统
技术分类

06120116486224