掌桥专利:专业的专利平台
掌桥专利
首页

一种紧凑空间内基于多传感器融合的拆码垛引导方法

文献发布时间:2024-04-18 20:01:30


一种紧凑空间内基于多传感器融合的拆码垛引导方法

技术领域

本发明涉及多传感器融合领域,具体涉及一种紧凑空间内基于多传感器融合的拆码垛引导方法。

背景技术

紧凑空间内部对料垛进行定位是指在紧凑空间内部对堆放的物料进行准确定位,以便后续进行拆垛或者码垛操作。在物流运输过程中,为了提高装卸效率和减少人工操作的错误率,需要对紧凑空间内部的物料进行定位。这样可以确保在紧凑空间到达目的地后,能够快速、准确地找到需要拆垛或者码垛的物料。

目前紧凑空间内部料垛的定位方法主要使用3D结构光相机和3D TOF相机。这些方法通过多次多角度获取图像,得到空间内部的RGBD图像。然而,这些方法存在一些弊端。首先,3D结构光相机的视野范围较小,不足以覆盖整个紧凑空间内部。为了解决这个问题,通常需要安装2台或更多的相机,并且每个相机需要沿偏航角方向旋转以获取多个角度的图像。这导致相机安装机构的机械结构复杂、体积较大,并且可能与周围设备产生干涉风险。其次,3D TOF相机的视野范围略优于3D结构光相机,但仍无法仅使用一台相机覆盖整个紧凑空间内部,并且TOF相机的定位精度较差。

因此,目前的紧凑空间内部料垛定位方法还无法为紧凑空间内拆码垛提供一种成熟、可靠的自动化解决方法。

发明内容

针对现有技术中存在的上述问题,现提供一种紧凑空间内基于多传感器融合的拆码垛引导方法。

具体技术方案如下:一种紧凑空间内基于多传感器融合的拆码垛引导方法,其中,设置有一复合机器人,所述复合机器人包括AGV小车以及搭载于所述AGV小车上的料垛机器人;

所述AGV小车的前端分别设置有转台以及配备广角镜头的RGB相机,所述转台上固定有激光雷达;

所述料垛定位方法包括:

针对所述转台、所述RGB相机、所述激光雷达及所述料垛机器人分别进行标定处理;

以及

通过所述AGV小车,基于标定处理后的所述转台、所述RGB相机、所述激光雷达及所述料垛机器人对所述料垛进行定位处理,以供所述料垛机器人进行作业。

优选的,标定处理的过程中包括基于所述激光雷达与所述转台的关系,对所述激光雷达进行标定的第一标定过程;

执行所述第一标定过程之前,预先于所述激光雷达的前方扫描范围内设置第一标定板;

则所述第一标定过程包括:

步骤A1:在将所述转台旋转至预设角度的过程中,随机采集多个所述转台的旋转角度并记为第一旋转角度;

以及

分别获取每个所述第一旋转角度下,所述激光雷达扫描所述第一标定板得到的第一雷达数据;

步骤A2:对多个所述第一雷达数据进行预处理,得到多个第一标定板特征;

步骤A3:根据多个所述第一标定板特征,通过帧间匹配法得到所述激光雷达在扫描过程中的多个实际位姿;

步骤A4:根据每个所述实际位姿与对应的所述第一旋转角度建立第一标定模型,并根据所述第一标定模型,对所述激光雷达进行标定处理。

优选的,标定处理的过程中包括基于所述激光雷达与所述RGB相机的关系,对所述RGB相机进行标定的第二标定过程;

执行所述第二标定过程之前,预先于所述RGB相机的视野范围内设置有第二标定板;

则所述第二标定过程包括:

步骤B1:同时控制所述激光雷达及所述转台旋转180度,得到旋转过程中所述激光雷达扫描所述第二标定板的多个激光点云数据并进行融合,得到第二雷达数据;

步骤B2:对所述第二雷达数据进行预处理,得到第二标定板特征;

步骤B3:通过所述RGB相机采集得到所述第二标定板的第一图像,并根据所述第一图像提取得到第三标定板特征;

步骤B4:移动所述第二标定板,并返回所述步骤B1,循环执行多次步骤B1-B4后得到多个所述第二标定板特征以及多个所述第三标定板特征,将单个所述第二标定板特征和对应的所述第三标定板特征作为一组第一类标定板特征;

步骤B5:根据多组所述第一类标定板特征以及对应的所述第一图像,建立第二标定模型,并根据所述第二标定模型计算得到所述激光雷达与所述RGB相机的第一位置关系矩阵;

步骤B6:根据所述第一位置关系矩阵,对所述RGB相机进行标定处理。

优选的,标定处理的过程中包括基于所述料垛机器人与所述激光雷达的关系,对所述激光雷达进行标定的第三标定过程;

执行所述第三标定过程之前,预先于所述料垛机器人的机械臂末端安装第三标定板,并将所述料垛机器人移动至第一预设标定位;

则所述第三标定过程包括:

步骤C1:同时控制所述激光雷达及所述转台旋转180度,得到旋转过程中所述激光雷达扫描所述第三标定板的多个激光点云数据并进行融合,得到第三雷达数据;

步骤C2:对所述第三雷达数据进行预处理,得到第四标定板特征;

步骤C3:多次改变所述料垛机器人的位姿,并循环执行步骤C1-C3后,得到多个所述第四标定板特征;

步骤C4:根据多个所述第四标定板特征及对应于所述第四标定板特征的所述料垛机器人的位置姿态构建第三标定模型;

步骤C5:根据所述第三标定模型计算得到所述激光雷达与所述料垛机器人的第二位置关系矩阵;

步骤C6:根据所述第二位置关系矩阵,对所述激光雷达进行标定处理。

优选的,标定处理的过程中包括基于所述料垛机器人与所述RGB相机的关系,对所述RGB相机进行标定的第四标定过程;

执行所述第四标定过程之前,预先将持有所述第二标定板的所述料垛机器人移动至第二预设标定位;

则所述第四标定包括:

步骤D1:通过所述RGB相机采集所述第二标定板的第二图像,并根据所述第二图像提取得到所述第二标定板的第五标定板特征;

步骤D2:多次改变所述料垛机器人的位置姿态,并返回所述步骤D1,循环执行步骤D1后,得到多个所述第五标定板特征;

步骤D3:根据多个所述第五标定板特征及对应于所述第五标定板特征的所述料垛机器人的位置姿态构建第四标定模型;

步骤D4:根据所述第四标定模型计算得到所述RGB相机与所述料垛机器人的位置关系矩阵,为第三位置关系矩阵;

步骤D5:根据所述第二位置关系矩阵,基于所述料垛机器人相对于所述RGB相机的关系,对所述RGB相机进行标定处理。

优选的,通过AGV小车基于标定处理后的所述转台、所述RGB相机、所述激光雷达及所述复合机器对所述料垛进行定位处理的方法包括:

步骤S1:当所述AGV小车位于存放料垛的紧凑空间的外部时,控制所述AGV小车面向所述紧凑空间的内部,采用预先标定好的所述激光雷达获取所述紧凑空间的第一激光点云数据;

步骤S2:根据所述第一激光点云数据处理得到紧凑空间信息;

步骤S3:根据所述紧凑空间信息及所述复合机器人的作业空间计算得到所述AGV小车的工作位置;

步骤S4:根据所述工作位置及所述AGV小车进入所述紧凑空间后再次扫描得到的第二激光点云数据,计算得到所述AGV小车的行进轨迹,并根据所述行进轨迹控制所述AGV小车到达所述工作位置;

步骤S5:当所述AGV小车到达所述工作位置后,通过标定好的所述激光雷达对所述紧凑空间的内部进行角点检测,并得到角点信息;

步骤S6:通过标定好的所述RGB相机获取料垛的图像信息,并根据所述第二激光点云数据得到实际信息;

步骤S7:根据所述角点信息及所述实际信息,通过标定好的所述料垛机器人对所述料垛进行作业。

优选的,所述激光点云数据包括所述紧凑空间的前部、顶部、底部、左右侧面、内侧立柱、顶部横梁及底面的障碍物;

所述紧凑空间信息包括深度信息及宽度信息;

则所述步骤S2中,通过所述前部及所述内侧立柱得到紧凑空间的所述深度信息;

通过所述左右侧面的凸起位置得到紧凑空间的所述宽度信息。

优选的,所述步骤S4包括:

步骤S41:当所述AGV小车进入所述紧凑空间的内部后,控制所述激光雷达对所述紧凑空间的内部进行扫描,得到所述第二激光点云数据;

步骤S42:根据所述第二激光点云数据及所述工作位置,处理得到所述AGV小车的所述行进轨迹;

步骤S43:根据所述第二激光点云数据及所述紧凑空间信息,进行实时碰撞检测,根据实时碰撞检测结果实时修正AGV小车的所述行进轨迹;

步骤S44:根据实时修正后的所述行进轨迹,实时修正所述AGV小车的移动速度,以控制所述AGV小车到达并固定于所述工作位置。

优选的,所述步骤S5包括:

步骤S51:当所述AGV小车到达所述工作位置后,控制所述转台进行旋转,同时控制所述激光雷达进行扫描,以获取所述紧凑空间的内部完整点云数据;

步骤S52:根据所述料垛机器人的作业范围,于所述内部完整点云数据中截取大于所述作业范围的点云数据;

步骤S53:对截取得到的所述点云数据进行拟合,得到拟合点云数据;

步骤S54:根据所述拟合点云数据及所述紧凑空间信息计算得到所述角点信息。

优选的,所述步骤S6包括:

步骤S61:通过标定好的所述RGB相机获取所述料垛的图像信息;

步骤S62:基于预先设置的分割掩模算法,根据所述图像信息对所述料垛进行识别分割,并得到识别信息;

步骤S63:根据所述识别信息及所述激光点云数据得到所述实际信息。

上述技术方案具有如下优点或有益效果:本发明结合激光雷达及RGB相机,融合生成紧凑空间内部的料垛的图像信息并引导AGV移动至紧凑空间中指定的工作位置,识别紧凑空间内部的角点信息,引导机器人进行作业。

附图说明

参考所附附图,以更加充分的描述本发明的实施例。然而,所附附图仅用于说明和阐述,并不构成对本发明范围的限制。

图1为本发明的较佳实施例中,一种紧凑空间内基于多传感器融合的拆码垛引导方法中AGV小车、料垛机器人、转台、RGB相机以及激光雷达的相对位置关系图;

图2为本发明的较佳实施例中,一种紧凑空间内基于多传感器融合的拆码垛引导方法中对激光雷达进行标定的第一标定过程的流程示意图;

图3为本发明的较佳实施例中,一种紧凑空间内基于多传感器融合的拆码垛引导方法中对RGB相机进行标定的第二标定过程的流程示意图;

图4为本发明的较佳实施例中,一种紧凑空间内基于多传感器融合的拆码垛引导方法中对料垛机器人的位姿进行标定的第三标定过程的流程示意图。

图5为本发明的较佳实施例中,一种紧凑空间内基于多传感器融合的拆码垛引导方法中对料垛机器人的位姿进行标定的第四标定过程的流程示意图。

图6为本发明的较佳实施例中,一种紧凑空间内基于多传感器融合的拆码垛引导方法中对料垛进行定位处理的流程示意图;

图7为本发明的较佳实施例中,对料垛进行定位处理过程中步骤S4的流程示意图;

图8为本发明的较佳实施例中,对料垛进行定位处理过程中步骤S5的流程示意图;

图9为本发明的较佳实施例中,对料垛进行定位处理过程中步骤S6的流程示意图。

具体实施方式

下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。

需要说明的是,在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。

下面结合附图和具体实施例对本发明作进一步说明,但不作为本发明的限定。

在本发明的较佳实施例中,提供了一种紧凑空间内基于多传感器融合的拆码垛引导方法,如图1所示,其中,设置有一复合机器人,复合机器人包括AGV小车1以及搭载于AGV小车1上的料垛机器人2;

AGV小车1的前端分别设置有转台3以及配备广角镜头的RGB相机4,转台3上固定有激光雷达5;

料垛定位方法包括:

针对转台3、RGB相机4、激光雷达5及料垛机器人2分别进行标定处理;以及

通过AGV小车1,基于标定处理后的转台3、RGB相机4、激光雷达5及料垛机器人2对料垛进行定位处理,以供料垛机器人2进行作业。

具体地,在上述实施例中,复合机器人包括AGV小车1以及搭载于AGV小车1上的料垛机器人2;AGV小车1的前端配备了转台3、广角镜头的RGB相机4和固定的激光雷达5。

标定处理指通过一系列的校准步骤,确定转台3、激光雷达5、RGB相机4和料垛机器人2的相对位置关系。一次标定处理可以确定两个装置的相对位置关系。通过标定处理,可以获得在料垛机器人的坐标系下,得到RGB相机和激光雷达的准确测量结果。

在标定处理完成后,AGV小车1可以利用转台3和激光雷达5对料垛进行定位处理,这些信息可以控制AGV小车1行驶到准确位置。通过RGB相机4和激光雷达5的数据,可以获取料垛中每个料的准确位置和形状信息。这些信息可以传递给料垛机器人2,以便它能够准确地执行作业任务,如搬运、堆叠等。

在本发明的较佳实施例中,标定处理的过程中包括基于激光雷达5与转台3的关系,对激光雷达5进行标定的第一标定过程;

执行第一标定过程之前,预先于激光雷达5的前方扫描范围内设置第一标定板;

如图2所示,则所述第一标定过程包括:

步骤A1:在将转台3旋转至预设角度的过程中,随机采集多个转台3的旋转角度并记为第一旋转角度;

以及

分别获取每个第一旋转角度下,激光雷达5扫描第一标定板得到的第一雷达数据;

步骤A2:对多个第一雷达数据进行预处理,得到多个第一标定板特征;

步骤A3:根据多个第一标定板特征,通过帧间匹配法得到激光雷达5在扫描过程中的多个实际位姿;

步骤A4:根据每个实际位姿与对应的第一旋转角度建立第一标定模型,并根据第一标定模型,对激光雷达5进行标定处理。

具体地,在上述实施例中,为了提供一个已知的参考物体,用于后续的标定处理,在执行第一标定过程之前,预先在激光雷达5的前方扫描范围内设置第一标定板。

控制转台3旋转至多个预设的旋转角度,在每个角度均控制激光雷达5扫描获得一份雷达数据。预设的旋转角度越多,可以获得更全面的数据,提高标定的准确性。

通过对多个雷达数据进行预处理,预处理包括:包括去除噪声、滤波、去除离群点等,通过对雷达数据进行预处理可以提取出第一标定板的特征,如角点、边缘等。

通过帧间匹配法,可以将不同帧之间的雷达数据进行匹配,从而得到激光雷达5在扫描过程中的实际位姿,即激光雷达5相对于第一标定板的位置和姿态。

通过建立第一标定模型,可以将激光雷达5实际位姿与转台3的旋转角度进行关联,从而得到激光雷达5的标定参数,如旋转中心、扫描角度等,以实现对激光雷达5的准确标定。

在本发明的较佳实施例中,标定处理的过程中包括基于激光雷达5与RGB相机4的关系,对RGB相机4进行标定的第二标定过程;

执行第二标定过程之前,预先于RGB相机4的视野范围内设置有第二标定板;

如图2所示,则第二标定过程包括:

步骤B1:同时控制所述激光雷达5及所述转台3旋转180度,得到旋转过程中所述激光雷达5扫描所述第二标定板的多个激光点云数据并进行融合,得到第二雷达数据;

步骤B2:对所述第二雷达数据进行预处理,得到第二标定板特征;

步骤B3:通过所述RGB相机4采集得到所述第二标定板的第一图像,并根据所述第一图像提取得到第三标定板特征;

步骤B4:移动所述第二标定板,并返回所述步骤B1,循环执行多次步骤B1-B4后得到多个所述第二标定板特征以及多个所述第三标定板特征,将单个所述第二标定板特征和对应的所述第三标定板特征作为一组第一类标定板特征;

步骤B5:根据多组所述第一类标定板特征以及对应的所述第一图像,建立第二标定模型,并根据所述第二标定模型计算得到所述激光雷达5与所述RGB相机4的第一位置关系矩阵;

步骤B6:根据所述第一位置关系矩阵,对所述RGB相机4进行标定处理。

具体地,在上述实施例中,通过激光雷达5与RGB相机4之间的位置关系,可以使得激光雷达5和RGB相机4之间的数据能够准确对应。

在进行第二标定过程时,需要在RGB相机4的视野范围内放置一个第二标定板,以便通过第二标定板来对RGB相机4进行标定。

通过多次旋转激光雷达5和采集图像,获取多组第二标定板特征和对应的第三标定板特征,以建立第二标定模型。

根据多组第一类标定板特征和对应的第一图像,建立第二标定模型,并根据该模型计算得到激光雷达5与RGB相机4的第一位置关系矩阵,可以建立激光雷达5和RGB相机4之间的准确位置关系,从而实现它们之间的配准。

通过第一位置关系矩阵,可以使得激光雷达5和RGB相机4之间的数据能够准确对应,并且可以根据该标定结果进行后续的测量和分析。

进一步的,在上述实施例中,动态激光雷达5采集点云有两种方式,一种为转台3连续旋转,旋转过程中激光雷达5持续采集点云,直到转台3旋转180°;

另一种为转台3非连续旋转,例如每旋转10°停止一次,激光雷达5采集一帧点云,直到转台3旋转180°。转台3连续旋转采集点云节拍更快,采集的点云更稠密,但需要考虑旋转中激光雷达5采集数据的运动补偿。

则多个激光点云数据并进行融合的过程如下:

首先,进行数据采集时,同时采集转台3的旋转角度和激光雷达5数据。

对于转台3非连续旋转的情况,每帧激光雷达5数据对应的旋转角度为采集数据时转台3固定旋转角度;

对于转台3连续旋转的情况,按照时间戳匹配每帧激光雷达5数据以及对应时间的转台3旋转角度。

然后,根据每帧激光雷达5数据对应的旋转角度,进行初始对齐,对点云数据进行旋转变换。

接下来,进行迭代优化,计算两帧激光雷达5数据旋转变换后对应特征点之间的距离误差,并通过最小化误差来优化两帧数据之间的姿态变换矩阵。

在迭代过程中,监测误差变化情况,当误差降低到一个可接受的阈值以下时,判定收敛,停止迭代,并记录姿态变换矩阵。

完成迭代优化后,选定基准坐标系(例如转台3旋转角度为0°的位置),计算每帧激光雷达5数据相对基准坐标系的姿态变换矩阵,将数据转换到同一基准坐标系进行点云拼接融合。

最后,对拼接后的点云数据进行数据后处理,包括去除噪声、选定有效区域、滤波、降采样等方式来优化数据。

在本发明中对于多个激光点云数据并进行融合的过程都为上述过程,因此在后续内容中就不过多赘述。

在本发明的较佳实施例中,标定处理的过程中包括基于料垛机器人2与激光雷达5的关系,对激光雷达5进行标定的第三标定过程;

执行第三标定过程之前,预先于料垛机器人2的机械臂末端安装第三标定板,并将料垛机器人2移动至第一预设标定位;

如图3所示,则第三标定过程包括:

步骤C1:同时控制激光雷达5及转台3旋转180度,得到旋转过程中激光雷达5扫描第三标定板的多个激光点云数据并进行融合,得到第三雷达数据;

步骤C2:对第三雷达数据进行预处理,得到第四标定板特征;

步骤C3:多次改变料垛机器人2的位姿,并循环执行步骤C1-C3后,得到多个第四标定板特征;

步骤C4:根据多个第四标定板特征及对应于第四标定板特征的料垛机器人2的位置姿态构建第三标定模型;

步骤C5:根据第三标定模型计算得到激光雷达5与料垛机器人2的第二位置关系矩阵;

步骤C6:根据第二位置关系矩阵,对激光雷达5进行标定处理。

具体地,在上述实施例中,在第三标定过程之前,需要预先安装第三标定板,并将料垛机器人2移动到第一预设标定位,以确保标定的准确性;

标定过程为同时控制激光雷达5及转台3旋转180度,得到旋转过程中激光雷达5扫描第三标定板的多个激光点云数据并进行融合,得到第三雷达数据;

对第三雷达数据进行预处理,得到第四标定板特征;

以及多次改变料垛机器人2的位姿,通过多次执行步骤C1-C3,可以得到多个第四标定板特征,这些第四标定板特征与料垛机器人2的位置姿态相关。

根据多个第四标定板特征及其对应的机器人位置姿态,可以构建第三标定模型,用于计算激光雷达5与料垛机器人2的第二位置关系矩阵。

在本发明的较佳实施例中,标定处理的过程中包括基于料垛机器人2与RGB相机4的关系,对RGB相机4进行标定的第四标定过程;

执行第四标定过程之前,预先将持有第二标定板的料垛机器人2移动至第二预设标定位;

如图4所示,则第四标定包括:

步骤D1:通过RGB相机4采集第二标定板的第二图像,并根据第二图像提取得到第二标定板的第五标定板特征;

步骤D2:多次改变料垛机器人2的位置姿态,并返回步骤D1,循环执行步骤D1后,得到多个第五标定板特征;

步骤D3:根据多个第五标定板特征及对应于第五标定板特征的料垛机器人2的位置姿态构建第四标定模型;

步骤D4:根据第四标定模型计算得到RGB相机4与料垛机器人2的位置关系矩阵,为第三位置关系矩阵;

步骤D5:根据第二位置关系矩阵,基于料垛机器人2相对于RGB相机4的关系,对RGB相机4进行标定处理。

具体地,在上述实施例中,通过对料垛机器人2和RGB相机4之间的关系进行标定,可以将RGB相机4得到图像信息转换至料垛机器人2的坐标系下

进一步的,第四标定过程包括:使用RGB相机4拍摄第二标定板的图像,并从图像中提取出第五标定板的特征;多次改变料垛机器人2的位置和姿态,并重复执行步骤D1,以获取多个第五标定板的特征;使用多个第五标定板的特征和相应的料垛机器人2的位置和姿态,构建第四标定模型;使用第四标定模型计算得到RGB相机4和料垛机器人2之间的位置关系矩阵,作为第三位置关系矩阵;根据第二位置关系矩阵,基于料垛机器人2相对于RGB相机4的关系,对RGB相机4进行标定处理。

在本发明的较佳实施例中,通过AGV小车1基于标定处理后的转台3、RGB相机4、激光雷达5及复合机器对料垛进行定位处理的方法如图5所示,包括:

步骤S1:当AGV小车1位于存放料垛的紧凑空间的外部时,控制AGV小车1面向紧凑空间的内部,采用预先标定好的激光雷达5获取紧凑空间的第一激光点云数据;

步骤S2:根据第一激光点云数据处理得到紧凑空间信息;

步骤S3:根据紧凑空间信息及复合机器人的作业空间计算得到AGV小车1的工作位置;

步骤S4:根据工作位置及AGV小车1进入紧凑空间后再次扫描得到的第二激光点云数据,计算得到AGV小车1的行进轨迹,并根据行进轨迹控制AGV小车1到达工作位置;

步骤S5:当AGV小车1到达工作位置后,通过标定好的激光雷达5对紧凑空间的内部进行角点检测,并得到角点信息;

步骤S6:通过标定好的RGB相机4获取料垛的图像信息,并根据第二激光点云数据得到实际信息;

步骤S7:根据角点信息及实际信息,通过标定好的料垛机器人2对料垛进行作业。

具体地,在上述实施例中,通过转台3、激光雷达5和安装有广角镜头的RGB相机4的组合使用,实现对紧凑空间内部的料垛进行准确定位和作业。

使用预先标定好的激光雷达5获取紧凑空间的激光点云数据,对数据进行预处理和特征提取得到紧凑空间信息,根据紧凑空间信息和AGV的作业空间计算得到AGV的工作位置,根据工作位置和激光点云数据计算得到AGV的行进轨迹并控制AGV到达工作位置,使用标定好的激光雷达5对紧凑空间内部进行角点检测并获取角点信息,使用标定好的RGB相机4获取料垛的图像信息并结合激光点云信息得到实际信息,最后使用标定好的复合机器人对料垛进行作业。

通过多传感器的组合使用和精确的标定,可以实现对料垛的准确定位和作业,提高了工作效率和精度。

进一步的,本发明中的紧凑空间如车厢

在本发明的较佳实施例中,紧凑空间信息包括深度信息及宽度信息。

具体地,在上述实施例中,本发明中的紧凑空间如车厢、集装箱等,通过紧凑空间的前部和内侧的支撑柱得到紧凑空间的深度信息;由左右两侧的凸起位置得到紧凑空间的宽度信息,

紧凑空间信息的提取过程如下:启动激光雷达5与转台3,转台3旋转180°,依据拼接融合得到的不同旋转角度的点云的方法获得紧凑空间内的激光点云数据,进行激光点云数据预处理及特征提取;通过紧凑空间前部及后部门口立柱位置,获得紧凑空间深度信息,通过紧凑空间左右侧面波纹板凸起位置,获得宽度信息。

对激光点云数据进行预处理的过程如下:根据紧凑空间停放的最大有效距离以及紧凑空间尺寸,确定紧凑空间内点云的有效范围,滤除紧凑空间外噪声点,获得紧凑空间内的第一激光点云数据。

进一步的,对于紧凑空间的模拟过程如下:根据紧凑空间内第一激光点云数据对紧凑空间进行平面拟合,在所有有效平面中基于法向筛选属于紧凑空间顶部/底部的平面,分别进行聚类,确定紧凑空间顶部/底部平面方程。

对紧凑空间内点云I进行平面滤波,获得紧凑空间顶部与底部平面之间的激光点云数据,为第二激光点云数据;以AGV行进方向固定约束角θ,对第二激光点云数据进行滤波,该约束范围内的激光点云数据为第三激光点云数据,属于紧凑空间的前部平面,并依据第三激光点云数据拟合前部平面方程,筛选第三激光点云数据中所有到该平面距离小于波纹板厚度的点,再次拟合前部平面方程,并对第二激光点云数据再次平面滤波,获得平面外的第四激光点云数据。

对第四激光点云数据进行平面拟合,筛选其中平行的两个平面,确定左侧/右侧平面方程,5.紧凑空间左侧/右侧为波纹板,其厚度约20cm,以紧凑空间内的波纹板凸起点为基准,计算紧凑空间宽度。

识别紧凑空间前部及后部车门处立柱,以紧凑空间前部立柱后端面和后部立柱前端面为基准,计算紧凑空间长度。

在本发明的较佳实施例中,如图6所示,步骤S4包括:

步骤S41:当AGV小车1进入紧凑空间的内部后,控制激光雷达5对紧凑空间的内部进行扫描,得到第二激光点云数据;

步骤S42:根据第二激光点云数据及工作位置,处理得到AGV小车1的行进轨迹;

步骤S43:根据第二激光点云数据及紧凑空间信息,进行实时碰撞检测,根据实时碰撞检测结果实时修正AGV小车1的行进轨迹;

步骤S44:根据实时修正后的行进轨迹,实时修正AGV小车1的移动速度,以控制AGV小车1到达并固定于工作位置。

具体地,在上述实施例中,激光雷达5采集点云有两种方式,一种为转台3连续旋转,旋转过程中激光雷达5持续采集点云,直到转台3旋转180°;

另一种为转台3非连续旋转,例如每旋转10°停止一次,激光雷达5采集一帧点云,直到转台3旋转180°。

转台3连续旋转采集点云节拍更快,采集的点云更稠密,但需要考虑旋转中激光雷达5采集数据的运动补偿。

进一步的,需要根据转台3的旋转角度拼接融合不同旋转角度的点云:首先,同时采集转台3的旋转角度以及对应于旋转角度的激光雷达5所采集到的激光点云数据;

对于转台3非连续旋转的情况,每帧激光雷达5所采集到的激光点云数据对应的旋转角度为采集数据时转台3固定旋转角度;

对于转台3连续旋转的情况,按照时间戳匹配每帧激光雷达5所采集到的激光点云数据以及对应时间的转台3旋转角度;

并按照每帧激光雷达5所采集到的激光点云数据对应的旋转角度,对激光点云数据进行旋转变换;

两帧激光雷达5所采集到的激光点云数据旋转变换后,计算对应特征点之间的距离误差,通过最小化误差,优化两帧数据之间的姿态变换矩阵;

选定基准坐标系,计算每帧激光雷达5数据相对基准坐标系的姿态变换矩阵,将数据转换到同一基准坐标系进行点云拼接融合。

在本实施例中基准坐标设置为转台3旋转角度为0°的位置;拼接后激光点云数据量较大,采用去除噪声、选定有效区域、滤波、降采样等方式优化数据。

在本发明的较佳实施例中,如图7所示,步骤S5包括:

步骤S51:当AGV小车1到达工作位置后,控制转台3进行旋转,同时控制激光雷达5进行扫描,以获取紧凑空间的内部完整点云数据;

步骤S52:根据料垛机器人2的作业范围,于内部完整点云数据中截取大于作业范围的点云数据;

步骤S53:对截取得到的点云数据进行拟合,得到拟合点云数据;

步骤S54:根据拟合点云数据及紧凑空间信息计算得到角点信息。

具体地,在上述实施例中,AGV停放到目标工作位置后,启动激光雷达5开始扫描,转台3旋转180°,获取紧凑空间内部完整的点云数据,并根据复合机器人当前所在的位置及其工作范围,在完整激光点云数据中截取略大于机器人工作区域的部分用于计算;

使用blob工具将整体点云分割成若干个点云团,并去除点云个数过少的点云团,随后使用平面拟合工具尝试对所有剩余的点云团进行拟合;

拟合完成后,根据所得到的平面位姿、平整度、面积等信息,判断其是否为紧凑空间侧壁、底面、料垛表面,并计算三个平面的交点求出所需要的角点信息。

在本发明的较佳实施例中,如图8所示,步骤S6包括:

步骤S61:通过标定好的RGB相机4获取料垛的图像信息;

步骤S62:基于预先设置的分割掩模算法,根据图像信息对料垛进行识别分割,并得到识别信息;

步骤S63:根据识别信息及激光点云数据得到实际信息。

具体地,在上述实施例中,复合机器人每次完成一个货料的码放动作后,使用RGB相机4及激光雷达5获取工作区域的RGBD图像,基于分割掩模算法分割识别所放货料,并输出其位置信息与理论垛型数据进行比对,确认码放效果。

综上所述,本发明技术方案中,设置有一个复合机器人,复合机器人包括AGV小车1以及搭载在AGV小车1上的料垛机器人,AGV小车1的前部分别设置有一个激光雷达5以及一个RGB相机4,激光雷达5通过转台3设置于AGV小车1上,AGV小车1的后部还设置有一个料垛机器人2,对于设置好的复合机器人,分别执行以下几个部件的标定操作:

针对转台3与激光雷达5的相对位置关系,对激光雷达5进行标定;

针对激光雷达5与RGB相机4的相对位置关系,对RGB相机4进行标定;

针对激光雷达5与料垛机器人2的相对位置关系,对激光雷达5进行标定;

针对RGB相机4与料垛机器人2的相对位置关系,对RGB相机4进行标定;

随后,采用标定好的复合机器人,通过下述主要步骤实现复合机器人在存放料垛的紧凑空间内进行作业。

首先,当复合机器人未进入紧凑空间内时,利用激光雷达5获取紧凑空间的内部点云,根据内部点云得到紧凑空间的内部信息,进一步地处理得到AGV小车1的移动轨迹

随后,根据移动轨迹控制AGV小车1行驶到指定位置后,再次使用激光雷达5对紧凑空间内部进行扫描,得到紧凑空间的角点信息。

接着,料垛机器人2根据角点信息进行作业。

最后,料垛机器人2根据RGB相机得到的图像和激光雷达采集的点云数据判断作业结果。

在没有人工干预的情况下,料垛信息默认为已知的,机器人根据角点信息即可进行作业。使用RGB相机及激光雷达可对料垛中的料进行识别与定位,用于与理论的料垛信息进行对比。

上述技术方案相对于现有技术而言,通过采用了独特的激光雷达5动态旋转扫描设计获取紧凑空间内部点云,并搭配RGB相机4,融合生成紧凑空间内部的RGBD图像的技术手段,能够根据存放料垛的紧凑空间的内部情况引导AGV小车1搭载料垛机器人2移动到指定的工作位置,在根据激光雷达5识别的紧凑空间的角点信息引导料垛机器人2进行码垛作业或拆垛作业。

以上所述仅为本发明较佳的实施例,并非因此限制本发明的实施方式及保护范围,对于本领域技术人员而言,应当能够意识到凡运用本发明说明书及图示内容所作出的等同替换和显而易见的变化所得到的方案,均应当包含在本发明的保护范围内。

相关技术
  • 基于自注意力全局特征增强的城市街道点云语义分割方法
  • 基于多视角图结构特征注意力卷积的点云语义分割方法
技术分类

06120116558540