掌桥专利:专业的专利平台
掌桥专利
首页

基于单目和结构光传感器融合的视觉引导抓件方法及系统

文献发布时间:2024-04-18 20:01:23


基于单目和结构光传感器融合的视觉引导抓件方法及系统

技术领域

本发明涉及位姿估计技术领域,尤其涉及基于单目和结构光传感器融合的视觉引导抓件方法及系统。

背景技术

随着工业自动化的发展,机器人技术在制造业中的应用越来越广泛。为了提高生产效率和准确性,机器人需要能够准确地识别和操作各种物体。这就需要机器人具有高度的感知能力,能够准确地估计物体的位置和姿态。为此,多传感器融合技术应运而生,它结合了多种传感器的数据,提供了更为准确和鲁棒的物体位姿估计。

传统的机器人位姿估计方法主要依赖于单一的传感器,如摄像头或激光雷达。这些方法虽然在某些应用中表现良好,但在复杂的环境中,如光线变化、物体遮挡或反射等情况下,其性能可能会受到影响。为了解决这些问题,研究者开始探索如何结合多种传感器的数据,以提高位姿估计的准确性和鲁棒性。

其中,结构光传感器和单目摄像头是两种常用的传感器。结构光传感器通过发射特定的光线模式并捕捉其在物体上的反射,能够获取物体的三维形状信息。而单目摄像头则通过捕捉二维图像,提供物体的颜色和纹理信息。通过将这两种传感器的数据进行融合,可以获得物体的完整的三维信息,从而更为准确地估计其位姿。

然而,多传感器融合技术仍然面临一些挑战。例如,如何准确地标定多个传感器之间的相对位置和姿态,以及如何有效地融合来自不同传感器的数据。此外,由于每种传感器都有其特定的工作范围和精度,如何根据不同的应用需求选择合适的传感器组合,也是一个需要解决的问题。

为了克服上述挑战,本发明提出了基于单目和结构光传感器融合的视觉引导抓件方法。该方法结合了单目摄像头和结构光传感器的数据,能够准确地估计物体的位置和姿态。此外,该方法还提供了一种有效的传感器标定方法,确保了数据融合的准确性。

发明内容

本部分的目的在于概述本发明的实施例的一些方面以及简要介绍一些较佳实施例。在本部分以及本申请的说明书摘要和发明名称中可能会做些简化或省略以避免使本部分、说明书摘要和发明名称的目的模糊,而这种简化或省略不能用于限制本发明的范围。

鉴于上述现有存在的问题,提出了本发明。

因此,本发明提供了基于单目和结构光传感器融合的视觉引导抓件方法,能够解决传统的仅对待抓取零件本身进行拍照,无法获取其包装料架的偏差情况,机器人按照示教的固定轨迹进出料架,容易出现抓手或零件与料架碰撞的风险。无法获取零件与料架的相对位置关系,当零件在料架内出现较大的偏差时,机器人仍按照零件位姿的偏差修正轨迹去抓取,出现抓手与料架碰撞的风险料架本身的偏差值无直接有效的测量方法,靠生产出现问题后再进行处理,效率低下且易由小问题升级为抓手与料架碰撞变形的大故障。

为解决上述技术问题,本发明提供如下技术方案,基于单目和结构光传感器融合的视觉引导抓件方法,包括:机器人智能抓取系统对不同坐标系进行标定,确定不同坐标系之间的变换关系;通过确定不同坐标系之间的变换关系对机器人智能抓取系统进行视觉引导,根据料架立柱的偏差值引导机器人抓手进入料框到达结构光传感器拍照点后,结构光传感器对待抓取零件进行拍照,计算出待抓取零件位姿的偏差值,机器人继续按照料架的偏差值修正轨迹运动到抓取点上方预定高度后机器人按照结构光传感器计算的零件位姿偏差再次调整轨迹抓件,抓取零件后按照料架的偏差值修正轨迹出框;在料架的支撑立柱顶端粘贴单目传感器识别Mark点,用于单目传感器识别计算料架立柱的位姿信息;单目传感器拍照料架框时,计算料架的立柱间距及位置度,进行超差检查。

作为本发明所述的基于单目和结构光传感器融合的视觉引导抓件方法的一种优选方案,其中:所述对不同坐标系进行标定包括,3D相机坐标系、单目相机、法兰坐标系、机械臂坐标系。

作为本发明所述的基于单目和结构光传感器融合的视觉引导抓件方法的一种优选方案,其中:所述视觉引导包括示教阶段及引导阶段;

所述示教阶段包括,料框推入上料区的工位,机器人触发视觉拍照料框,视觉给出机器人料框的中心位姿,机器人示教一个进框位姿,获取法兰抓取位姿,机器人法兰和视觉的相对法兰变换。

作为本发明所述的基于单目和结构光传感器融合的视觉引导抓件方法的一种优选方案,其中:所述引导阶段包括,物料上料到工装位置,机器人触发2D视觉拍照料框,视觉给出料框位姿中心位姿,计算机器人进框位姿,

P

其中,为示教料框位姿到示教进框位姿的变换,P

根据机器人进框位姿,在料架上方调整进框的位姿,机器人移动至物料上方点,

ΔP=(x

其中,x

机器人根据调整好的位姿进入料框3D拍照位置,机器人触发2D/3D视觉拍照,根据获取抓取物料位姿,

P

其中,x

计算偏量差,

ΔP=inv(P

其中,P

机器人智能抓手移动到料框抓件上方,

P

其中,M为,机器人移动到抓件位置,

P

机器人移动到,

P

机器人调整位姿相应出框。

作为本发明所述的基于单目和结构光传感器融合的视觉引导抓件方法的一种优选方案,其中:所述识别Mark点包括,当检测图像的marker点坐标序列为,

S

其中,第i∈{0,1,2,3}个图像坐标点表示为

机器人标定TCP针尖,搓点marker的中心点,获得marker点的机器人基坐标系下的坐标,当与图像对应的坐标序列为,

S

其中,p

通过S

其中矩阵行列数为3×4;

对于图像检测得到的任意一个marker标记中心点p

P

通过四个坐标点S

其中位置为

针对不同的机器人欧拉系统,通过罗德里格斯公式,将姿态矩阵

在示教阶段,测量模板料框的位姿记为P

作为本发明所述的基于单目和结构光传感器融合的视觉引导抓件方法的一种优选方案,其中:所述零件位姿偏差包括,当3D相机选择了J个特征点,通过图像与点云特征,计算出零件特征对应的3D坐标点,记为QS=[Q

当2D相机选择了K个特征点,对应与数模下的坐标点序列,表示为

融合

T

给定一个夹具,其坐标系记为O

T

根据机器人类型RobotType,将变换矩阵转换为位置/欧拉角,

P

作为本发明所述的基于单目和结构光传感器融合的视觉引导抓件方法的一种优选方案,其中:所述超差检查包括,计算出料架的立柱间距及位置度,单个立柱的超差警告阈值设置为10-50mm,立柱间距的变化范围设置为10-100mm,超差时系统报警,人工介入对料架进行处理。

本发明的另外一个目的是提供基于单目和结构光传感器融合的视觉引导抓件方法的系统通过结合单目摄像头和结构光传感器的数据,实现了高精度的位姿估计,确保了不同传感器间的准确数据融合,并提供了实时的操作轨迹调整方法。不仅简化了系统设置,提高了操作准确性,还增强了系统的适应性和鲁棒性,为工业自动化领域带来了显著的技术进步。

作为本发明所述的一种基于多传感器融合的位姿估计系统的一种优选方案,其中:包括,传感器标定与位姿估计模块、图像处理与特征提取模块、零件位姿计算模块、料架检测与报警模块;

所述传感器标定与位姿估计模块,识别料架立柱顶端的Mark点,计算料架立柱的位姿信息;

所述图像处理与特征提取模块,使用高斯滤波器模糊图像,使用Sobel算子进行边缘检测,使用Hough变换检测图像中的形状,实现模板匹配;

所述零件位姿计算模块,计算待抓取零件的位姿偏差值,使用点云处理技术提取零件的实际位姿;

所述料架检测与报警模块,计算料架的立柱间距,判断变形是否超出容许范围,发出报警信号。

一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现基于单目和结构光传感器融合的视觉引导抓件方法中任一项所述的方法的步骤。

一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现基于单目和结构光传感器融合的视觉引导抓件方法中任一项所述的方法的步骤。

本发明的有益效果:本发明方法基于结构光传感器精度高、视野相对较小,当识别外形尺寸较大的零件时,只能拍摄到零件的局部特征,对远端的位姿误差会放大;结合单目传感器视野大的优势,使用短焦镜头,可获取更大的视野,结合高分辨率的传感器,可以容易估计出零件的位姿。基于此融合了单目传感器和结构光传感器特征信息可准确的计算出零件的位姿信息,提高抓取的准确率和成功率。

附图说明

为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。其中:

图1为本发明一个实施例提供的基于单目和结构光传感器融合的视觉引导抓件方法流程示意图。

图2为本发明一个实施例提供的基于单目和结构光传感器融合的视觉引导抓件方法的坐标转换示意图。

图3为本发明一个实施例提供的基于单目和结构光传感器融合的视觉引导抓件方法的夹具引导流程示意图。

图4为本发明一个实施例提供的基于单目和结构光传感器融合的视觉引导抓件方法的Marker点示意图。

图5为本发明一个实施例提供的基于单目和结构光传感器融合的视觉引导抓件方法的2D/3D识别区域示意图。

图6为本发明一个实施例提供的基于单目和结构光传感器融合的视觉引导抓件方法的相机安装和测试环境示意图。

图7为本发明一个实施例提供的基于单目和结构光传感器融合的视觉引导抓件方法的2D拍照区域和3D拍照区域示意图。

图8为本发明一个实施例提供的基于单目和结构光传感器融合的视觉引导抓件方法的标识点检测说明示意图。

图9为本发明一个实施例提供的基于单目和结构光传感器融合的视觉引导抓件方法的图像和点云特征融合的示意图。

图10为本发明一个实施例提供的基于单目和结构光传感器融合的视觉引导抓件方法的示教抓取位置、销孔和销钉的相对位置示意图。

图11为本发明一个实施例提供的基于单目和结构光传感器融合的视觉引导抓件方法的偏差统计分布示意图。

图12为本发明一个实施例提供的一种基于多传感器融合的位姿估计系统的流程示意图。

具体实施方式

为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合说明书附图对本发明的具体实施方式做详细的说明,显然所描述的实施例是本发明的一部分实施例,而不是全部实施例。基于本发明中的实施例,本领域普通人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明的保护的范围。

在下面的描述中阐述了很多具体细节以便于充分理解本发明,但是本发明还可以采用其他不同于在此描述的其它方式来实施,本领域技术人员可以在不违背本发明内涵的情况下做类似推广,因此本发明不受下面公开的具体实施例的限制。

其次,此处所称的“一个实施例”或“实施例”是指可包含于本发明至少一个实现方式中的特定特征、结构或特性。在本说明书中不同地方出现的“在一个实施例中”并非均指同一个实施例,也不是单独的或选择性的与其他实施例互相排斥的实施例。

本发明结合示意图进行详细描述,在详述本发明实施例时,为便于说明,表示器件结构的剖面图会不依一般比例作局部放大,而且所述示意图只是示例,其在此不应限制本发明保护的范围。此外,在实际制作中应包含长度、宽度及深度的三维空间尺寸。

同时在本发明的描述中,需要说明的是,术语中的“上、下、内和外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,术语“第一、第二或第三”仅用于描述目的,而不能理解为指示或暗示相对重要性。

本发明中除非另有明确的规定和限定,术语“安装、相连、连接”应做广义理解,例如:可以是固定连接、可拆卸连接或一体式连接;同样可以是机械连接、电连接或直接连接,也可以通过中间媒介间接相连,也可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本发明中的具体含义。

实施例1

参照图1-图5,为本发明的第一个实施例,该实施例提供了基于单目和结构光传感器融合的视觉引导抓件方法,包括:

S1:机器人智能抓取系统对不同坐标系进行标定,确定不同坐标系之间的变换关系。

机器人智能抓取系统的标定是为了确定不同坐标系之间的变换关系,包括3D相机坐标系(O

由于O

S2:通过确定不同坐标系之间的变换关系对机器人智能抓取系统进行视觉引导,根据料架立柱的偏差值引导机器人抓手进入料框到达结构光传感器,传感器拍照点后,结构光传感器对待抓取零件进行拍照,计算出待抓取零件位姿的偏差值,机器人继续按照料架的偏差值修正轨迹运动到抓取点上方预定高度后机器人按照结构光传感器计算的零件位姿偏差再次调整轨迹抓件,抓取零件后按照料架的偏差值修正轨迹出框,如图3所示。

所述视觉引导包括示教阶段及引导阶段;

所述示教阶段包括,料框推入上料区的工位,机器人触发视觉拍照料框,视觉给出机器人料框的中心位姿,机器人示教一个进框位姿,获取法兰抓取位姿,机器人法兰和视觉的相对法兰变换。

所述引导阶段包括,物料上料到工装位置,机器人触发2D视觉拍照料框,视觉给出料框位姿中心位姿,计算机器人进框位姿,

P

其中,为示教料框位姿到示教进框位姿的变换,P

根据机器人进框位姿,在料架上方调整进框的位姿,机器人移动至物料上方点,

ΔP=(x

其中,x

机器人根据调整好的位姿进入料框3D拍照位置,机器人触发2D/3D视觉拍照,根据获取抓取物料位姿,

P

其中,x

计算偏量差,

ΔP=inv(P

其中,P

机器人智能抓手移动到料框抓件上方,

P

其中,M为,机器人移动到抓件位置,

P

机器人移动到,

P

机器人调整位姿相应出框。

S3:在料架的支撑立柱顶端粘贴单目传感器识别Mark点,用于单目传感器识别计算料架立柱的位姿信息。

述识别Mark点包括,如图4所示,当检测图像的marker点坐标序列为,

S

其中,第i∈{0,1,2,3}个图像坐标点表示为

机器人标定TCP针尖,搓点marker的中心点,获得marker点的机器人基坐标系下的坐标,当与图像对应的坐标序列为,

S

其中,p

通过S

其中矩阵行列数为3×4;

对于图像检测得到的任意一个marker标记中心点p

P

通过四个坐标点S

其中位置为

针对不同的机器人欧拉系统,通过罗德里格斯公式,将姿态矩阵

在示教阶段,测量模板料框的位姿记为P

所述零件位姿偏差包括,当3D相机选择了J个特征点,如图5所示,通过图像与点云特征,计算出零件特征对应的3D坐标点,记为QS=[Q

当2D相机选择了K个特征点,对应与数模下的坐标点序列,表示为

融合

T

给定一个夹具,其坐标系记为O

T

根据机器人类型RobotType,将变换矩阵转换为位置/欧拉角,

P

S4:单目传感器拍照料架框时,计算料架的立柱间距及位置度,进行超差检查。

所述超差检查包括,单目传感器拍照料框时,计算出料架的立柱间距及位置度,单个立柱的超差警告阈值设置为T,默认设置为10-50mm,如果超过50mm在实际中通常存在较大风险,具体设置不限于上述的取值范围。立柱间距的变化范围设置为10-100mm,如果超过100mm实际中通常存在较大的风险。超差时系统报警,人工介入对料架进行处理。

实施例2

参考图6-图11本发明的第二个实施例,提供了基于单目和结构光传感器融合的视觉引导抓件方法,为了验证本发明的有益效果,通过实验进行科学论证。

为验证引导精度,从图像和点云特征检测方法,姿态稳定性评估,料框定位精度评估,以及抓件引导精度评估。机器人采用发那科M900iA/400L,臂展3704mm,重复精度±0.5mm@400kg。实际抓手重量约100KG,2D相机采用20M黑白相机,6mm焦距的镜头,工作距离为900mm,视野范围长×宽×高=1500mm×1200mm×300mm。3D相机双目结构光3D成像,采用2M黑白相机,8mm焦距的镜头,工作距离800mm,视野范围长×宽×高=750mm×550mm×250mm。激光跟踪仪为型号为Leica AT 403,重复精度±0.02mm,精度为0.02mm@70000mm。测试零件采用前地板零件,长×宽=2000mm x 1700mm。2D和3D相机的安装方式,如下图6所示:2D拍照区域和3D拍照区域分别如下图7所示,橙色矩形框:2D拍照视野(四个小框为Maker的ROI检测区域,大框矩形框:3D相机拍照区域)。

料框图像特征检测的方法,在这个系统中,料框定位采用Aucro标记点,如图8所示,标识点检测说明(左:亚像素中心点;中:亚像素四角点;右:原图像)其平面的角点,黑色方块白色背景,边缘角点的对比度强烈,加上其平面度好,因此结合重力梯度法,提取的Marker中心点可做到亚像素精度。

零件图像和点云特征检测的方法,零件特征的选择可采用高精度孔类特征进行位置估计,而采用面信息进行姿态的约束。如图9所示(右)点云在边缘的地方通常有精度的损失,噪声较大,这些不确定的噪声可能会成为算法精度下降的重要因素,通常冲压零件面的精度控制不高,对定位孔有着极高的要求,这也是仅用点云导致识别不稳定的原因。如下图所示(中),图像边缘可提供高精度甚至亚像素的精度。如图(左)虽然部分的边缘对比度不佳,但大部分的轮廓精度是精确的,对比度不好的原因主要因为零件下方有零件的堆叠,导致边缘不清晰导致。综上点云和图像的结合可有效提高定位引导的精度。

料框定位精度评估,为验证料框定位精度,我们这样设计实验,首先机器人移动到固定拍照位置;随机移动料框(移动范围,平面位置范围±100mm,旋转角度±5度);然后拍摄料框上的4个Marker点,将Marker的图像坐标转换为机械臂坐标;然后机器人携带标定好的针尖,根据偏移量引导机器人对Marker的中心点进行搓点,测量针尖和Marker中心点的距离(通过针尖搓Marker中心点和机械臂实际引导坐标点,计算两者距离Dist),重复以上步骤125次,共获取500个Marker点的估计数据和真实数据。统计Dist的波动范围,如下图所示:

表1料框引导精度频数统计表

从表1可知,有98.6%的测点落入±1mm范围内,100%的测点落入±1.5mm范围内,因此Marker点位置精度可控制在±1.5mm的范围,而测点间距的误差可控制在±3mm,对于料框立柱的超差检测的灵敏度可控制在±3mm精度。

抓件引导精度评估,本文评估两种位姿估计方法,即3D抓件位姿估计方法(记为:3DPM)和2D/3D融合的位姿估计方法(记为:FPM),两者使用了相同的3D相机取图,本文从三方面进行评估提出方法的精度和稳定性,分别是静态抓件引导,半动态抓件引导和全动态抓件引导。本实验前需示教抓取点,零件放在料框中静止不动,示教机器人的抓件位姿,如图10所示,要求夹爪销钉在销孔上方20mm位置,以方便激光跟踪仪测量零件的进销孔和机器人夹具销钉。要求对示教位置,使用激光跟踪仪测量的销孔P1,P2坐标分别为P1=[-213.195,603.97,-460.105],P2=[-213.359,-603.972,-460.105],机器人在销孔1/2上方示教的点位,用激光跟踪仪测量销钉头中心的坐标分别为:Q1=[-243.197,674.045,-438.536],Q2=[-293.254,-603.251,-440.520]。

静态抓件引导评估。

静态抓件引导,保持零件放在料框中静止不动,机器人携带3D相机拍照,并定位零件位姿,引导机械臂到抓取点位置,然后使用激光跟踪仪测量销钉1/2的位置P1/P2,如此重复50次,记录每组的P1/P2测量实验数据,利用上述实验指标分析销钉1/2与示教均值的偏差,具体指标如下:

其中

表2静态抓件引导测量波动的偏差表

由表2可知,2D/3D抓件引导的精度在X/Y/Z三个方向的精度得到了明显的提升,主要得益于单目在大视野上,同等位置偏差的情况下,单目更容易控制零件的RZ姿态,而在3D结构光对面的定位更精确,可以有效控制RX/RY方向的姿态。

动态抓件引导评估,引入激光跟踪仪,建立全局坐标系。当视觉抓件引导到指定的位置后,使用激光跟踪仪测量特征孔位置P=(Px,Py,Pz)和对应进销的销钉末端位置Q=(Qx,Qy,Qz),通过评估两者在全局坐标系下,X/Y/Z方向的偏差以及欧式距离的偏差,公式如下:

Dx=Qx-Px,Dy=Qy-Py,Dz=Qz-Pz

其中,Dx/Dy/Dz各项均值分别表示为

由表3可知动态抓件引导,在半动态的基础上,机器人首先到2D拍照位置,随机波动料框的位置和姿态,波动范围为X/Y<±100mm,旋转角度±3°,随机扰动料筐内零件波动范围为X/Y<±30mm,旋转角度±3°。利用指定的位姿估计方法,获取抓件位姿,并引导到抓件位置,使用激光跟踪仪测量销孔1/2的位置P1/P2,再使用激光跟踪仪测量销钉1/2的位置Q1/Q2,如此重复71次,记录实验数据,利用上述指标分析销孔和销钉的偏差。

表3动态抓件引导X/Y/Z向偏差表

综上,动态抓件引导的销与孔的波动精度控制在±0.3mm的水平,y向偏差略大。

表4FPM偏差范围频数统计表

如表4可知,提出的方法抓件精度在X/Y/Z向控制在±0.3mm范围,X/Z向的测点有98.59落入±0.2mm的范围,Y向的测点有90.85落入±0.2mm的范围。如图11所示(图左:FPM方法的统计分布,Dx偏差统计分布图,中:Dy偏差统计分布图,右:z偏差统计分布图),X/Z测量偏差分布趋真正泰分布,而Y向趋于卡方分布,数值往负值方向偏差,可做适当修正即可。综上所述,本专利提出的基于单目和结构光传感器融合的视觉引导抓件方法可有效提升位姿估计的精度,大大提高了视觉引导技术在工业生产领域的适用范围,同时能降低对工况环境及配套设备的要求。

实施例3

本发明第三个实施例,其不同于前两个实施例的是:

所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。

在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。就本说明书而言,“计算机可读介质”可以是任何可以包含、存储、通信、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、装置或设备而使用的装置。

计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置)、便携式计算机盘盒(磁装置)、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编辑只读存储器(EPROM或闪速存储器)、光纤装置以及便携式光盘只读存储器(CDROM)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。

应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。

实施例4

参考图12,为本发明的第四个实施例,该实施例提供了一种基于关联分析的容性设备介质损耗监测方法的系统,其特征在于:包括,传感器标定与位姿估计模块、图像处理与特征提取模块、零件位姿计算模块、料架检测与报警模块;

所述传感器标定与位姿估计模块,识别料架立柱顶端的Mark点,计算料架立柱的位姿信息;

所述图像处理与特征提取模块,使用高斯滤波器模糊图像,使用Sobel算子进行边缘检测,使用Hough变换检测图像中的形状,实现模板匹配;

所述零件位姿计算模块,计算待抓取零件的位姿偏差值,使用点云处理技术提取零件的实际位姿;

所述料架检测与报警模块,计算料架的立柱间距,判断变形是否超出容许范围,发出报警信号。

应说明的是,以上实施例仅用于说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本发明技术方案的精神和范围,其均应涵盖在本发明的权利要求范围当中。

技术分类

06120116551279