掌桥专利:专业的专利平台
掌桥专利
首页

一种基于计算机视觉的高炉铁口开口深度测量方法

文献发布时间:2024-04-18 19:58:30


一种基于计算机视觉的高炉铁口开口深度测量方法

技术领域

本发明属于高炉铁口开口深度测量技术领域,具体涉及一种基于计算机视觉的高炉铁口开口深度测量方法。

背景技术

高炉炼铁是钢铁冶炼流程的关键环节,其生产成本占钢铁产品成本的60%以上。开铁口机是炼铁高炉炉前关键设备之一,其作用是以一定角度打开铁口,使铁水顺利从通道流出。在高炉冶炼过程中,当铁液熔化完成后,需要通过高炉开铁口机打开出铁口,从而为熔融的渣铁提供流出的通道。高炉开铁口机在高炉冶炼过程中起到了至关重要的作用。它能够确保铁水在适当的时间和条件下流出,以满足高炉炼铁生产的需求。在高炉开铁口机作业过程中,现场操作人员需要及时获取铁口开口深度信息,从而确保高炉铁口开口的准确性和高炉生产的稳定性。目前,高炉开铁口机上配有标尺,通过观测开铁口机上滑块在轨梁上的行程,可获得开铁口机的实际钻入铁口深度。

高炉出铁口的状态直接影响到铁水的流出速度和量,获得铁口深度等数据可以用于分析和优化冶炼过程,帮助生产操作人员和技术人员更好地了解高炉铁口的状态,并进行相应的调整和改进,是高炉炼铁生产管控的关键环节。

但实际应用中,铁口深度的观测主要依靠人工来完成。由于操作工需要在高炉铁口处近距离观测开铁口机上滑块在轨梁上的行程,并根据轨梁上部的刻度估计开铁口机的钻入深度,但是,上述方法存在以下几个明显的缺陷:(1)由于人需要在高炉铁口处近距离观测,当铁口打穿后将出现铁水喷溅,因此,其不仅作业环境恶劣、耗费人力,还存在非常高的作业风险。(2)这种方法存在严重的主观性,测量结果受到人的主观判断和视觉误差的影响。不同的观察者可能会有不同的判断标准和误差范围,导致测量结果的不一致性和不准确性。(3)目测结果通常以手工方式记录,记录方式不够精确和规范,且数据收集也不及时,不能满足实时分析需求。

尽管为了提高测量的准确性和效率,近年来也提出了一些基于机械原理来测量开铁口机开口深度的方法,例如中国专利申请CN107043837A公开了一种高炉开铁口机定位装置,将一个挂钩悬挂在开铁口机的尾部,然后另一个挂钩挂在滑块上面,通过机械原理提高了在线观测铁口开口深度的精度。但是,上述方法本质上还是通过目测的方法获取铁口深度,仍然无法克服主观性较大、记录分析困难等难题。并且在开口即将成功时,还需要通过淋浴系统进行冷却来保护装置,其不仅成本较高,且长期暴露在高温恶劣工况下,装置的可靠性和稳定性也得不到保障,实际生产中难以推广应用。

为实现开口深度检测,部分研究探索了基于图像处理技术的解决方法。其中,部分方法采用传统图像处理技术(如:高斯模糊、

发明内容

针对上述技术问题,本发明的目的是提供一种基于计算机视觉的高炉铁口开口深度测量方法;首先,通过高炉铁前监控系统获得特定角位下的高炉开铁口机运动视频。然后,通过改进的目标检测模型技术获得开铁口机、轨梁、滑块等关键部件的位置。最后,分析滑块等关键部件在视频图像中的相对位置,通过基于相对位置映射函数计算出开铁口机的钻入深度,从而最终确定铁口深度。上述过程全自动完成,不需操作员干预。本方法所需视频数据可通过现有高炉铁前监控系统获得,无需增加额外监控设备,也无需对开铁口机添加任何物理装置,且改进的目标检测模型更能应对在复杂工况、多尺度检测难点,测量精度高。此外,基于相对位置映射函数可更好地应对开口机位置变化、摄像设备变化,能实时连续地计算确定铁口深度,开口深度计算更准确。因此,本方法全面解决了当前研究方法存在的作业环境恶劣、作业风险高、测量误差大、数据收集不及时等缺点。

为了实现上述目的,本发明提供了如下技术方案:

一种基于计算机视觉的高炉铁口开口深度测量方法,包括如下步骤:

S1、收集开铁口机运动视频数据集,进行数据标注;

利用现有高炉铁前监控系统采集开铁口机运动视频数据,将视频按帧数分割为图片集,构建VOC(Visual Object Classes, 视觉对象类)图像数据集,对VOC图像数据集中的关键部件进行数据标注操作;将标注好的VOC图像数据集按一定比例划分为训练集、验证集和测试集;所述关键部件包括开铁口机及其移动部件;

S2、构建目标检测模型,使用训练集对模型进行训练;

所述目标检测模型包括自适应图像增强网络、主干网络、改进颈部网络和预测网络;

所述自适应图像增强网络包括一个输入长度为a×b、输出长度为n的全连接层和一个归一化指数函数处理层,其中,a×b为原始图像尺寸;n为预定义的图像增强策略种类;自适应图像增强网络输出各图像增强策略的概率,并选择输出概率最大的图像增强策略来对输入的原始图像进行处理,处理后的图像再进入主干网络;当所有训练集完成一次完整数据集的训练时,下一轮数据会根据训练结果自适应调整网络中的参数,从而模型自主选择在特定工况下最有利于指导目标检测的图像增强策略;

所述主干网络通过CBL(Conv +BN+Leaky ReLU)和残差(Resblock body)结构实现增强处理后的图像的提取特征;其中, Conv表示卷积操作,BN表示批量归一操作,LeakyReLu表示Leaky ReLu激活函数;所述改进颈部网络实现多尺度特征融合,引入坐标注意力机制(CA,Coordinate attention),将通道注意力分解为两个并行的特征编码,以有效地将空间坐标信息集成到生成的注意力图中。

所述预测网络,连接了三个解耦检测头分支,预测目标的类别和边界框;每个解耦检测头均通过Concat操作将不同卷积层的特征图进行拼接实现特征融合,并基于所构建的分类和回归分支获得Cls、Obj和Reg输出;其中,Cls用于输出目标框类别;Obj用于判断目标框是否包含物体;Reg用于预测目标框的坐标信息。

所述预测网络采用修正预测框筛选策略,在目标检测模型的输出结果中筛选出检测结果为关键部件的检测框;对上述检测框中的相同像素进行计数,即获得各像素点属于关键部件的累计数;选取被选中次数最多的像素点集合作为关键像素点集合;然后,将检测框根据置信度从高到低排序;基于关键像素点集合对检测框依次判断,选中包含关键像素点数量最多且置信度最高的检测框作为输出。

S3、通过目标检测模型获得关键部件信息;

采集待检测图像,利用训练好的目标检测模型进行目标检测,获得目标检测结果,所述目标检测结果包括是否存在关键部件以及关键部件的位置信息和置信度;

S4、识别开铁口机作业状态;

根据步骤S3获得的目标检测检测结果,自动识别开铁口机是否作业;当待检测图像中不存在关键部件时,表示开铁口机未开始作业,结束流程或返回步骤S3重新采集待检测图像;当待检测图像中存在关键部件时,表示开铁口机处于作业状态,继续进行步骤S5开口深度计算;

S5、基于相对位置映射函数,计算铁口深度;

基于图像中的移动部件在图像中的像素移动值,然后通过坐标进行转换,从而计算出真实环境中的开铁口机打入深度;具体的计算方法如下:

D=k×sub+b公式1

公式1中,D为当前开铁口机的铁口深度,其单位为m;sub为图像中参照物与移动部件之间的像素差值,通过公式2计算获得;其中,所述参照物为图像中的固定像素点或通过目标检测模型检测出的固定部件;k、b为根据实际数据与图像数据计算的比例常量,分别通过公式3和公式4计算获得;

sub=MX-FX公式2

公式2中,MX为移动部件的x坐标,FX为参照物的x坐标;

k=(R1-R2)/(sub1-sub2) 公式3

b=R1-k×sub1 公式4

公式3和公式4中,R1为前期采集的第一次实测铁口深度,其单位为m;sub1为第一次实测铁口深度所对应的图像中参照物与移动部件之间的像素差值,参考公式2计算获得;R2为前期采集的第二次实测铁口深度,其单位为m;sub2为第二次实测铁口深度所对应的图像中参照物与移动部件之间的像素差值,参考公式2计算获得。

S6、识别开口是否成功,并记录最终铁口开口深度;

统计图像中像素亮度值大于150的高亮度像素的比例,若该比例高于预设阈值则表明开口成功,并记录开口成功前的铁口深度值作为最终的铁口打通深度;所述预设阈值为20%。

所述步骤S1中,所述移动部件为开铁口机上随钻头钻杆一起运动的部件或标记点,所述部件或标记点的选择只需保证在开铁口过程中高炉铁前监控系统能够获取到该部件或标记点的完整图像即可,即该部件或标记点不会进入铁口且不会被其他物体遮盖。

优选地,所述移动部件为滑块或挡板。

所述步骤S1中,标注好的VOC图像数据集按6:2:2的比例划分为训练集、验证集和测试集。

所述改进颈部网络中,首先,将输入的训练集的特征图从宽度和高度两个方向分别进行全局平均池化,从而获得在宽度和高度两个方向的特征图,然后将两个并行方向的特征图转置及堆叠,从而合并宽高特征,并利用卷积(Conv)+批量归一(BN)+非线性激活函数(Non-linear)进一步提取特征;接着,再次按宽度和高度方向分成两个并行部分,通过卷积调整通道数后,利用Sigmoid激活函数获得宽高维度上的注意力权重;最后,将注意力权重乘上原有的特征图就得到了CA注意力机制下的修正特征图。

所述目标检测模型的训练过程如下:

首先,将已标注关键部件的训练集输入目标检测模型,图片首先进入自适应图像增强网络,前向传播确定图像增强策略后对图像进行图像增强处理。处理后的图像进入目标检测模型,进行前向传播计算出候选的目标类别和边界框;综合考虑置信度和关键目标点修剪边界框,得到关键部件的预测结果。

然后,计算模型预测结果与人工标注的关键部件的真实位置之间的误差,并通过反向传播更新网络参数,以减小误差。具体在反向传播过程中,可采用常用的优化算法(如SGD、Adam等)进行网络参数更新,并使用一定的学习率调度策略来控制学习过程。训练过程中,可以定期使用测试集计算目标检测的精度、召回率和平均精度等指标,从而评估模型的性能和调整训练策略。通过多次迭代训练,不断调整网络参数,以提高模型在目标检测任务上的准确性和泛化能力。

最终,当达到预定迭代次数,则表明模型训练结束,即可得到本发明的目标检测模型。

进一步地,所述步骤S1中,所述关键部件进一步包括开铁口机的固定部件,以作为参照物用于后续检测结果的处理;所述固定部件为开铁口机上不随钻头钻杆一起运动的部件或标记点,所述部件或标记点的选择需保证在开铁铁口过程中高炉铁前监控系统能够获取到该部件或标记点的完整图像即可,即该部件或标记点不会进入铁口且不会被其他物体遮盖。

优选地,所述固定部件为轨梁或标尺。

与现有技术相比,本发明的有益效果在于:

本发明的基于计算机视觉的高炉铁口开口深度测量方法可避免每次开口机作业时需人工近距离观测估算开口深度的不足;仅需利用现有高炉铁前监控系统采集的图像,不需额外增加监控或测量设备,即可简单有效地判断铁口是否开口成功,并实时计算出铁口开口深度,降低了测量过程中高炉温度等环境影响,且有效降低了成本,显著提高了测量的客观性和数据记录的实时性问题。

本发明构建了基于相对位置的新型开口深度映射函数,可避免开口机的移动、监控设备的焦距变化、位置变化等产生的开口深度计算误差,从而有效提高开口深度的计算准确度;同时,针对恶劣工况下的多尺度目标识别难点的技术问题,提出了新型目标检测网络,可提高目标检测精度。

附图说明

图1为本发明的基于计算机视觉的高炉铁口开口深度测量方法的技术框架图;

图2为本发明的目标检测模型的网络结构示意图;

图3 为本发明的自适应数据增强网络结构示意图;

图4为本发明实施例在开铁口机在开口过程中在区域框内的像素均值变化折线图。

具体实施方式

下面结合附图和实施例对本发明进行进一步说明。

如图1所示,一种基于计算机视觉的高炉铁口开口深度测量方法,包括如下步骤:

S1、收集开铁口机运动视频数据集,进行数据标注;

利用现有高炉铁前监控系统采集开铁口机运动视频数据,将视频按帧数分割为图片集,构建VOC(Visual Object Classes, 视觉对象类)图像数据集,对VOC图像数据集中的关键部件进行数据标注操作;将标注好的VOC图像数据集按一定比例划分为训练集、验证集和测试集;所述关键部件包括开铁口机及其移动部件;

所述移动部件为开铁口机上随钻头钻杆一起运动的部件或标记点,所述部件或标记点的选择只需保证在开铁口过程中高炉铁前监控系统能够获取到该部件或标记点的完整图像即可,即该部件或标记点不会进入铁口且不会被其他物体遮盖。

优选地,所述移动部件为滑块或挡板。

进一步地,所述步骤S1中,所述关键部件进一步包括开铁口机的固定部件,以作为参照物用于后续检测结果的处理;所述固定部件为开铁口机上不随钻头钻杆一起运动的部件或标记点,所述部件或标记点的选择需保证在开铁铁口过程中高炉铁前监控系统能够获取到该部件或标记点的完整图像即可,即该部件或标记点不会进入铁口且不会被其他物体遮盖。

优选地,所述固定部件为轨梁或标尺。

在本发明的实施例中,在高炉铁前监控系统中选取可观测高炉开铁口机作业的监控角位,获得该角位下30段高炉开铁口机运动视频。由于高炉铁前监控系统可认为是钢铁企业中的常规标配系统,其数据获取非常方便。采用python的视频切割方法,将所获得视频按帧数分割为图片集,最终选取了3000张图片构建VOC图像数据集。进一步,对样本图像中的开铁口机及其移动部件和固定部件进行标注,将标注好的VOC图像数据集按6:2:2的比例划分为训练集、验证集和测试集。本发明实施例中标注了开铁口机、移动部件(如滑块、挡板)、固定部件(如轨梁、标尺)等关键部件。其中,标注开铁口机用于检测开铁口机的整体位置,通过识别开铁口机目标,可作为后续自动实时判断是否存在开口作业的依据。滑块和挡板是开铁口机的移动部件,可根据滑块或挡板的运动确定开铁口机的打入深度。轨梁和标尺是开铁口机上的标志性固定部件,可作为参照系用于后续检测结果的处理。

S2、构建目标检测模型,使用训练集对模型进行训练;

本发明的求解思路是基于计算机视觉技术获得开铁口机及其移动部件的位置信息。考虑到恶劣工况下的检测目标识别难点,检测目标尺寸差别大的识别难点,以及检测目标在同一图片中只有一个对象的特点,因此,本发明提供一种改进的目标检测模型;如图2所示,本发明的目标检测模型包括自适应图像增强网络、主干网络、改进颈部网络和预测网络;

如图3所示,所述自适应图像增强网络包括一个输入长度为a×b、输出长度为n的全连接层和一个归一化指数函数处理层,其中,a×b为原始图像尺寸;n为预定义的图像增强策略种类;aug1,aug2,…augi,…, augn依次表示第1到第n种图像增强策略;自适应图像增强网络的目的是输出各图像增强策略的概率(如图中t1,t2,…,tn所示),并选择输出概率最大的第i种图像增强策略augi来对输入的原始图像进行处理,处理后的图像再进入主干网络。当所有训练集完成一次完整数据集的训练时,下一轮数据会根据训练结果自适应调整网络中的参数,从而模型可自主选择在特定工况下最有利于指导目标检测的图像增强策略。

设置自适应图像增强网络的好处是:1)可模拟开铁口机运行过程的不同工况,提高数据的多样性;2)可自主选择输入图像所在工况下最有利的图像增强理策略,有利于指导目标检测;3)由于不同轮次训练的数据会有所变化,模型不容易过拟合。

如图2所示,所述主干网络通过CBL(Conv +BN +Leaky ReLU)和残差(Resblockbody)结构实现增强处理后的图像的提取特征。其中, Conv表示卷积操作,BN表示批量归一操作,Leaky ReLu表示Leaky ReLu激活函数。所述改进颈部网络实现多尺度特征融合。针对多尺度下不同特征位置及重要性各不相同,本发明引入了坐标注意力机制(CA,Coordinateattention),将传统的通道注意力分解为两个并行的特征编码,以有效地将空间坐标信息集成到生成的注意力图中。

首先,将输入的训练集的特征图从宽度和高度两个方向分别进行全局平均池化,从而获得在宽度和高度两个方向的特征图。然后将两个并行方向的特征图转置及堆叠,从而合并宽高特征,并利用卷积(Conv)+批量归一(BN)+非线性激活函数(Non-linear)进一步提取特征。接着,再次按宽度和高度方向分成两个并行部分,通过卷积调整通道数后,利用Sigmoid激活函数获得宽高维度上的注意力权重。最后,将注意力权重乘上原有的特征图就得到了CA注意力机制下的修正特征图。

本发明将坐标注意力机制嵌入到颈部网络模型中,构成如图2所示的改进颈部网络。首先,本发明在主干网络提取出来的三层特征图(即Resblock_body输出)上增加了CA注意力机制。其次,依次对上采样和下采样后的结果(即UpSampling和DownSampling输出)增加了CA注意力机制。通过引入CA注意力机制,模型可以更好地关注重要的特征并忽略无关的特征,从而提高模型对目标的识别和定位能力。此外,CA注意力机制还可以帮助模型更好地适应不同场景和尺度的目标,提高模型的泛化能力和鲁棒性。

所述预测网络,连接了三个解耦检测头分支,预测目标的类别和边界框。每个解耦检测头均通过Concat操作将不同卷积层的特征图进行拼接实现特征融合,并基于所构建的分类和回归分支获得Cls、Obj和Reg输出。其中,Cls用于输出目标框类别;Obj用于判断目标框是否包含物体;Reg用于预测目标框的坐标信息。

针对检测目标在同一图片中只有一个对象的特点,所述预测网络采用修正预测框筛选策略,提高输出结果准确率。

传统目标检测模型针对同一个类别的物体可能输出多个目标检测框。而考虑到开铁口机及其移动部件在同一图片中只有一个对象,目前常用的处理方法是输出最大置信度阈值的目标,但该方法存在的问题是由于移动部件的检测目标比较小,在复杂工况噪声干扰下,其检测准确率不高。为提高检测准确率,本发明在预测网络末端设计了综合考虑置信度和关键目标点的修正预测框筛选策略,替换传统的非极大抑制策略,使之更适用于上述问题。

在目标检测模型的输出结果中筛选出检测结果为关键部件的检测框;对上述检测框中的相同像素进行计数,即获得各像素点属于关键部件的累计数;选取被选中次数最多的像素点集合作为关键像素点集合;然后,将检测框根据置信度从高到低排序;基于关键像素点集合对检测框依次判断,选中包含关键像素点数量最多且置信度最高的检测框作为输出。

该修正预测框筛选策略充分利用了目标检测模型对同一对象可输出多个边界框的特点。在同一目标存在多个候选对象时,不仅利用了各对象的最大置信度信息,还利用了多个候选边界框中包含的目标信息,从而有利于准确确定真实目标,提高输出结果准确率。

所述目标检测模型的训练过程如下:

首先,将已标注关键部件的训练集输入目标检测模型,图片首先进入自适应图像增强网络,前向传播确定图像增强策略后对图像进行图像增强处理。处理后的图像进入目标检测模型,进行前向传播计算出候选的目标类别和边界框;综合考虑置信度和关键目标点修剪边界框,得到关键部件的预测结果。

然后,计算模型预测结果与人工标注的关键部件的真实位置之间的误差,并通过反向传播更新网络参数,以减小误差。具体在反向传播过程中,可采用常用的优化算法(如SGD、Adam等)进行网络参数更新,并使用一定的学习率调度策略来控制学习过程。训练过程中,可以定期使用测试集计算目标检测的精度、召回率和平均精度等指标,从而评估模型的性能和调整训练策略。通过多次迭代训练,不断调整网络参数,以提高模型在目标检测任务上的准确性和泛化能力。

最终,当达到预定迭代次数,则表明模型训练结束,即可得到本发明的目标检测模型。

本发明实施例在经过200次迭代训练之后,所得map_50(一种衡量目标检测算法的性能指标)已经达到了97%。为提高检测精度,在训练过程中,利用验证集和测试集进行验证。最后,经过模型训练得到权重参数等,以检测开铁口机及其移动部件、固定部件。

S3、通过目标检测模型获得关键部件信息;

采集待检测图像,利用训练好的目标检测模型进行目标检测,获得目标检测结果,所述目标检测结果包括是否存在关键部件以及关键部件的位置信息和置信度;

将待检测的开铁口机监测视频或图像输入到训练好的目标检测模型,得到关键部件的位置信息和置信度。

以滑块为例,该模型可以准确识别图像中的目标,并获得包含目标的位置(边界框)信息、置信度。

S4、识别开铁口机作业状态;

根据步骤S3获得的目标检测检测结果,自动识别开铁口机是否作业;当待检测图像中不存在关键部件时,表示开铁口机未开始作业,结束流程或返回步骤S3重新采集待检测图像;当待检测图像中存在关键部件时,表示开铁口机处于作业状态,继续进行步骤S5开口深度计算;

在大多数情况下,开铁口机是未处于工作状态的。当执行打开铁口操作时,需将开铁口机转至铁口位置。在作业完成后,需将开铁口机移离铁口处并归位。因此,当开铁口机不处于工作状态时,不会出现在监控视频上。基于以上特点,本发明通过识别开铁口机目标,可自动实时判断是否存在开口作业。上述全流程自动完成,避免了每次开铁口机作业时,需人工启动开口深度计算的不足。

S5、基于相对位置映射函数,计算铁口深度;

利用上述目标检测模型,可实时识别移动部件的位置信息。但是模型所输出的信息是相对于图像中的位置坐标而言的,与真实的坐标位置无关。注意到移动部件在图像中的前进距离,与实际生产中开铁口机的打入深度有线性映射关系。

基于图像中的移动部件在图像中的像素移动值,然后通过坐标进行转换,从而计算出真实环境中的开铁口机打入深度;具体的计算方法如下:

D=k×sub+b公式1

公式1中,D为当前开铁口机的铁口深度,其单位为m;sub为图像中参照物与移动部件之间的像素差值,通过公式2计算获得;其中,所述参照物为图像中的固定像素点或通过目标检测模型检测出的固定部件;k、b为根据实际数据与图像数据计算的比例常量,分别通过公式3和公式4计算获得;

sub=MX-FX公式2

公式2中,MX为移动部件的x坐标,FX为参照物的x坐标;

k=(R1-R2)/(sub1-sub2) 公式3

b=R1-k×sub1 公式4

公式3和公式4中,R1为前期采集的第一次实测铁口深度,其单位为m;sub1为第一次实测铁口深度所对应的图像中参照物与移动部件之间的像素差值,参考公式2计算获得;R2为前期采集的第二次实测铁口深度,其单位为m;sub2为第二次实测铁口深度所对应的图像中参照物与移动部件之间的像素差值,参考公式2计算获得。

通过以上公式进行计算,就可以将目标检测模型输出的坐标信息转化为所需要的当前开铁口机的打入深度。由于开口机的位置是移动的,难以保证每次开口机的位置完全不变。因此,采用相对位置可以避免开口机的移动产生的开口深度计算误差,有效提高准确度。

实施例中,move表示滑块,参照物选取图像中的固定像素点(1800,600)。由公式2可以得到滑块与固定像素点的像素差值为160像素。进一步,为获取当滑块处于这个位置时的铁口深度值,需要进行坐标转换。首先预先获取滑块第一次实测铁口深度和第二次实测铁口深度,然后获取这两次实测铁口深度所对应的滑块与参照物之间的像素差值,通过公式3和公式4可获得k=0.00375,b=2;最后,代入公式1保留一位小数,计算当前铁口深度值D=2.6,即表明当前铁口深度为2.6米。

S6、识别开口是否成功,并记录最终铁口开口深度。

为了方便之后的高炉数据分析,将每次开口成功的数据记录到数据库中。观察到开铁口机在每次开口成功时,会有大量铁水流出,开口区域瞬间会爆发大量亮光。

统计图像中像素亮度值大于150的高亮度像素的比例,若该比例高于预设阈值则表明开口成功,并记录开口成功前的铁口深度值作为最终的铁口打通深度。所述预设阈值为20%。

图4的折线图是在开铁口机在开口过程中在区域框内的像素均值变化。在这个实例中,可以观察到在开铁口机开口成功,有大量铁水流出时,在开口区域的像素均值会产生爆发式的增长。在本示例中,统计图像中像素亮度值大于150的高亮度像素的比例,当高亮度像素的比例高于20%阈值,视为开口成功,并记录开口成功前的铁口深度数据。

相关技术
  • 一种基于深度相机的卷板机卷板曲率半径和厚度测量方法
  • 一种高炉铁口深度测量装置和测量铁口深度方法
  • 一种高炉出铁口开口机的开口枪的制造方法
技术分类

06120116504853