掌桥专利:专业的专利平台
掌桥专利
首页

一种站场停留车位置及车厢装载状态的检测方法

文献发布时间:2024-04-18 19:59:31


一种站场停留车位置及车厢装载状态的检测方法

技术领域

本发明属于铁路站场技术领域,具体涉及一种站场停留车位置及车厢装载状态的检测方法。

背景技术

铁路站场是以车站为中心,线路的上行线和下行线两侧都设有进站信号机和出站信号机,站场是以两侧进站信号机为界,里面都属于站场。现有的站场停留车位置获取的方法包括人工打点方式、AEI方式和雷达方式。

人工打点方式为当有新车列被牵入站场,站场内的作业人员利用手持装置,手持装置内含有定位模块,通过手持装置对车辆靠近机车的一端进行手动打点定位,发送车辆端位置到调度系统;

人工打点方式存在如下问题:

(1)打点采用人工方式,打点位置难以保证准确,且存在忘记打点的情况;

(2)打点位置只在车列的一端,车列长度无法获取;

(3)各车厢的装载状态无法获取,不知道是重车、空车;

(4)各车厢内装货的要求是否达标也无法获取;

(5)人工工作量大,效率低。

AEI方式为在车厢上加装电子标签,同时在入场和出厂位置设置电子标签识别装置,由牵入和牵出的车辆综合判断当前股道内的车辆数目,并根据车辆数目和车型计算车长;

AEI方式存在如下问题

(1)只能计算当前股道的停车数量和车长,无法判断车列停留的精确位置;

(2)施工量大,需要在每节车厢上加装电子标签,在每条股道安装识别装置;

(3)各车厢的装载状态无法获取,不知道是重车、空车;

(4)各车厢内装货的要求是否达标也无法获取;

(5)一旦一次识别错误,后续车列的识别将一直存在错误,例如某次出站有一节车厢因为电子标签识别故障,则在系统中记录本股道一直存在一节车。

雷达方式为在股道的一侧布置多台激光雷达,根据雷达数据实时分析股道存车的位置和长度。

雷达方式存在如下:

(1)只能在最外侧股道实施此方案,因为在多条股道的站场中,中间股道间距一般不超过5m,因此很难用少量雷达实现几百米范围内的探测;

(2)施工量大,需要在每条股道上部署;

(3)各车厢的装载状态无法获取,不知道是重车、空车;

(4)各车厢内装货的要求是否达标也无法获取。

现有技术中获取的停留车位置不精准,且无法识别车厢的装载状态。

发明内容

为解决上述技术问题,本发明提供一种站场停留车位置及车厢装载状态的检测方法。

具体方案如下:

一种站场停留车位置及车厢装载状态的检测方法,包括如下步骤,

S1):将无人机按照股道排序开始巡航,巡航的路径为股道的中心线;

S2):在巡航过程中,无人机上搭载的单目结构光相机按照固定频率采集深度图像数据;

S3):深度图像数据通过无线通信装载发送到分析服务器;

S4):分析服务器根据无人机定位信息对深度图像数据进行融合拼接;

S5):无人机对一条股道巡航完成时,分析服务器将采集的深度图像数据进行算法识别,输出所巡航股道的停留车位置和装载状态;

S6):按照股道顺序,重复步骤S2)至S5)直至完成全部股道的巡航。

无人机在股道上巡航时,采用深度图像数据进行无人机航线校验,实时矫正无人机飞行位置的误差。

实时矫正无人机飞行位置误差的方法,包括如下步骤,

T1):分析服务器采用双边滤波器对当前帧的深度图像数据进行噪声抑制;

T2):计算深度图像灰度的最大值,将最大值作为图像灰度的零点进行深度图像的空间变换;所述图像灰度的最大值为地面数据;

T3):深度图像空间变换后,计算转换后深度图像灰度的最大值,转换后深度图像灰度的最大值为轨道高度或车厢顶部高度;

T4):对转换后的深度图像使用sobel算法,计算转换后深度图像的梯度;

T5):依据梯度进行阈值分割,形成连通阈;

T6):对连通阈使用矩形凸包检测算法,根据矩形的长度和面积特征剔除干扰区域;

T7):计算筛选后的矩形中心的行坐标,计算当前中心行坐标与巡航路径的起点中心航坐标的偏差值,将所述偏差值作为偏航的矫正值,依据矫正值对无人机航线进行矫正。

对深度图像进行融合拼接,包括以下步骤,

S41):根据任意两帧深度图像数据拍摄时的定位信息,计算两帧深度图像间的重合区域;

S42):使用两帧深度图像间的重合区域的数据分别在两帧深度图像上生成掩膜;

S43):在所述掩膜区域使用SIFT配准算法,计算出两帧图像的变换参数;

S44):采用变换矩阵完成两帧图像的拼接融合。

停留车位置识别方法,包括如下步骤:

P1):对融合拼接后的深度图像计算深度图像灰度的最大值GrayMAX;

P2):采用阈值分割算法对融合拼接后的深度图像进行分割,其中,阈值分割最小值为1/3*GrayMAX,阈值分割的最大值为GrayMax;

P3):使用连通阈检测算法检测分割后区域的连通域;

P4):使用区域面积特征过滤算法,提取出干扰区域,使用区域长度特征过滤算法,筛选出车辆区域;

P5):计算连通域的数量,所述连通阈的数量即为停留的车辆数量;

P6):对筛选出的车辆区域取并集运算,是的筛选出的车辆区域合并为一个区域;

P7):计算合并后区域的最大列坐标ColumMax和最小列坐标ColumMin,根据图像的定位数据、最大列坐标ColumMax和最小列坐标ColumMin计算出停留车辆的最前端的经纬度坐标和最末端的经纬度坐标,即为停留车的位置。

停留车装载状态识别方法包括如下步骤:

Q1):根据步骤P1)至P4)获取车辆区域,计算各车辆区域的重心坐标;

Q2):根据重心坐标的列标进行排序;

Q3):按照排序,分别计算车辆的体积;

Q4):对车辆进行矩形凸包检测算法,近似拟合车辆的外轮廓;

Q5):使用自适应网格的有限元法计算车辆的体积。

使用自适应网络的有限元法计算车辆的体积包括如下步骤,

Q51):对车辆区域进行固定网格划分;

Q52):计算各网格内的图像灰度的均方差;

Q53):判断均方差是否超过设定值σ0,若超过则对网格继续进行划分,并形成四个子网格;

Q54):计算子网格内图像灰度的均方差,判断子网格内的图像灰度的均方差是否超过设定值σ0,若超过则继续将网格划分为四个子网格,直至均方差小于设定值σ0;

Q55):计算网格内图像的灰度均值GrayMean,并获取网格的体积,所述网格的体积等于网格的像素面积与网格内图像的灰度均值GrayMean的乘积;

Q56):完成车辆图像上全部网格区域的体积计算并求和,即可得到车辆的体积;

Q57):根据车辆体积输出车辆的装载状态。。

本发明公开了一种站场停留车位置及车厢装载状态的检测方法,采用无人机和激光雷达对站场巡航扫描的方式实现站场内的数据采集,并对采集的数据进行算法识别,实现站场停留车的厘米级定位,厘米级的车列计算、精确装载状;具有车列定位精度高、车列长度计算精准和装载状态识别精准的优点。

附图说明

图1是无人机系统结构示意图。

图2是本发明的总体流程示意图。

图3是无人机在股道上巡航的示意图。

图4是近似拟合的车辆外轮廓的示意图。

图5是对车辆区域进行网格划分的示意图。

具体实施方式

下面将结合本发明中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。显然,所描述的实施例仅仅是本发明一部分实施,而不是全部的实施,基于本发明的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。

如图1所示,无人机系统包括无人机1和无人机充电站,所述无人机1上搭载有单目结构光相机2,无人机充电站顶部设置有无人机充电台座3,无人机充电站上还设置有无人机遥控系统4、无线通信装置5和分析服务器6。所述分析服务器6通过无线通信装置5与无人机1进行通信。

如图2所示,一种站场停留车位置及车厢装载状态的检测方法,包括如下步骤,

S1):将无人机按照股道排序开始巡航,巡航的路径为股道的中心线;站场7内的股道是按顺序进行编号的,无人机1接收指令后,在站场7内按股道顺序依次开始进行巡航,续航路径为股道中心线8,如图3所示。

S2):在巡航过程中,无人机上搭载的单目结构光相机2按照固定频率采集深度图像数据;

S3):深度图像数据通过无线通信装载发送到分析服务器;

S4):分析服务器根据无人机定位信息对深度图像数据进行融合拼接;

S5):无人机对一条股道巡航完成时,分析服务器将采集的深度图像数据进行算法识别,输出所巡航股道的停留车位置和装载状态;

S6):按照股道顺序,重复步骤S2)至S5)直至完成全部股道的巡航。

无人机在股道上巡航时,采用深度图像数据进行无人机航线校验,实时矫正无人机飞行位置的误差。采用无人机+激光雷达对站场巡航扫描的方式实现站场内的数据采集,并对采集的数据进行算法识别,实现站场停留车的厘米级定位、厘米级的车列长度计算、精确装载状态的识别。

实时矫正无人机飞行位置误差的方法,包括如下步骤,

T1):分析服务器采用双边滤波器对当前帧的深度图像数据进行噪声抑制;

T2):计算深度图像灰度的最大值,将最大值作为图像灰度的零点进行深度图像的空间变换;所述图像灰度的最大值为地面数据;

T3):深度图像空间变换后,计算转换后深度图像灰度的最大值,转换后深度图像灰度的最大值为轨道高度或车厢顶部高度;

T4):对转换后的深度图像使用sobel算法,计算转换后深度图像的梯度;

T5):依据梯度进行阈值分割,形成连通阈;

T6):对连通阈使用矩形凸包检测算法,根据矩形的长度和面积特征剔除干扰区域;

T7):计算筛选后的矩形中心的行坐标,计算当前中心行坐标与巡航路径的起点中心行坐标的偏差值,将所述偏差值作为偏航的矫正值,依据矫正值对无人机航线进行矫正。

对深度图像进行融合拼接,包括以下步骤,

S41):根据任意两帧深度图像数据拍摄时的定位信息,计算两帧深度图像间的重合区域;

S42):使用两帧深度图像间的重合区域的数据分别在两帧深度图像上生成掩膜;

S43):在所述掩膜区域使用SIFT配准算法,计算出两帧图像的变换参数;

S44):采用变换矩阵完成两帧图像的拼接融合。

停留车位置识别方法,包括如下步骤:

P1):对融合拼接后的深度图像计算深度图像灰度的最大值GrayMAX;

P2):采用阈值分割算法对融合拼接后的深度图像进行分割,其中,阈值分割最小值为1/3*GrayMAX,阈值分割的最大值为GrayMax;

P3):使用连通阈检测算法检测分割后区域的连通域;

P4):使用区域面积特征过滤算法,提取出干扰区域,使用区域长度特征过滤算法,筛选出车辆区域;

P5):计算连通域的数量,所述连通阈的数量即为停留的车辆数量;

P6):对筛选出的车辆区域取并集运算,使得筛选出的车辆区域合并为一个区域;

P7):计算合并后区域的最大列坐标ColumMax和最小列坐标ColumMin,根据图像的定位数据、最大列坐标ColumMax和最小列坐标ColumMin计算出停留车辆的最前端的经纬度坐标和最末端的经纬度坐标,即为停留车的位置。

停留车装载状态识别方法包括如下步骤:

Q1):根据步骤P1)至P4)获取车辆区域,计算各车辆区域的重心坐标;

Q2):根据重心坐标的列标进行排序;

Q3):按照排序,分别计算车辆的体积;

Q4):对车辆进行矩形凸包检测算法,近似拟合车辆的外轮廓,如图4所示;

Q5):使用自适应网络的有限元法计算车辆的体积。

使用自适应网络的有限元法计算车辆的体积包括如下步骤,

Q51):对车辆区域进行固定网格划分,如图5所示;

Q52):计算各网格内的图像灰度的均方差;

Q53):判断均方差是否超过设定值σ0,若超过则对网格继续进行划分,并形成四个子网格;

Q54):计算子网格内图像灰度的均方差,判断子网格内的图像灰度的均方差是否超过设定值σ0,若超过则继续将网格划分为四个子网格,直至均方差小于设定值σ0;

Q55):计算网格内图像的灰度均值GrayMean,并获取网络的体积,所述网络的体积等于网格的像素面积与网格内图像的灰度均值GrayMean的乘积;

Q56):完成车辆图像上全部网格区域的体积计算并求和,即可得到车辆的体积;

Q57):根据车辆体积输出车辆的装载状态。

本发明公开了一种站场停留车位置及车厢装载状态的检测方法,采用无人机和激光雷达对站场巡航扫描的方式实现站场内的数据采集,并对采集的数据进行算法识别,实现站场停留车的厘米级定位,厘米级的车列计算、精确装载状;具有车列定位精度高、车列长度计算精准和装载状态识别精准的优点,提高停留车位置检测精度,实现厘米级定位,能够精确判断车辆的装载状态,空车还是重车,以及重车的装载是否合格。

本发明方案所公开的技术手段不仅限于上述实施方式所公开的技术手段,还包括由以上技术特征任意组合所组成的技术方案。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也视为本发明的保护范围。

相关技术
  • 一种欺诈检测模型训练方法和装置及欺诈检测方法和装置
  • 一种用于焦距检测的双刀口差分检测装置、检测方法及数据处理方法
  • 一种电梯轿厢意外移动保护装置安全性能检测装置及检测方法
  • 一种业务流模板、业务流生成方法及装置
  • 电子设备端口类型检测方法、装置、检测电路及电子设备
  • 一种高层业务类型检测方法及装置
  • 一种检测业务类型的方法及装置
技术分类

06120116519610