掌桥专利:专业的专利平台
掌桥专利
首页

机场协同决策方法、装置、设备以及存储介质

文献发布时间:2023-06-19 09:49:27


机场协同决策方法、装置、设备以及存储介质

技术领域

本申请实施例涉及计算机技术领域,具体涉及计算机视觉、深度学习、智慧机场等人工智能技术领域,尤其涉及机场协同决策方法、装置、设备以及存储介质。

背景技术

ACDM(Airport Collaborative Decision-Making,机场协同决策)系统是面向未来的新一代机场智能运行协同决策系统。它通过对相关的航班数据的收集、分析和智能决策,帮助机场建设大数据中心。从而保障飞机飞行安全,提升机场地面运行效率,节省机场员工人力,减少旅客等待时间。

一般来说,机场的机位分配和协同决策是依靠工作人员完成。通常机场的航站楼较为狭长且机位较多,随着使用年限的增加,机位各项限制越来越多,这导致工作人员机位分配耗时长、工作量大。随着人工智能的发展,利用计算机技术实现机场协同决策已经成为大势所趋。然而,当前主流的ACDM系统精度较低、速度较慢,不能满足实际需求。

发明内容

本申请实施例提出了机场协同决策方法、装置、设备以及存储介质。

第一方面,本申请实施例提出了一种机场协同决策方法,包括:基于机场场景与飞机的位置关系,确定飞机附近的至少一个摄像头,其中,一个摄像头采集的机场图像存在至少一种机场场景中的目标;获取至少一个摄像头采集的机场图像;将机场图像输入至预先训练的目标检测模型,输出机场场景中的目标的类别和位置;基于目标的类别和位置进行追踪,直至目标静止,确定目标的最终位置;基于目标的最终位置,对飞机地面运行进行协同决策。

第二方面,本申请实施例提出了一种机场协同决策装置,包括:确定模块,被配置成基于机场场景与飞机的位置关系,确定飞机附近的至少一个摄像头,其中,一个摄像头采集的机场图像存在至少一种机场场景中的目标;获取模块,被配置成获取至少一个摄像头采集的机场图像;检测模块,被配置成将机场图像输入至预先训练的目标检测模型,输出机场场景中的目标的类别和位置;追踪模块,被配置成基于目标的类别和位置进行追踪,直至目标静止,确定目标的最终位置;决策模块,被配置成基于目标的最终位置,对飞机地面运行进行协同决策。

第三方面,本申请实施例提出了一种电子设备,包括:至少一个处理器;以及与至少一个处理器通信连接的存储器;其中,存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行如第一方面中任一实现方式描述的方法。

第四方面,本申请实施例提出了一种存储有计算机指令的非瞬时计算机可读存储介质,计算机指令用于使计算机执行如第一方面中任一实现方式描述的方法。

本申请实施例提供的机场协同决策方法、装置、设备以及存储介质,首先基于机场场景与飞机的位置关系,确定飞机附近的至少一个摄像头;之后获取至少一个摄像头采集的机场图像,并输入至预先训练的目标检测模型,检测出机场场景中的目标的类别和位置;然后基于目标的类别和位置进行追踪,直至目标静止,确定目标的最终位置;最后基于目标的最终位置,对飞机地面运行进行协同决策。提供了一种基于人工智能的机场协同决策方法。在技术层面,采用不同的摄像头对不同机场场景中的目标的图像进行采集,为了保证较高的准确度和较高的处理速度,设计深度学习方法对图像进行智能分析处理,有效地推动了基于深度学习的目标检测方案在机场场景的发展和应用。实现了速度快、效率高、精度高、兼容性、可扩展性和先进性强的ACDM系统,适应未来航空业务的发展需要,从而对整个航空业的发展发挥重要的作用并做出重大的贡献。

应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。

附图说明

通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显。附图用于更好地理解本方案,不构成对本申请的限定。其中:

图1是本申请可以应用于其中的示例性系统架构;

图2是根据本申请的机场协同决策方法的一个实施例的流程图;

图3是根据本申请的机场协同决策方法的又一个实施例的流程图;

图4是可以实现本申请实施例的机场协同决策的场景图;

图5是根据本申请的机场协同决策装置的一个实施例的结构示意图;

图6是用来实现本申请实施例的机场协同决策方法的电子设备的框图。

具体实施方式

以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。

需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。

图1示出了可以应用本申请的机场协同决策方法或机场协同决策装置的实施例的示例性系统架构100。

如图1所示,系统架构100中可以包括摄像头101、102、103,网络104和服务器105。网络104用以在摄像头101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。

摄像头101、102、103可以通过网络104与服务器105交互,以接收或发送消息等。例如,摄像头101、102、103可以实时采集机场图像,并发送至服务器105。

服务器105可以提供各种服务。例如,服务器105可以对从摄像头101、102、103接收到的机场图像进行分析等处理,对飞机地面运行进行协同决策。

需要说明的是,服务器105可以是硬件,也可以是软件。当服务器105为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当服务器105为软件时,可以实现成多个软件或软件模块(例如用来提供分布式服务),也可以实现成单个软件或软件模块。在此不做具体限定。

需要说明的是,本申请实施例所提供的机场协同决策方法一般由服务器105执行,相应地,机场协同决策装置一般设置于服务器105中。

应该理解,图1中的摄像头、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的摄像头、网络和服务器。

继续参考图2,其示出了根据本申请的机场协同决策方法的一个实施例的流程200。该机场协同决策方法包括以下步骤:

步骤201,基于机场场景与飞机的位置关系,确定飞机附近的至少一个摄像头。

在本实施例中,机场协同决策方法的执行主体(例如图1所示的服务器105)可以基于机场场景与飞机的位置关系,确定飞机附近的至少一个摄像头。

这里,确定出的一个摄像头采集的机场图像可以存在至少一种机场场景中的目标。确定出的所有摄像头采集的机场图像通常存在所有机场场景中的目标。其中,机场场景主要包括上下轮档、入离位、开关货仓、靠撤廊桥、配餐车作业、行李传送带车作业、加油车作业、开关客舱门等8种需求的解决方案。考虑到这8种机场场景与飞机的位置关系,确定出机右侧、飞机左侧和廊桥口三个方位的摄像头,来解决不同的需求。其中,飞机左侧的摄像头采集的机场图像可以存在上下轮档、入离位、开关货仓、靠撤廊桥、配餐车作业、行李传送带车作业等的至少一种机场场景中的目标。飞机右侧的摄像头采集的机场图像可以存在加油车作业等的机场场景中的目标,廊桥口的摄像头采集的机场图像可以存在开关客舱门等的机场场景中的目标。

步骤202,获取至少一个摄像头采集的机场图像。

在本实施例中,上述执行主体可以获取至少一个摄像头采集的机场图像。其中,至少一个摄像头可以定时采集机场图像,并实时发送至上述执行主体。

步骤203,将机场图像输入至预先训练的目标检测模型,输出机场场景中的目标的类别和位置。

在本实施例中,上述执行主体可以将机场图像输入至预先训练的目标检测模型,输出机场场景中的目标的类别和位置。

机场协同决策主要是几种机场场景的目标进行检测。本方案采用基于深度学习的目标检测算法进行建模。目标检测是指在一幅图像中自动识别出待测目标的类别和位置,该方法突出了主要的目标信息并有效的去除了背景区域的干扰。其中,目标检测模型主要可以分为以Faster-RCNN为代表的两阶段目标检测模型和以YOLO为代表的单阶段目标检测模型。其中,两阶段目标检测模型可以包括但不限于R-CNN(Region-based ConvolutionalNeural Network,区域卷积神经网络)、SPP-Net(Spatial Pyramid Pooling Network,空间金字塔池化网络)、Fast-RCNN、Faster-RCNN和FPN(Feature Pyramid Networks,特征金字塔网络)等等。单阶段目标检测模型可以包括但不限于YOLO(You Only Look Once,包括YOLOv1、YOLO9000、YOLOv2、YOLOv3等)和SSD(Single Shot MultiBox Detector,单目多目标检测器)等等。两阶段目标检测模型具有检测准确率高的特点,而单阶段目标检测模型具有速度快的优势。

步骤204,基于目标的类别和位置进行追踪,直至目标静止,确定目标的最终位置。

在本实施例中,上述执行主体可以基于目标的类别和位置进行追踪,直至目标静止,确定目标的最终位置。

通常,根据8种机场场景的具体划分,不同视角对应的三个目标检测模型分别对上下轮档、入离位、开关货仓、靠撤廊桥、配餐车作业、行李传送带车作业、加油车作业、开关客舱门等机场场景中的目标进行检测。对于这8种机场场景中的目标,通过检测方法对其进行跟踪。当某种目标不运动了,则认定其完成相应动作。

步骤205,基于目标的最终位置,对飞机地面运行进行协同决策。

在本实施例中上述执行主体可以基于目标的最终位置,对飞机地面运行进行协同决策。例如,对目标的最终位置进行收集、分析和智能决策,以实现机场的机位分配。

本申请实施例提供的机场协同决策方法,首先基于机场场景与飞机的位置关系,确定飞机附近的至少一个摄像头;之后获取至少一个摄像头采集的机场图像,并输入至预先训练的目标检测模型,检测出机场场景中的目标的类别和位置;然后基于目标的类别和位置进行追踪,直至目标静止,确定目标的最终位置;最后基于目标的最终位置,对飞机地面运行进行协同决策。提供了一种基于人工智能的机场协同决策方法。在技术层面,采用不同的摄像头对不同机场场景中的目标的图像进行采集,为了保证较高的准确度和较高的处理速度,设计深度学习方法对图像进行智能分析处理,有效地推动了基于深度学习的目标检测方案在机场场景的发展和应用。实现了速度快、效率高、精度高、兼容性、可扩展性和先进性强的ACDM系统,适应未来航空业务的发展需要,从而对整个航空业的发展发挥重要的作用并做出重大的贡献。

此外,本申请实施例的机场决策协同方法降低人员实地协同成本和耗时,及时发现机场协同问题,保障机场协同人员安全。提高基于人工智能设备的协同率准确率,减少分析耗时,提高设备的实用性和实效性。部署环境简单,可移植性强。

进一步的,为了满足内存占用小、分析耗时短的需求,主要采用YOLO模型作为检测框架。下面以目标检测模型是YOL为例进行详细介绍。

请参考图3,其示出了根据本申请的机场协同决策方法的又一个实施例的流程300。该机场协同决策方法包括以下步骤:

步骤301,基于机场场景与飞机的位置关系,确定飞机附近的至少一个摄像头。

步骤302,获取至少一个摄像头采集的机场图像。

在本实施例中,步骤301-302具体操作已在图2所示的实施例中步骤201-202进行了详细的介绍,在此不再赘述。

步骤303,将机场图像划分成S×S个格子。

在本实施例中,对于每一幅机场图像,机场协同决策方法的执行主体(例如图1所示的服务器105)可以将机场图像划分成S×S个格子。其中,S为正整数。

步骤304,在落入目标的真实值的中心位置的坐标的格子中预测M个检测框的位置信息和置信度,以及N个类别概率。

在本实施例中,上述执行主体可以在落入目标的真实值的中心位置的坐标的格子中预测M个检测框的位置信息和置信度,以及N个类别概率。其中,M和N为正整数。

通常,若某个目标的真实值的中心位置的坐标落入到某个格子中,那么这个格子就负责检测出这个目标。其中,每个格子可以预测M个检测框的位置信息和置信度,以及N个类别概率。检测框的位置信息(x,y,w,h)可以是目标的中心位置相对于格子的中心位置的偏移、高度和宽度。(x,y)可以是目标的中心位置相对于格子的中心位置的偏移。w可以是目标的中心位置相对于格子的中心位置的高度。H可以是目标的中心位置相对于格子的中心位置的宽度。置信度可以反映是否包含目标以及包含目标的情况下位置的准确性。

然而,YOLOv1存在以下缺点:其一,由于输出层为全连接层,在进行检测时,只支持与训练图像相同的输入分辨率,其它分辨率需要缩放成该分辨率;其二,虽然每个格子可以预测M个检测框,但是最终只选择IOU(交并比)最高的检测框作为目标检测输出。当目标占整幅图像比例比较小时,包含多个目标的格子只能检测出其中一个目标。相比两阶段目标检测模型,YOLOv1存在较大的定位误差和较低的召回率。为了提高定位能力和召回率,YOLOv2在以下几个方面进行了改进:其一,取消dropout(丢弃层),卷积层全部使用BatchNormalization(批标准化层);其二,YOLOv1中使用224×224尺寸的图像训练分类器网络,而YOLOv2采用高分辨率分类器,以预设分辨率(如448×448的分辨率)微调最初的预训练分类器;其三,YOLOv2借鉴Faster-RCNN的思想预测检测框的偏移,移除全连接层,为了使特征的分辨率更大,去掉了一个pooling(池化)层。

进一步的,YOLOv3模型可以通过改变模型结构的大小来权衡速度与精度。相比于YOLOv1和YOLOv2,YOLOv3在以下几个方面进行了改进:其一,采用了更好的基础分类网络和分类器,分类损失采用binary cross-entropy loss(二元交叉损失函数);其二,采用多尺度(如3个尺度)预测,每种尺度预测P个检测框(如3个检测框),仍使用聚类得到Q个聚类中心(如9个anchor聚类中心),将其按照大小均分给多种尺度(如3种尺度)。其中,P和Q为正整数。相比于之前的单阶段目标检测模型,YOLOv3结构简单,模型分析速度快,背景误检率低,通用性强。为了提高检测准确度,会分别对左侧、右侧、廊口摄像头的数据的8种机场场景进行三个目标检测模型的建模。

步骤305,基于目标的类别和位置进行追踪,直至目标静止,确定目标的最终位置。

步骤306,基于目标的最终位置,对飞机地面运行进行协同决策。

在本实施例中,步骤305-306具体操作已在图2所示的实施例中步骤204-205进行了详细的介绍,在此不再赘述。

从图3中可以看出,与图2对应的实施例相比,本实施例中的机场协同决策方法的流程300突出了利用YOLO进行目标检测的步骤。由此,本实施例描述的方案提升了目标检测速度,减少了占用内存,缩短了分析耗时。

为了便于理解,下面提供可以实现本申请实施例的机场协同决策方法的应用场景。如图4所示,首先利用飞机左侧的摄像头采集包括轮档、飞机、货仓门、廊桥、配餐车、行李传送带车的机场图像,利用飞机右侧的摄像头采集存在加油车的机场图像,利用廊桥口的摄像头采集存在客舱门的机场图像;然后机场图像输入至YOLOv3检测模型,得到客舱门、货舱门、轮档、廊桥、配餐车、加油车、行李传送带车的检测框静止不动的时间,以面积最大的飞机的检测框静止不动的时间。

进一步参考图5,作为对上述各图所示方法的实现,本申请提供了一种机场协同决策装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。

如图5所示,本实施例的机场协同决策装置500可以包括:确定模块501、获取模块502、检测模块503、追踪模块504和决策模块505。其中,确定模块501,被配置成基于机场场景与飞机的位置关系,确定飞机附近的至少一个摄像头,其中,一个摄像头采集的机场图像存在至少一种机场场景中的目标;获取模块502,被配置成获取至少一个摄像头采集的机场图像;检测模块503,被配置成将机场图像输入至预先训练的目标检测模型,输出机场场景中的目标的类别和位置;追踪模块504,被配置成基于目标的类别和位置进行追踪,直至目标静止,确定目标的最终位置;决策模块505,被配置成基于目标的最终位置,对飞机地面运行进行协同决策。

在本实施例中,机场协同决策装置500中:确定模块501、获取模块502、检测模块503、追踪模块504和决策模块505的具体处理及其所带来的技术效果可分别参考图2对应实施例中的步骤201-205的相关说明,在此不再赘述。

在本实施例的一些可选的实现方式中,至少一个摄像头包括飞机右侧、飞机左侧和廊桥口三个方位的摄像头,飞机左侧的摄像头采集的机场图像存在上下轮档、入离位、开关货仓、靠撤廊桥、配餐车作业、行李传送带车作业的至少一种机场场景中的目标,飞机右侧的摄像头采集的机场图像存在加油车作业的机场场景中的目标,廊桥口的摄像头采集的机场图像存在开关客舱门的机场场景中的目标。

在本实施例的一些可选的实现方式中,目标检测模型是两阶段目标检测模型或单阶段目标检测模型,两阶段目标检测模型包括以下至少一项:R-CNN、SPP-Net、Fast-RCNN、Faster-RCNN和FPN,单阶段目标检测模型是YOLO或SSD。

在本实施例的一些可选的实现方式中,若目标检测模型是YOLO,以及检测模块503进一步被配置成:将机场图像划分成S×S个格子,其中,S为正整数;在落入目标的真实值的中心位置的坐标的格子中预测M个检测框的位置信息和置信度,以及N个类别概率,其中,检测框的位置信息是目标的中心位置相对于格子的中心位置的偏移、高度和宽度,M和N为正整数。

在本实施例的一些可选的实现方式中,YOLO取消丢弃层,卷积层使用批标准化层,以预设分辨率微调YOLO中的分类器,移除全连接层。

在本实施例的一些可选的实现方式中,YOLO的分类损失采用二元交叉损失函数,采用O个尺度预测,且每种尺度预测P个检测框,使用聚类得到Q个聚类中心,按照大小均分给O个尺度,其中,O、P和Q为正整数。

根据本申请的实施例,本申请还提供了一种电子设备和一种可读存储介质。

如图6所示,是根据本申请实施例机场协同决策方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。

如图6所示,该电子设备包括:一个或多个处理器601、存储器602,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图6中以一个处理器601为例。

存储器602即为本申请所提供的非瞬时计算机可读存储介质。其中,所述存储器存储有可由至少一个处理器执行的指令,以使所述至少一个处理器执行本申请所提供的机场协同决策方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的机场协同决策方法。

存储器602作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的机场协同决策方法对应的程序指令/模块(例如,附图5所示的确定模块501、获取模块502、检测模块503、追踪模块504和决策模块505)。处理器601通过运行存储在存储器602中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的机场协同决策方法。

存储器602可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据机场协同决策方法的电子设备的使用所创建的数据等。此外,存储器602可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器602可选包括相对于处理器601远程设置的存储器,这些远程存储器可以通过网络连接至机场协同决策方法的电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。

机场协同决策方法的电子设备还可以包括:输入装置603和输出装置604。处理器601、存储器602、输入装置603和输出装置604可以通过总线或者其他方式连接,图6中以通过总线连接为例。

输入装置603可接收输入的数字或字符信息,以及产生与机场协同决策方法的电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置604可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。

此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用ASIC(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。

这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。

为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。

可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。

计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。

根据本申请的技术方案,首先基于机场场景与飞机的位置关系,确定飞机附近的至少一个摄像头;之后获取至少一个摄像头采集的机场图像,并输入至预先训练的目标检测模型,检测出机场场景中的目标的类别和位置;然后基于目标的类别和位置进行追踪,直至目标静止,确定目标的最终位置;最后基于目标的最终位置,对飞机地面运行进行协同决策。提供了一种基于人工智能的机场协同决策方法。在技术层面,采用不同的摄像头对不同机场场景中的目标的图像进行采集,为了保证较高的准确度和较高的处理速度,设计深度学习方法对图像进行智能分析处理,有效地推动了基于深度学习的目标检测方案在机场场景的发展和应用。实现了速度快、效率高、精度高、兼容性、可扩展性和先进性强的ACDM系统,适应未来航空业务的发展需要,从而对整个航空业的发展发挥重要的作用并做出重大的贡献。

应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。

上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。

相关技术
  • 机场协同决策方法、装置、设备以及存储介质
  • 汽车协同决策方法、装置、电子设备及计算机存储介质
技术分类

06120112312301