掌桥专利:专业的专利平台
掌桥专利
首页

一种针对无人机集群的光电探测跟踪方法及系统

文献发布时间:2023-06-19 11:11:32


一种针对无人机集群的光电探测跟踪方法及系统

技术领域

本申请涉及反无人机探测领域,特别是涉及一种针对无人机集群的光电探测方法、系统、计算机设备和存储介质。

背景技术

随着无人机技术的迅速发展,无人机在现代战争中具有反侦查能力强、工作持续时间长、无需担心人员伤亡、可操作性强、侦查能力强、可执行多种电子战任务、可担负各种空中作战任务等优势,无人机逐渐在战场中成为重要威胁,反无人机技术应运而生,反无人机技术主要包括探测技术、干扰技术和毁伤技术。单个无人机执行侦察或攻击等任务时面临侦察角度和范围、杀伤半径和摧毁能力等诸多方面的限制,制约了作战效能的发挥,单个无人机圆满完成任务的难度越来越大,无人机集群作战将会成为未来战争的主要战斗力。

反无人机探测技术常借助地面目视侦察装备、雷达、卫星、预警机及其它传感器载荷,对无人机目标进行探测、识别与跟踪。常用技术有雷达探测跟踪、无线电探测跟踪、光电探测跟踪、红外探测跟踪、声学探测跟踪和组合传感器探测跟踪。雷达探测跟踪的盲区较大、成本较高,无线电探测跟踪的虚警概率高;声学传感器使用已知声音的数据库探测无人机,但是随着新型无人机的快速发展,数据库无法及时更新;红外成像识别角度范围小,为了大范围探测到运动范围较大的无人机,需要给红外探测仪装置装配云台,在云台转动过程中,成像模糊,因此不适合单无人机跟踪,更不适合无人机集群的识别与跟踪。

光电探测跟踪是根据无人机的视觉特征来识别跟踪无人机,在传统的光电系统中,相机的视场范围较小,如果想要持续跟踪某运动目标,还需要云台系统以带动光电系统进行扫描识别跟踪,无法在无人机集群作战的情况下,对多架无人机进行同时跟踪。因此,现有技术存在市场范围小,无人机集群作战跟踪效果不佳的问题。

发明内容

基于此,有必要针对上述技术问题,提供一种能够扩大探测范围,适用于无人机集群探测跟踪的针对无人机集群的光电探测跟踪方法、系统、计算机设备和存储介质。

一种针对无人机集群的光电探测跟踪方法,所述方法包括:

通过大视场仿生光学组件拍摄得到无人机集群的多组运动视频;所述大视场仿生光学组件由前级球形物镜和后级小口径透镜组阵列组成;

根据所述多组运动视频提取多组视频帧的序列图像,将所述序列图像按视频帧拼接得到无人机集群的全景图像;

通过训练好的yolov4第一网络模型对所述全景图像中的多无人机图像进行识别与定位,得到多个无人机的目标检测框和类别信息;

通过训练好的yolov4第二网络模型对前一帧和当前帧的所述全景图像的所述目标检测框进行特征比对,并结合所述类别信息,得到前一帧和当前帧中多个目标检测框的匹配关系,根据所述匹配关系确定与前一帧目标检测框匹配的当前帧目标检测框,将所述同一目标的目标检测框的中心点作为轨迹点,根据所述轨迹点绘制无人机目标的跟踪轨迹。

在其中一个实施例中,还包括:根据所述多组运动视频提取多组视频帧的序列图像;

对所述序列图像进行几何畸变校正和噪点抑制的预处理;

通过基于SIFT的配准算法对预处理后的所述序列图像进行图像配准;

通过像素级融合中的加权平均法对配准后的所述序列图像进行拼接,得到无人机集群的全景图像。

在其中一个实施例中,还包括:所述yolov4第一网络模型的训练步骤包括:

建立包含多种无人机场景图像的训练集和测试集;

使用数据标注工具获取所述训练集中待识别目标的检测框;

以darknet53作为主干网络,空间金字塔池化模块和路径聚合网络模块作为颈部,yolov4作为头部搭建yolov4网络模型;

设置所述yolov4网络模型的训练参数,通过标注了检测框的所述训练集对所述yolov4网络模型进行迭代训练,直到损失函数收敛,得到预备模型;

将所述测试集输入所述预备模型进行检测,若输出正确率没有达到预先设定的阈值,则重新设置所述训练参数并迭代训练,直到所述预备模型对所述测试集的正确率达到所述阈值,得到训练好的所述yolov4第一网络模型。

在其中一个实施例中,还包括:将前一帧的所述全景图像的所述目标检测框作为目标区域,通过第一神经网络模型提取所述目标区域的特征;

将当前帧的所述全景图像的所述目标检测框作为搜索区域,通过第二神经网络模型提取所述搜索区域的特征;

对所述目标区域的特征和所述搜索区域的特征进行特征比对,得到前一帧和当前帧中多个目标检测框的匹配关系;

根据所述匹配关系确定与前一帧目标检测框匹配的当前帧目标检测框,将所述同一目标的目标检测框的中心点作为轨迹点,根据所述轨迹点绘制无人机目标的跟踪轨迹。

在其中一个实施例中,还包括:根据所述轨迹点绘制无人机目标的跟踪轨迹之后,还包括:

将所述跟踪轨迹数据发送到地面站系统,在所述地面站系统中进行实时高清显示。

在其中一个实施例中,还包括:根据所述多组运动视频提取多组视频帧的序列图像,通过多GPU将所述序列图像按视频帧拼接得到无人机集群的全景图像。

在其中一个实施例中,还包括:根据所述多组运动视频,通过OpenCV技术提取多组视频帧的序列图像。

一种针对无人机集群的光电探测跟踪系统,所述系统包括:

运动视频获取模块,用于通过大视场仿生光学组件拍摄得到无人机集群的多组运动视频;所述大视场仿生光学组件由前级球形物镜和后级小口径透镜组阵列组成;

图像拼接模块,用于根据所述多组运动视频提取多组视频帧的序列图像,将所述序列图像按视频帧拼接得到无人机集群的全景图像;

目标检测框标注模块,用于通过训练好的yolov4第一网络模型对所述全景图像中的多无人机图像进行识别与定位,得到多个无人机的目标检测框和类别信息;

跟踪轨迹绘制模块,用于通过训练好的yolov4第二网络模型对前一帧和当前帧的所述全景图像的所述目标检测框进行特征比对,并结合所述类别信息,得到前一帧和当前帧中多个目标检测框的匹配关系,根据所述匹配关系确定与前一帧目标检测框匹配的当前帧目标检测框,将所述同一目标的目标检测框的中心点作为轨迹点,根据所述轨迹点绘制无人机目标的跟踪轨迹。

一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现以下步骤:

通过大视场仿生光学组件拍摄得到无人机集群的多组运动视频;所述大视场仿生光学组件由前级球形物镜和后级小口径透镜组阵列组成;

根据所述多组运动视频提取多组视频帧的序列图像,将所述序列图像按视频帧拼接得到无人机集群的全景图像;

通过训练好的yolov4第一网络模型对所述全景图像中的多无人机图像进行识别与定位,得到多个无人机的目标检测框和类别信息;

通过训练好的yolov4第二网络模型对前一帧和当前帧的所述全景图像的所述目标检测框进行特征比对,并结合所述类别信息,得到前一帧和当前帧中多个目标检测框的匹配关系,根据所述匹配关系确定与前一帧目标检测框匹配的当前帧目标检测框,将所述同一目标的目标检测框的中心点作为轨迹点,根据所述轨迹点绘制无人机目标的跟踪轨迹。

一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现以下步骤:

通过大视场仿生光学组件拍摄得到无人机集群的多组运动视频;所述大视场仿生光学组件由前级球形物镜和后级小口径透镜组阵列组成;

根据所述多组运动视频提取多组视频帧的序列图像,将所述序列图像按视频帧拼接得到无人机集群的全景图像;

通过训练好的yolov4第一网络模型对所述全景图像中的多无人机图像进行识别与定位,得到多个无人机的目标检测框和类别信息;

通过训练好的yolov4第二网络模型对前一帧和当前帧的所述全景图像的所述目标检测框进行特征比对,并结合所述类别信息,得到前一帧和当前帧中多个目标检测框的匹配关系,根据所述匹配关系确定与前一帧目标检测框匹配的当前帧目标检测框,将所述同一目标的目标检测框的中心点作为轨迹点,根据所述轨迹点绘制无人机目标的跟踪轨迹。

上述针对无人机集群的光电探测跟踪方法、系统、计算机设备和存储介质,通过大视场仿生光学组件拍摄得到无人机集群的多组运动视频,根据多组运动视频提取多组视频帧的序列图像,将序列图像按视频帧拼接得到无人机集群的全景图像;通过训练好的yolov4第一网络模型对全景图像中的多无人机图像进行识别与定位,得到多个无人机的目标检测框和类别信息;通过训练好的yolov4第二网络模型对前一帧和当前帧的全景图像的所述目标检测框进行特征比对,并结合类别信息,得到前一帧和当前帧中多个目标检测框的匹配关系,根据匹配关系确定与前一帧目标检测框匹配的当前帧目标检测框,将每帧全景图像中目标检测框的中心点作为轨迹点,绘制无人机目标的跟踪轨迹。本发明采用大视场仿生光学组件,兼具大范围普查和高分辨率详查的优点,多复眼形式的目镜适用多GPU运行图像拼接,提高了目标识别与跟踪的速度;采用深度卷积神经网络结构yolov4算法进行目标识别与跟踪,充分匹配本发明大视场仿生光学组件视场大、分辨率高的特点,在无人机集群目标小而多的应用背景下,提高了目标识别与跟踪的精度,能够在没有云台控制的情况下实现对无人机集群的大规模大范围探测跟踪,具有探测范围广、定位精度高、跟踪效果好等优点。

附图说明

图1为一个实施例中针对无人机集群的光电探测跟踪方法的流程示意图;

图2为一个实施例中使用的大视场仿生光学组件结构示意图;

图3为一个实施例中进行图像拼接的算法流程图;

图4为一个实施例中多无人机图像识别与定位算法流程图;

图5为一个实施例中多无人机目标预测与跟踪算法流程图;

图6为另一个实施例中针对无人机集群的光电探测跟踪方法的流程示意图;

图7为一个实施例中针对无人机集群的光电探测跟踪系统的结构框图;

图8为另一个实施例中针对无人机集群的光电探测跟踪系统的结构框图;

图9为一个实施例中计算机设备的内部结构图。

具体实施方式

为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。

本申请提供的针对无人机集群的光电探测跟踪方法,可以应用于如下应用环境中。通过大视场仿生光学组件拍摄得到无人机集群的多组运动视频,根据多组运动视频提取多组视频帧的序列图像,将序列图像按视频帧拼接得到无人机集群的全景图像;通过训练好的yolov4第一网络模型对全景图像中的多无人机图像进行识别与定位,得到多个无人机的目标检测框和类别信息;通过训练好的yolov4第二网络模型对前一帧和当前帧的全景图像的所述目标检测框进行特征比对,并结合类别信息,得到前一帧和当前帧中多个目标检测框的匹配关系,根据匹配关系确定与前一帧目标检测框匹配的当前帧目标检测框,将每帧全景图像中目标检测框的中心点作为轨迹点,绘制无人机目标的跟踪轨迹。

在一个实施例中,如图1所示,提供了一种针对无人机集群的光电探测跟踪方法,包括以下步骤:

步骤102,通过大视场仿生光学组件拍摄得到无人机集群的多组运动视频。

鱼眼的晶状体是圆球形,优点是视场角很大,可以达到220°,但是观察距离较近。昆虫的视觉由复眼产生,复眼由许多小眼构成,这些小眼排列成球面状,以获得大的空间视野(接近240°)。但是小眼直径一般为15~50μm,其承担的局部视场仅有几度,分辨能力比人眼低,视力仅有1m左右。受鱼眼和复眼成像特点的启发,大视场仿生光学组件由前级球形物镜和后级小口径透镜组阵列组成,如图2所示,兼具大范围普查和高分辨率详查的特点,能够实现100°以上的大视场角度和全视场优于10”的空间分辨率,采用复眼形式的目镜,使其适合用多GPU运行图像拼接算法,提高了目标识别与跟踪的速度。

步骤104,根据多组运动视频提取多组视频帧的序列图像,将序列图像按视频帧拼接得到无人机集群的全景图像。

本实施例通过多路图源快速拼接系统采用基于尺度不变特征变换(Scale-invariant Feature Trans-form,SIFT)的特征检测匹配算法,通过OpenCV技术实现视频序列图像提取和拼接技术,获得大视场范围、高质量的视频图像,实时监测无人机状态信息。

步骤106,通过训练好的yolov4第一网络模型对全景图像中的多无人机图像进行识别与定位,得到多个无人机的目标检测框和类别信息。

YOLO是一种新的目标检测方法,将目标检测作为一个回归问题,以空间分隔的边界框和关联的类概率来处理。一个单一的神经网络在一次评估中直接从完整图像预测边界框和类概率。由于整个检测通道是一个单一的网络,因此可以直接对检测性能进行端到端的优化。YOLO核心思想就是利用整张图作为网络的输入,直接在输出层回归bounding box的位置和bounding box所属的类别,通过GPU进行目标检测器的训练和使用。

yolov4是在yolov1,yolov2,yolov3基础上进一步改进所得,目标检测速度更快,效率更高。本发明通过大视场仿生光学组件获得大视场范围、高质量的视频图像,结合yolov4算法可以充分发挥大视场图像的优势,适合大范围大规模无人机群的探测与跟踪。

yolov4第一网络模型用于实现多无人机图像识别与定位算法,算法流程包括数据集建立与标注、预训练网络模型搭建、迭代训练直至损失函数收敛、输出无人机目标识别检测模型,最后使用训练好的模型对所述多路图源快速拼接系统得到的全景视频场景进行目标识别。

步骤108,通过训练好的yolov4第二网络模型对前一帧和当前帧的全景图像的目标检测框进行特征比对,并结合类别信息,得到前一帧和当前帧中多个目标检测框的匹配关系,根据匹配关系确定与前一帧目标检测框匹配的当前帧目标检测框,将同一目标的目标检测框的中心点作为轨迹点,根据轨迹点绘制无人机目标的跟踪轨迹。

yolov4第二网络模型用于实现多无人机目标预测与跟踪算法,算法流程包括,以前一帧图像标注的无人机目标检测框为目标区域,以当前帧图像中标注的无人机目标检测框为搜索区域,采用两套卷积网络对前一帧与当前帧分别提取目标区域和搜索区域的特征,再比较目标特征和搜索区域特征,输出新的目标位置,将同一目标的目标检测框的中心点作为目标跟踪的轨迹点,绘制无人机目标跟踪轨迹。

上述针对无人机集群的光电探测跟踪方法中,通过大视场仿生光学组件拍摄得到无人机集群的多组运动视频,根据多组运动视频提取多组视频帧的序列图像,将序列图像按视频帧拼接得到无人机集群的全景图像;通过训练好的yolov4第一网络模型对全景图像中的多无人机图像进行识别与定位,得到多个无人机的目标检测框和类别信息;通过训练好的yolov4第二网络模型对前一帧和当前帧的全景图像的目标检测框进行特征比对,并结合类别信息,得到前一帧和当前帧中多个目标检测框的匹配关系,根据匹配关系确定与前一帧目标检测框匹配的当前帧目标检测框,将每帧全景图像中目标检测框的中心点作为轨迹点,绘制无人机目标的跟踪轨迹。本发明采用大视场仿生光学组件,兼具大范围普查和高分辨率详查的优点,多复眼形式的目镜适用多GPU运行图像拼接,提高了目标识别与跟踪的速度;采用深度卷积神经网络结构yolov4算法进行目标识别与跟踪,充分匹配本发明大视场仿生光学组件视场大、分辨率高的特点,在无人机集群目标小而多的应用背景下,提高了目标识别与跟踪的精度,能够在没有云台控制的情况下实现对无人机集群的大规模大范围(>50)探测跟踪,具有探测范围广、定位精度高、跟踪效果好等优点。

在其中一个实施例中,还包括:进行图像拼接的算法流程图,如图3所示,根据多组运动视频提取多组视频帧的序列图像;对序列图像进行几何畸变校正和噪点抑制的预处理;通过基于SIFT的配准算法对预处理后的序列图像进行图像配准;通过像素级融合中的加权平均法对配准后的序列图像进行拼接,得到无人机集群的全景图像。

采用基于SIFT特征提取的方法进行图像拼接,对平移、旋转、尺度缩放和光照不均都有很好的适应性,能够得到较为光滑的拼接全景图。拼接全景图具有高分辨率、宽视角的特点。

在其中一个实施例中,还包括:yolov4第一网络模型的训练步骤包括:建立包含多种无人机场景图像的训练集和测试集;使用数据标注工具Labellmg获取训练集中待识别目标的检测框;以darknet53作为主干网络,空间金字塔池化模块和路径聚合网络模块作为颈部,yolov4作为头部搭建yolov4网络模型;设置yolov4网络模型的训练参数,通过标注了检测框的训练集对yolov4网络模型进行迭代训练,直到损失函数收敛,得到预备模型;将测试集输入预备模型进行检测,若输出正确率没有达到预先设定的阈值,则重新设置训练参数并迭代训练,直到预备模型对测试集的正确率达到阈值,得到训练好的yolov4第一网络模型。

如图4所示为训练yolov4第一网络模型并进行无人机目标识别的算法流程图,采用深度卷积神经网络结构yolov4算法进行目标识别,提高了目标识别的精度。

在其中一个实施例中,通过yolov4第二网络模型进行目标跟踪,算法流程如图5所示,包括:将前一帧的全景图像的目标检测框作为目标区域,通过第一神经网络模型提取目标区域的特征;将当前帧的全景图像的目标检测框作为搜索区域,通过第二神经网络模型提取搜索区域的特征;使用全连接网络对目标区域的特征和搜索区域的特征进行特征比对,得到前一帧和当前帧中多个目标检测框的匹配关系;根据匹配关系确定与前一帧目标检测框匹配的当前帧目标检测框,将同一目标的目标检测框的中心点作为轨迹点,根据轨迹点绘制无人机目标的跟踪轨迹。

yolov4第二网络模型用于无人机目标跟踪,训练过程包括:获取多无人机运动视频;截取视频不同帧,使用标注软件LabelImg对每一帧进行多个目标的标注;将前一帧图片作为第一神经网络的输入,当前帧图片作为第二神经网络的输入,当前帧图片中无人机的检测框位置作为训练样本的输出,对神经网络进行训练,直到视频所有帧都参与训练过程,完成yolov4第二网络模型的训练。

采用深度卷积神经网络结构yolov4算法进行目标跟踪,提高了目标跟踪的精度。

在其中一个实施例中,根据轨迹点绘制无人机目标的跟踪轨迹之后,还包括:将跟踪轨迹数据发送到地面站系统,在地面站系统中进行实时高清显示。

地面站系统包括PC端,PC端上运行多无人机目标识别系统算法和多无人机目标跟踪系统算法,并将算法处理结果实时高清显示。

在其中一个实施例中,还包括:根据多组运动视频提取多组视频帧的序列图像,通过多GPU将序列图像按视频帧拼接得到无人机集群的全景图像。

采用复眼形式的目镜,使其适合用多GPU运行图像拼接算法,提高了图像拼接算法运行的速度。

在其中一个实施例中,还包括:根据多组运动视频,通过OpenCV技术提取多组视频帧的序列图像。

通过OpenCV技术进行序列图像的提取,处理速度快,可以进一步提高算法的执行效率。

应该理解的是,虽然图1的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图1中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。

在一个具体实施例中,如图6所示,提供了一种针对无人机集群的光电探测跟踪方法,包括:

(1)利用大视场仿生光学组件拍摄得到目标运动视频;

(2)采用OpenCV技术提取视频帧的序列图像;

(3)利用SIFT算法寻找序列图像中各像对的特征点,根据特征点坐标进行图像配准;

(4)最后应用像素级融合算法对图像进行处理,输出全景图像;

(5)制作数据集,使用预先标注好的训练集对yolov4网络模型进行迭代训练直至在测试集上满足正确率要求;

(6)运行训练好的基于yolov4的多无人机图像识别与定位算法,得到拍摄视频中的所有无人机的目标检测框及类别;

(7)运行多无人机目标预测与跟踪算法,得到后续帧图像中目标的位置及目标的运动轨迹;

(8)在地面站上将目标识别和跟踪结果实时高清显示。

在另一个具体实施例中,如图7所示,提供了一种针对无人机集群的光电探测跟踪系统,包括:大视场仿生光学组件、多路图源快速拼接系统、多无人机图像识别与定位算法模块、多无人机目标预测与跟踪算法模块和地面站系统。

其中,大视场仿生光学组件用于拍摄大范围实时图像并回传给多路图源快速拼接系统做图像拼接处理;多路图源快速拼接系统用于将大视场仿生光学组件回传的各部分子图像拼接成完整的图像;多无人机图像识别与定位算法用于识别检测无人机并标注出其当前位置和无人机种类;多无人机目标预测与跟踪算法用于运动中无人机的目标跟踪;地面站系统用于图像信息的转发处理并实时显示无人机检测和跟踪结果。

在一个实施例中,如图8所示,提供了一种针对无人机集群的光电探测跟踪系统,包括:运动视频获取模块802、图像拼接模块804、目标检测框标注模块806和跟踪轨迹绘制模块808,其中:

运动视频获取模块802,用于通过大视场仿生光学组件拍摄得到无人机集群的多组运动视频;大视场仿生光学组件由前级球形物镜和后级小口径透镜组阵列组成;

图像拼接模块804,用于根据多组运动视频提取多组视频帧的序列图像,将序列图像按视频帧拼接得到无人机集群的全景图像;

目标检测框标注模块806,用于通过训练好的yolov4第一网络模型对全景图像中的多无人机图像进行识别与定位,得到多个无人机的目标检测框和类别信息;

跟踪轨迹绘制模块808,用于通过训练好的yolov4第二网络模型对前一帧和当前帧的全景图像的目标检测框进行特征比对,并结合类别信息,得到前一帧和当前帧中多个目标检测框的匹配关系,根据匹配关系确定与前一帧目标检测框匹配的当前帧目标检测框,将同一目标的目标检测框的中心点作为轨迹点,根据轨迹点绘制无人机目标的跟踪轨迹。

运动视频获取模块802还用于根据多组运动视频提取多组视频帧的序列图像;对序列图像进行几何畸变校正和噪点抑制的预处理;通过基于SIFT的配准算法对预处理后的序列图像进行图像配准;通过像素级融合中的加权平均法对配准后的序列图像进行拼接,得到无人机集群的全景图像。

跟踪轨迹绘制模块808还用于将前一帧的全景图像的目标检测框作为目标区域,通过第一神经网络模型提取目标区域的特征;将当前帧的全景图像的目标检测框作为搜索区域,通过第二神经网络模型提取搜索区域的特征;对目标区域的特征和搜索区域的特征进行特征比对,得到前一帧和当前帧中多个目标检测框的匹配关系;根据匹配关系确定与前一帧目标检测框匹配的当前帧目标检测框,将同一目标的目标检测框的中心点作为轨迹点,根据轨迹点绘制无人机目标的跟踪轨迹。

跟踪轨迹绘制模块808还用于根据轨迹点绘制无人机目标的跟踪轨迹之后,将跟踪轨迹数据发送到地面站系统,在地面站系统中进行实时高清显示。

运动视频获取模块802还用于根据多组运动视频提取多组视频帧的序列图像,通过多GPU将序列图像按视频帧拼接得到无人机集群的全景图像。

运动视频获取模块802还用于根据多组运动视频,通过OpenCV技术提取多组视频帧的序列图像。

关于针对无人机集群的光电探测跟踪系统的具体限定可以参见上文中对于针对无人机集群的光电探测跟踪方法的限定,在此不再赘述。上述针对无人机集群的光电探测跟踪系统中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。

在一个实施例中,提供了一种计算机设备,该计算机设备可以是终端,其内部结构图可以如图9所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口、显示屏和输入装置。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统和计算机程序。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种针对无人机集群的光电探测跟踪方法。该计算机设备的显示屏可以是液晶显示屏或者电子墨水显示屏,该计算机设备的输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。

本领域技术人员可以理解,图9中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。

在一个实施例中,提供了一种计算机设备,包括存储器和处理器,该存储器存储有计算机程序,该处理器执行计算机程序时实现上述方法实施例中的步骤。

在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现上述方法实施例中的步骤。

本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。

以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。

以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

相关技术
  • 一种针对无人机集群的光电探测跟踪方法及系统
  • 一种无人机集群轨迹跟踪方法及系统
技术分类

06120112835432