掌桥专利:专业的专利平台
掌桥专利
首页

技术领域

本申请涉及无人机巡检技术领域,特别是涉及一种面向目标检测和视觉定位的无人机边缘计算系统和方法。

背景技术

近年来,随着制造技术、材料技术和计算机信息技术的更新换代,无人机的智能化水平飞速发展。无人机具有机动性高、操作门槛低和自主控制能力强等特点,可适应各种复杂地形和气候环境,在军事和民用领域取得了广泛地应用。对无人机航拍图像进行目标检测也成为计算机视觉领域的研究热点,无人机搭载可见光和红外云台,可收集大量不同角度和不同高度的高质量图像数据,为军事侦察和民用消防救援等提供更多有用信息。长期以来,多数学者将无人机作为数据采集设备,研究注意力主要集中在对无人机获取的图像进行分析处理上。随着人工智能的发展,学界提出了越来越多的深度学习目标检测模型,如Faster R-CNN和YOLO系列等,算法检测精确度和目标丰富度越来越高,但同时模型的网络结构也越来越复杂,所需的存储空间和计算量较大,数据从无人机传回地面端进行处理分析后再反馈给用户所需时间较长效率不高,这种方法受制于通信传输能力,对无人机数据的利用性不高,地面站提取信息后与无人机的交互反馈效率较低,对提供决策参考的检测跟踪定位算法精度影响较大,容易错失宝贵的救援和侦察时机。同时,目标定位依赖于目标检测算法所提供的目标像素坐标和无人机本身的位姿状态,因此设备性能和数据的准确性是实现目标高精度定位的重要前提,受通信传输能力和可靠性的影响,将数据统一传回地面站容易出现数据丢失、数据不匹配和精确度不高的问题,极大的限制了无人机目标检测和定位的应用范围。

目前,为实现数据的实时处理而开发的现有机载处理系统可扩展性不强,机载计算平台计算能力有限,对较大的检测模型的检测速度和部署不友好,这些因素制约了在无人机上进行实时的人工智能、图像处理等应用的开发。如为提高无人机数据的机上处理能力和响应速度,帮助开发者为复杂业务定制专业解决方案,各公司和科研团队不断推出适用于各无人机平台的机载计算机。2019年,大疆针对无人机开发推出机载计算机妙算Manifold 2,妙算2G配备NVIDIA Jetson tx2可快速处理大量机载数据,实现图像处理、目标识别和传感器数据综合分析处理等功能,但由于妙算2系统高度集成可支持的系统版本仅为ubuntu16.04并且目前已经停产,无法继续支持更高版本和更复杂的深度学习模型,这就极大限制了在其平台上完成更高性能的算法部署实现工作。

在算法设计上,很多无人机航拍目标检测高性能算法模型体积大,所用推理时间较长,无法实现实时的图像目标检测,此时的检测结果再回传到地面端会产生较大的时延,使检测结果的信息反馈作用效率较低。

发明内容

基于此,有必要针对人机航拍数据利用率不高、数据传输的延时、现有机载计算平台可扩展性低的技术问题,提供了一种面向目标检测和视觉定位的无人机边缘计算系统和方法。该系统是可扩展编程的实时数据采集、传输和计算处理系统,在该系统的基础上实现实时目标检测和视觉定位可以有效拓展无人机在各行业的智能化应用,同时实际使用中根据需求编程扩展,在很大程度上解放人力降低成本提高行业效益。

一种面向目标检测和视觉定位的无人机边缘计算系统,所述系统包括:无人机、云台、机载计算机、信息传输模块、数图传通信模块、机载供电模块以及地面站。

所述云台搭载在所述无人机上,用于航拍图像的拍摄和存储。

所述信息传输模块安装在所述无人机上,用于将无人机上的提供的OSDK接口拓展为USB接口、UART接口和XT30电源输出接口。

所述机载计算机安装在所述无人机上,所述机载计算机通过所述UART接口与所述无人机通信,通过USB接口获取所述云台拍摄的图像数据;用于部署训练好的基于YOLOX的航拍目标检测模型,并通过安装的ROS操作系统订阅无人机云台的航拍图像数据,采用单机无源视觉定位算法,通过坐标系转换解算检测各目标在地理坐标系中的真实位置;所述航拍目标检测模型用于对云台航拍图像中的十类目标进行实时检测。

所述数图传通信模块包括数图传的移动端和地面端,所述移动端与所述机载计算机连接,所述数图传的地面端通过网络与所述地面站连接,数图传的地面端通过锂电池供电。

所述地面站为笔记本电脑,用于检测跟踪画面的实时接收和查看以辅助指挥中心进行快速决策。

所述机载供电模块安装在所述无人机上,用于为所述机载计算机、数图传的移动端供电。

一种面向目标检测和视觉定位的无人机边缘计算方法,所述方法应用在上述任一所述的面向目标检测和视觉定位的无人机边缘计算系统中的机载计算机中,实现无人机机载平台对地航拍目标的实时检测和定位;所述方法包括:

打开Nomochine远程连接到机载计算机端,确认机载计算机与无人机通信正常。

获取做好起飞前准备的无人机在起飞位置点的位置坐标数据。

运行定位检测程序,订阅无人机吊舱摄像头视频流和无人机位姿数据。

将订阅的无人机吊舱摄像头视频流进行格式转换,将得到的图像输入到训练好的基于YOLOX的航拍目标检测模型,对每张图像中的目标进行检测,得到各帧图像中各目标类别和目标在图像中的像素位置。

根据各目标在图像中的像素位置,采用单机无源视觉定位算法,通过坐标系转换解算检测各目标在地理坐标系中的真实位置。

根据各帧图像中各目标类别和各目标在地理坐标系中的真实位置,对每张图像进行标注,并将标注好检测定位信息的图像传输到地面站。

上述面向目标检测和视觉定位的无人机边缘计算系统和方法,该系统在无人机上搭载云台和机载计算机,在机载计算机上部署基于YOLOX的航拍目标检测模型和单机无源视觉定位算法,机载计算机对云台获取到的数据信息进行实时处理,将检测到的目标位置信息和目标关键帧传回地面控制站,减轻网络负担和后方情报处理压力。同时可以将处理后的信息保存到机载计算平台上,以便后续查看。该系统可应用在消防救援、军事侦察等领域,将会极大的提高救援和侦察效率,加快决策速度,更好的保障人员的生命安全。

附图说明

图1为一个实施例中面向目标检测和视觉定位的无人机边缘计算系统的整体实物图;

图2为一个实施例中面向目标检测和视觉定位的无人机边缘计算系统的硬件组成图;

图3为一个实施例中面向目标检测和视觉定位的无人机边缘计算方法的流程示意图;

图4为另一个实施例中面向视觉定位的无人机的边缘计算方法示意图;

图5为另一个实施例中面向目标检测和视觉定位的无人机边缘计算方法的流程示意图;

图6为另一个实施例中正午光照条件下检测效果;

图7为另一个实施例中夜晚光照条件下检测效果;

图8为另一个实施例中雾天天气条件下检测效果

图9为另一个实施例中雨天天气条件下检测效果;

图10为另一个实施例中密集目标数量下检测效果;

图11为另一个实施例中稀疏目标数量下检测效果;

图12为另一个实施例中桥面背景下检测效果;

图13为另一个实施例中球场背景下检测效果;

图14为另一个实施例中实时检测定位示效果。

具体实施方式

为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。

在一个实施例中,如图1、图2所示,提供了一种面向目标检测和视觉定位的无人机边缘计算系统,该系统包括:无人机1、云台2、机载计算机3、信息传输模块4、数图传通信模块5、机载供电模块6以及地面站7。

云台2搭载在无人机1上,用于航拍图像的拍摄和存储。

信息传输模块4安装在无人机1上,用于将无人机1上的提供的OSDK接口拓展为USB接口、UART接口和XT30电源输出接口。作为优选,信息传输模块4选用OSDK扩展组件,OSDK扩展组件将M300 RTK无人机上提供的OSDK接口拓展为USB Type-A、UART串口和XT30电源输出接口三个标准接口,机载计算机3通过连接UART接口与无人机1通信,机载计算机3通过连接USB接口获取无人机1搭载的云台拍摄的图像数据。

机载计算机3安装在无人机1上,机载计算机3通过UART接口与无人机1通信,通过USB接口获取云台2拍摄的图像数据;机载计算机3用于部署训练好的基于YOLOX的航拍目标检测模型,并通过安装的ROS操作系统订阅无人机云台的航拍图像数据,采用单机无源视觉定位算法,通过坐标系转换解算检测各目标在地理坐标系中的真实位置;航拍目标检测模型用于对云台航拍图像中的十类目标进行实时检测。

具体的,由于机载计算机算力有限,为平衡检测效果与检测速度选择YOLOX-s检测网络,所使用的推理模型为该算法在VisDrone航拍检测数据集上训练得到,支持对行人、人、汽车、面包车、巴士、卡车、摩托车、自行车、遮阳篷-三轮车和三轮车十类目标的检测。为实现实时检测功能,训练得到的高性能检测模型被转化为TensorRT推理引擎支持的engine高性能推理模型并将其部署在机载计算机模块上,通过设置置信度和NMS非最大值抑制值,调用推理模型即可检测目标并为每一帧图像中的目标画框标注类别标签,用于对无人机摄像头航拍图像中的十类目标进行实时检测。

在机载计算机还用于根据目标检测结果采用单机无源视觉定位算法完成目标定位任务。单机无源视觉定位算法是通过坐标系转换解算检测到的各目标在地理坐标系中的真实位置。在起飞前获取无人机起飞原点的经纬度和绝对高度,在检测到目标后利用该目标所在图像帧时刻的无人机位置、姿态信息及目标在图像中的像素位置解算目标所在真实地理位置。

数图传通信模块5包括数图传的移动端501和地面端502,数图传的移动端501与机载计算机连接,数图传的地面端502通过网络与地面站连接,配置机载计算机1与地面站7在同一局域网下,地面站1打开Nomochine远程连接即可接收机载计算机1实时画面;数图传的地面端通过锂电池供电。

地面站7为笔记本电脑,用于检测跟踪画面的实时接收和查看以辅助指挥中心进行快速决策。作为优选,地面站7选用个人电脑ThinkPad T470笔记本电脑。

机载供电模块6安装在无人机1上,用于为机载计算机3、数图传的移动端501供电。

本系统是一套可拓展的边缘计算实时检测跟踪系统,相比于传统的数据传输至地面站后再进行处理,该系统实时性强,可将实时计算结果传输至地面端,并且可将检测结果保存至机载计算机可供后续调用;相比传输至地面端再进行检测,数据更安全更完整,算法精度更好,不受传输链路的分辨率影响,检测的准确率更高;结合目标检测技术和空间三维无源视觉定位技术实现实时准确的目标检测和定位,将目标点类别和真实位置实时回传至地面站,辅助地面指挥中心快速高效做出决策。本系统实现了空中机载平台对地航拍目标的实时检测和定位,完成了视角内检测目标的计数统计任务,实现了无人机飞行高度在100m时定位精度维持在3m以内。

上述面向目标检测和视觉定位的无人机边缘计算系统中,该系统在无人机上搭载云台和机载计算机,在机载计算机上部署基于YOLOX的航拍目标检测模型和单机无源视觉定位算法,机载计算机对云台获取到的数据信息进行实时处理,将检测到的目标位置信息和目标关键帧传回地面控制站,减轻网络负担和后方情报处理压力。同时可以将处理后的信息保存到机载计算平台上,以便后续查看。该系统可应用在消防救援、军事侦察等领域,将会极大的提高救援和侦察效率,加快决策速度,更好的保障人员的生命安全。

进一步的,无人机为DJI M300RTK无人机。

具体的,DJI M300RTK无人机具备六向定位避障与可视化飞行辅助界面的无人机,满足IP45防护等级,支持55分钟超长续航和最远15公里图传距离,可同时支持3个有效负载,具有丰富的SDK开放接口。

进一步的,云台为禅思H20T云台。

具体的,禅思H20云台集合三传感器,集成2000万像素变焦相机、1200万像素广角相机以及探测距离达1200米的激光测距仪于一身,直观呈现可见光与热成像画面。配合DJIM300RTK无人机可实现大点定位、智能跟踪、复拍、超清矩阵拍照等智能功能。

进一步的,机载计算机为边缘计算设备NVIDIA Jetson AGX Orin。

具体的,机载计算机为NVIDIA Jetson最新的边缘计算设备NVIDIA Jetson AGXOrin,搭载2048个NVIDIA CUDA核心和64个Tensor Core的NVIDIA Ampere架构,算力高达275TOPS,功率配置范围15W至60W,运行JetPack5.0,包括基于Ubuntu 20.04的根文件系统,带有CUDA 11.4、TensorRT 8.4和cuDNN 8.3的最新计算堆栈。用于部署训练完毕的目标检测的深度学习模型,并通过安装的ROS操作系统订阅无人机摄像头数据完成对云台航拍图像数据的实时推理检测和定位。

进一步的,数图传通信模块为ZGET Homer数图传的移动端和地面端。

具体的ZGET Homer数图传用于无人机与地面站之间的远距离通信,通信距离为2~5公里。

进一步的,机载供电模块为DJI多功能电源模块、24V转12V稳压模块。

在一个实施例中,如图3所示,提供了一种面向目标检测和视觉定位的无人机边缘计算方法,该方法应用在上述任一面向目标检测和视觉定位的无人机边缘计算系统中的机载计算机中,实现无人机机载平台对地航拍目标的实时检测和定位;方法包括:

步骤300:打开Nomochine远程连接到机载计算机端,确认机载计算机与无人机通信正常。

具体的,配置机载计算机NVIDIA Jetson AGX Orin和地面站ThinkPad T470笔记本电脑在同一局域网下,T470笔记本电脑打开Nomochine软件连接到机载计算机的远程桌面。

编辑OSDK ROS中.launch配置文件,设置DJI OSDK的用户ID、Key和自行配置的波特率等信息,检查串口连接状态确认机载计算机与无人机通信建立成功。

步骤302:获取做好起飞前准备的无人机在起飞位置点的位置坐标数据。

具体的,无人机的起飞前准备包括:将无人机手柄连接网络,设置网络RTK服务(采用载波相位动态实时差分定位方法,服务提供商可以实时快速地提供观测点在指定坐标系中的三维定位结果,并达到厘米级精度)。

在无人机做好起飞准备后,获取无人机起飞点位置O点的WGS84坐标数据(B,L,H),在北东地坐标系中坐标为(0,0,0)。

步骤304:运行定位检测程序,订阅无人机吊舱摄像头视频流和无人机位姿数据。

具体的,在ROS环境中打开终端,运行OSDK ROS主节点,发布无人机航拍图像消息、无人机WGS84位置消息和云台姿态消息;在ROS环境中重新打开一个终端,运行目标检测定位节点;订阅主节点发布的无人机航拍图像消息、无人机WGS84位置消息和云台姿态消息数据,并利用ROS中的ApproximateTimeSynchronizer方法对三类消息进行时间同步;将同步后的订阅消息传递给回调函数。

步骤306:将订阅的无人机吊舱摄像头视频流进行格式转换,将得到的图像输入到训练好的基于YOLOX的航拍目标检测模型,对每张图像中的目标进行检测,得到各帧图像中各目标类别和目标在图像中的像素位置。

步骤308:根据各目标在图像中的像素位置,采用单机无源视觉定位算法,通过坐标系转换解算检测各目标在地理坐标系中的真实位置。

步骤310:根据各帧图像中各目标类别和各目标在地理坐标系中的真实位置,对每张图像进行标注,并将标注好检测定位信息的图像传输到地面站。

具体的,利用步骤306预测出的目标结果,以目标左上角为原点,在图像中对各目标画框明确位置,在目标框左上角标明目标的类别和步骤308预测出的目标真实相对地理位置;将标注好检测定位信息的图像传递回地面站。

在其中一个实施例中,基于YOLOX的航拍目标检测模型是YOLOX-s基于VisDrone检测数据集训练的面向行人、人、汽车、面包车、巴士、卡车、摩托车、自行车、遮阳篷-三轮车和三轮车十类目标的Pytorch检测模型,将该模型转换为ONNX格式并利用TensorRT加速转换为engine权重模型;

将订阅的无人机吊舱摄像头视频流进行格式转换,将得到的图像输入到训练好的基于YOLOX的航拍目标检测模型,对每张图像中的目标进行检测,得到各帧图像中各目标类别和目标在图像中的像素位置,步骤306包括:将订阅的无人机吊舱摄像头视频流通过cv_bridge库由ROS格式转换为CV格式;将格式转换后的图像输入到训练好的基于YOLOX的航拍目标检测模型中,在Backbone中提取图像不同尺度的特征,在Neck层中对提取的这些特征进行融合,最后在Head部分推理图像中含有的目标位置和类别;设置预测置信度和非最大值抑制阈值;对所有的预测框按概率排序,对于概率最大的预测目标框和其他框相比较若满足预设条件,则保留该预测框,迭代至概率最小的目标框,将保留的所有预测框作为目标框;预设条件为:

IOU(bbox_max,bbox_cur)>NMS

其中,bbox_max为概率最大的预测目标框,bbox_cur为其他框,NMS为非最大值抑制阈值。

计算所有目标框的置信分数,若置信分数大于预测置信度,则该目标框作为最终预测结果,完成目标检测任务。

在其中一个实施例中,步骤308包括:获取每个目标的中心点在图像中像素的位置(x,y),获取当前帧无人机所在WGS84坐标位置信息(B

具体的,获取每个目标的中心点在图像中像素的位置,获取当前帧无人机所在WGS84坐标位置信息、云台俯仰偏航横滚角度信息和云台相机焦距像素尺寸信息;将当前帧图像信息和各目标像素位置信息传入单机无源视觉定位算法中,结合起飞点坐标数据获得各目标的真实位置,完成目标定位任务。

在其中一个实施例中,对无人机航拍图像的目标进行定位实质上是确定机载相机坐标系与世界坐标系的转换关系,针对无人机目标定位问题,建立如下多个坐标系并确定转换关系,单机无源视觉定位算法示意图如图4所示。单机无源视觉定位算法具体包括:采用坐标单位转换公式将坐标单位由像素转换到对应的物理距离上;坐标单位转换公式为:

其中,(x,y)表示像素点在图像上的位置,(x',y')表示在以摄影中心为原点的坐标系下该像素点的物理坐标,φ

计算目标点M在相机坐标系下的成像点N的北东地坐标

其中,(roll,yaw,pitch)为云台姿态信息翻滚角、偏航角、俯仰角,R

将T时刻无人机位置S点在大地坐标系上的坐标(B

其中,a为WGS-84地球椭圆长半轴,a=6378137m,(B,L,H)为大地坐标系下的坐标,e为偏心率,e

计算目标点M点的北东地坐标,即目标点实际位置;目标点实际位置的计算表达式为:

/>

其中,

在一个实施例中,如图5所示,提供了一种面向目标检测和视觉定位的无人机边缘计算方法,具体步骤包括:

第一步,打开Nomochine远程连接到机载计算机NVIDIA Jetson AGX Orin端,确认orin与无人机通信正常。

(1)配置机载计算机NVIDIA Jetson AGX Orin和ThinkPad T470笔记本电脑在同一局域网下,T470笔记本电脑打开Nomochine软件连接到Orin远程桌面;

(2)编辑OSDK ROS中.launch配置文件,设置DJI OSDK的用户ID、Key和自行配置的波特率等信息,检查串口连接状态确认Orin与无人机通信建立成功;

第二步,无人机做好起飞前准备后,开始获取起飞点的各项数据。

(1)无人机手柄连接网络,设置网络RTK服务接收网络RTK信号;

(2)获取无人机起飞点位置O点的WGS84坐标数据;

第三步,运行检测定位程序,订阅无人机吊舱摄像头视频流和无人机位姿数据。

(1)在ROS环境中打开终端,运行OSDK ROS主节点,发布无人机航拍图像消息、无人机WGS84位置消息和云台姿态消息;

(2)在ROS环境中重新打开一个终端,运行目标检测定位节点;

(3)订阅主节点发布的无人机航拍图像消息、无人机WGS84位置消息和云台姿态消息数据,并利用ROS中的.ApproximateTimeSynchronizer方法对三类消息进行时间同步;

(4)将同步后的订阅消息传递给回调函数;

第四步,对每张航拍图像中的十类目标进行检测,得到各帧图像中各目标类别和目标的像素位置。

(1)加载训练好的基于YOLOX的航拍目标检测模型,该模型是YOLOX-s基于VisDrone检测数据集训练的面向行人、人、汽车、面包车、巴士、卡车、摩托车、自行车、遮阳篷-三轮车和三轮车十类目标的Pytorch检测模型,将该模型转换为ONNX格式并利用TensorRT加速转换为.engine权重模型。

(2)将订阅的图像消息由ROS格式转换为CV格式,读取该图像调用航拍目标检测模型,在Backbone中提取图像不同尺度的特征,在Neck层中对提取的这些特征进行融合,最后在Head部分推理图像中含有的目标位置和类别。

(3)设置预测置信度和非最大值抑制两个值,得到对该帧图像中目标的最终预测结果,完成目标检测任务。

第五步,将第四步预测出的各目标在图像中的像素位置传入视觉定位算法解算各目标的真实地理位置。

(1)获取每个目标的中心点在图像中像素的位置,获取当前帧无人机所在WGS84坐标位置信息、云台俯仰偏航横滚角度信息和云台相机焦距像素尺寸信息。

(2)将当前帧图像信息和各目标像素位置信息传入单机无源视觉定位算法中,结合起飞点坐标数据获得各目标的真实位置,完成目标定位任务。

第六步,将得到的检测定位结果展示在实时航拍图像中并传输至地面站。

(1)利用第四步预测出的目标结果,以目标左上角为原点,在图像中对各目标画框明确位置,在目标框左上角标明目标的类别和第五步预测出的目标真实相对地理位置。

(4)将标注好检测定位信息的图像传递回地面站。

应该理解的是,虽然图3和图5的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图3和图5中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。

在一个验证性实施例中,基于搭建的无人机边缘计算系统在不同环境、不同天气条件下对面向目标检测和视觉定位的无人机边缘计算方法进行实验验证。

(1)目标检测实验效果

本发明训练的目标检测模型可以识别行人、人、汽车、面包车、巴士、卡车、摩托车、自行车、遮阳篷-三轮车和三轮车十类目标,并且在目标不同密集程度、不同环境背景、不同光照条件下检测和计数的效果鲁棒。

图6-图14是本实施例中设计的面向目标检测无人机的边缘计算方法在不同场景下对地面上感兴趣目标的检测和计数效果;其中图6、图7分别为正午和夜晚不同光照条件下检测效果,图8、图9分别为雾天和雨天不同天气条件下检测效果,图10、图11分别为密集和稀疏不同目标数量下检测效果,图12、图13分别为桥面和球场不同背景下检测效果。

表1是本发明设计的面向目标检测无人机的边缘计算方法在汽车等十类目标下对各类别目标的检测精度:

表1各类目标检测精度

从目标检测结果图像和检测精度数据中可以得出,本发明设计的面向目标检测无人机的边缘计算方法能较好的实现无人机视角下的目标检测任务,在多种场景下对无人机拍摄的地面目标都有较好的检测效果,目标的检测框与图像定位结果准确,为后续准确跟踪定位打下基础。

(2)目标检测定位实验效果

本发明选取车辆目标进行定位精度测试实验,在25m、50m、75m、100m、125m、150m、175m、200m八个高度分别获取无人机的姿态(roll,yaw,pitch),获取无人机在各高度时的大地坐标(B,L,H),各图像在传入目标检测模型后得到白色车辆目标的中心点位置,经由视觉定位算法计算车辆的真实坐标,车辆位置真值由无人机RTK测得。

计算面向目标检测和视觉定位的无人机的边缘计算方法中视觉定位在各高度图像上的定位RMSE误差如表2所示。

表2不同高度下定位RMSE误差

系统实时检测定位效果如图14所示。可以看出本发明仅采用单机无源视觉定位的方法,在保证了对检测到的目标实时定位的同时实现了在无人机飞行高度100m的条件下,定位误差控制在了3m以内的精度。

以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。

以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

技术分类

06120115935641