掌桥专利:专业的专利平台
掌桥专利
首页

一种利用高分辨率遥感影像识别建筑垃圾消纳场状态的方法

文献发布时间:2023-06-19 16:11:11



技术领域

本发明涉及时空遥感、语义分割技术,具体涉及一种利用高分辨率遥感影像识别建筑垃圾消纳场状态的方法。

背景技术

建筑垃圾消纳场是存放、处理建筑工地产生的建筑垃圾的场所,不同于生活垃圾,建筑垃圾可能包含一些有毒有害物质,比如油漆等,还有混凝土块,石头,砖,废钢筋等这些不可腐烂的东西,需要单独处理,有的经过处理可以再利用。在城市内部,这些建筑垃圾需要集中处理,所以任何建筑施工单位产生的垃圾都需要由建筑施工监管部门统一调度,利用高分辨率遥感卫星识别建筑垃圾消纳场的功能亟待开发,以便于对地面信息实时监管,对建筑垃圾及时、正确安置。

为此,本专利提出一种利用高分辨遥感影像识别建筑垃圾消纳场状态的方法。该方法基于DeepLabv3+网络结构,对GF-2遥感数据进行建筑垃圾消纳场识别,基于识别后数据集进行内部区域分布计算,包括建筑垃圾工地区域和影像背影以及工地内的已堆放区域、建筑垃圾消纳场工程设施四类。基于对内部区域的测算,可得出对该消纳场消纳潜力的估计,促进城市建筑垃圾的监管及城市资源的合理调度。

发明内容

本发明的技术解决问题是:一种利用高分辨率遥感影像识别建筑垃圾消纳场状态的方法,实现对建筑垃圾消纳场的实时监控。

本发明的技术解决方案为:一种利用高分辨率遥感影像识别建筑垃圾消纳场状态的方法,首先获取GF-2遥感影像数据,对数据进行存储和预处理。然后基于优化后DeepLabv3+神经网络对具有空间信息的建筑垃圾消纳场遥感影像数据集进行消纳场识别,并对测试集中的影像进行识别同时对识别结果评估。其具体步骤如下:

(1)获取GF-2遥感影像数据,对数据进行存储和预处理。

步骤(1)中,对于获取的GF-2遥感数据,采用标准数据结构进行数据规约。

进一步,对GF-2遥感数据进行高效存储。既可以采用关系型数据库,通过结构化方式,也可以采用NoSQL数据库,通过非结构化方式,进行数据的逻辑存储与管理;既可以采用集中式高性能存储设备,也可以采用分布式集群方式进行建筑物遥感影像数据的物理存储与优化。

对GF-2某区域遥感影像数据进行预处理,首先写入空间信息。在确保精度的前提下,使用Python语言编写的程序将对应区域的矢量图空间信息写入高分辨率遥感影像中。

(2)对遥感影像进行切割、筛选。

步骤(2)中,将写入信息后的遥感影像(.tif)数据经过Python程序切割为500*500像素的图像(.png),之后将图像集经过人工筛选,剔除不含建筑垃圾消纳场的图像。

(3)对筛选后的图像进行标注。

步骤(3)中,将筛选后的图像使用PhotoShop软件对建筑垃圾消纳场图片用白色(255,255,255)标注工地区域、黑色(0,0,0)标注影像背影以及工地内红色(255,0,0)标注已堆放区域、蓝色(0,0,255)标注建筑垃圾消纳场工程设施的。

(4)用基于pytorch架构的优化后的DeepLabV3+神经网络对标注后的数据集进行训练。

步骤(4)中,关于DeepLabV3+神经网络的训练包括:

(a)建筑垃圾消纳场特征识别。将建筑垃圾消纳场样本数据库一部分作为训练集,一部分作为测试集,构建消纳场特征识别模型,模型主要基于开源的DeepLabv3+神经网络,为了提升准确率和精确度而对网络结构做出优化的神经网络模型为主体。

(b)网络主干部分采用ResNet34对图像进行特征提取,主干网络在对比了ResNet34、ResNet50、ResNet101和LANet等网络后,选择了识别结果准确率和精确度表现最好的ResNet34网络。

(c)引入双注意力机制。在双注意力模块中,特征图先后经过通道注意力模块和位置注意力模块,加入了双注意力及之后使得最终识别结果的准确率显著提升。在位置注意力模块中输入的特征图(c,h,w)通过1x1的卷积压缩提取出长度为C/8代表key的向量和长度为C/8代表query的向量。key和query相乘,得到(HxW)x(HxW)的矩阵。对于空间上每个点的得到的H x W向量要通过softmax使得其总和大小为1,得到的矩阵可以看做通过注意力机制得到的权重。将这个权重与提取的特征图相乘,再与原来的特征图相加得到最终的结果。在通道注意力机制模块中,key,query直接由输入的特征图(c,h,w)reshape而来,相乘后得到通道间的相似度,每一行要减去最大的相似值。使用softmax对每一行进行处理,使其总和为1,得到注意力权重。将这个权重与原特征图相乘,再整体乘上一个可学习的系数gamma即可得到输出。

(5)用训练所得的模型进行预测和结果评估。

步骤(5)中,对测试集和预测集中的影像利用python语言编写的基于pytorch架构的pred.py和eval.py进行预测和评估的,评估详细结果包括Acc(准确率)、Avg F1(平均F1分数)、mloU(均交并比)和Pre(精确度)等会以.txt文件输出。

本发明与现有技术相比的优点在于:

1、提供了一种对高分辨率遥感卫星影像识别消纳场的高准确率的识别模型,相较现有的技术,该模型识别过程用时短,识别结果更准确。

2、采用空洞卷积的方法进行建筑垃圾消纳场特征识别,同传统的卷积方式相比,DeepLab v3+参考了目标检测中特征融合策略,使网络保留更多的浅层信息,在扩大感受野的同时获得了更丰富的特征图像结果,实现将底层的特征与高层特征进行进一步的融合,提升分割边界的准确度。

3、在DeepLabv3+模型的Encoder层的主体网络和ASPP模块之间加入了双注意力机制,即既包含空间注意力机制,又包含通道注意力机制。位置注意力模块能够模拟出丰富的全局特征上下文信息,从而使得不同位置同特征进行增强,提高语义分割能力;空间注意力模块能够使语义分割模型提取的不同通道的高层语义特征图是某个特定类型的预测,且不同类型的语义之间具有特定的联系。双注意力机制同时具有上述两层优点,使得预测结果的准确率做出了提升。

4、在DeepLabv3+模型中主网络输出后的1x1卷积和ASPP模块后的1x1卷积以及高低水平特征图的3x3卷积都替换为深度可分离卷积,也使得最后预测率、平均F1分数、mloU和准确度都得到了提升。

附图说明

图1为本发明的整体流程图。

具体实施方式

为了使本技术领域的人员更好地理解本发明实施例的方案,下面结合附图和实施方式对本发明实施例作进一步的详细说明。

如图1所示,本发明包括以下步骤:

1、数据存储:对GF-2遥感数据进行存储,可以采用集中式高性能计算设施,利用高性能服务器、高速网络和高速存储设备集群,物理存储高分辨率遥感数据,也可以采用分布式集群方式,利用分布式计算环境和存储结构进行建筑物高分辨率遥感数据的物理存储。

2、数据预处理:对遥感图像进行初步处理,包括写入信息、图像切割、图像过滤;

写入信息:将用QGIS软件中获取的矢量图与GF-2遥感卫星进行配准后通过Python程序将信息写入影像中。

图像切割:将配准好的矢量图与遥感影像切割为统一像素的图像。

图像过滤:将切割好的遥感影像与对应的矢量图进行对照,过滤掉无建筑垃圾消纳场的影像。

3、对过滤后的影像进行标注,按照建筑垃圾消纳场的内部区域分布制作出标注集;

影像标注:使用PhotoShop软件对建筑垃圾消纳场图片用白色(255,255,255)标注工地区域、黑色(0,0,0)标注影像背影以及工地内红色(255,0,0)标注已堆放区域、蓝色(0,0,255)标注建筑垃圾消纳场工程设施的。

4、对标注好的遥感影像数据集进行消纳场识别,具体步骤包括:建筑垃圾消纳场特征识别、输出消纳场特征图。

建筑垃圾消纳场特征识别:将建筑垃圾消纳场样本数据库一部分作为训练集,一部分作为测试集,构建消纳场特征识别模型,模型主要以DeepLabv3+网络模型为主体进行优化的,网络主要分为Encoder层和Decoder层:

(a)DeepLabV3+的Encoder层,Encoder层的backbone(主干网络)使用的是带有空洞卷积的ResNet34分类网络,将最后两个下采样层的stride设置为1,输出两个特征图,一个低水平特征图进入Decoder层,另一个高水平特征图通过双注意力机制通道后进入采用带有空洞卷积的空间金字塔池化模块(ASPP),具体组成包括:

1.一个1*1的卷积和3个3*3的空洞卷积,膨胀率为6、12、18;

2.全局平均池化,获得图像级的特征。

通过ASPP模块后在经过一个1x1的深度可分离卷积后进入Decoder层。

(b)DeepLabV3+的Decoder层。将ResNet34网络输入进来的低水平特征图通过一个1x1的深度可分离卷积与另一个输入进来的经过上采样后的高水平特征图结合,结合后通过一个3x3的深度可分离卷积后上采样输出图像。

5、通过训练后所得的模型进行预测和评估,最后储存结果。

预测和评估:在预测和评估程序中添加训练后的模型,将输出预测特征图和评估数据。

存储分割预测结果:采用集中式高性能计算设施或利用分布式计算环境和存储结构,将建筑垃圾消纳场识别后数据进行物理存储。

以上对本发明实施例进行了详细介绍,本文中应用了具体实施方式对本发明进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。

相关技术
  • 一种利用高分辨率遥感影像识别建筑垃圾消纳场状态的方法
  • 一种高分辨率遥感影像新增建筑自动识别方法
技术分类

06120114729364