掌桥专利:专业的专利平台
掌桥专利
首页

一种基于生成对抗网络的地震资料随机噪声盲去噪方法

文献发布时间:2023-11-17 06:30:03



技术领域

本发明属于计算机技术领域,尤其是数据增强以及图像去噪技术领域,涉及一种对含有不同随机噪声图像实现盲去噪的方法,特别是一种基于改进的梯度惩罚生成对抗网络的图像去噪方法。

背景技术

传统的图像去噪模型主要有四大类,分别是基于空间域、基于变换域、自然统计法以及稀疏表示法。其中较为典型方法是中值滤波法,这是一种较为流行的基于空间域的方法,但是这种方法忽略了图像每个像素自身的特征,转而倾向于把握整体特征,导致去噪图像出现细节模糊、边界融合等现象;基于变换域的BLS-GSM,这种方法能够保留少部分像素本身的特征信息,但总体效果较差;基于稀疏表示法的NLSC,这种方法能保留较多的特征信息,但是计算时间较长,训练成本高;基于自然统计的BM3D,此种方法只能去除某种特定的噪声。

基于深度学习的去噪方法,利用深度学习的非线性与算法的高效性、深度的图像去噪模型被大量提出。其中基于自编码网络、卷积神经网络、生成对抗网络广泛应用于图像去噪领域。基于自编码网络DCAENN,可以较好的去掉训练时已知的噪声,但不能针对不同噪声或未知噪声进行盲去噪,泛化能力较差;基于栈式稀疏去噪自编码网络,通过多个栈相结合,将稀疏编码和去噪编码预训练的深度神经网络相结合进行图像去噪,但这种方法属于有监督算法,只能针对训练集已知噪声进行去噪,对盲去噪的去噪能力极其有限;基于残差网络的ResNet能够处理未知噪声水平的高斯噪声,但不能去除种类不同的噪声;基于基本的基于条件生成的对抗生成网络GAN,将噪声数据与标签数据反复对抗判别,起到了盲去噪的目的,但训练难度较大,且容易发生梯度消失或者梯度爆炸的情况。

目前,大多数地震数据去噪技术因其固有的繁重计算量导致模型参数推导速度慢,细节效果与边缘特征辨别困难,从而限制了其落地于实际应用场景。因此,急需提出一种能提高精度且泛化能力强的去噪方案,从而提高模型对噪声图像的感知能力,增强去噪性能。

发明内容

1.发明目的

本发明的目的是针对现在实际工区提取到的地震图像所含的噪声是多种随机噪声叠加而非单一高斯噪声,提供一种基于改进的梯度惩罚生成对抗网络的地震资料随机噪声盲去噪方法,使得模型能够更好的拟合图片的真实特征信息,不局限于单种噪声,以更好的表达图片的结构特征,达到盲去噪的目的。

2.技术方案

一种基于梯度惩罚生成对抗网络的地震资料随机噪声盲去噪方法,其特征在于包括以下步骤:

步骤1:使用实际工区m张原始尺寸为S

其中,m∈Z

步骤2:构建基于改进残差与改进通道注意力机制融合的特征提取模块,所述改进的特征融合模块包括以下结构:

步骤2.1:构建改进的残差特征提取模块对数据特征进行粗提取,该模块包括以下结构:

首先,给定一个批次数据x

其中,x

步骤2.2:构建改进的基于通道注意力机制模块对上述融合特征后的信息H′进行进一步特征细化,该特征提取模块包括以下结构:

首先,分别将输入的融合特征信息H′进行x方向和y方向的全局平均池化,得到1×100和100×1的两个特征向量,然后,将这两个特征向量进行矩阵相乘运算的特征融合,得到融合后的特征图H″,接着,将该特征图输入到一个含有三通道多尺度扩张卷积的特征提取模块进行多尺度特征叠加,叠加后的特征信息使用Concate进行通道上的拼接,得到特征图Z,再将叠加后的特征图Z输入到卷积核大小为1×1的卷积模块进行降维并用σ

其中,由输入特征信息H′到H″的计算公式为:

步骤3:引入一个新的梯度惩罚项的梯度计算公式来拉大判别器对于真假样本的特征差距,该计算公式如下:

首先,引入距离函数的生成对抗网络WGAN实现了计算特征距离的功能,|f(x

其中f(x

步骤4:将步骤2构建的改进的特征提取模块引入步骤3的新的梯度惩罚函数并设计组合成一个完整的生成器网络G,同时设计一个合适的判别器网络D进行对抗训练:

步骤4.1:首先构建一个A、B双通道生成器G网络,每个通道包括四个步骤2所述的改进残差与改进通道注意力机制融合的特征提取模块;

步骤4.2:构造一个由n个卷积结构拼接的判别器用于学习对抗,n∈Z

步骤4.3:设置学习率Lr,Lr∈(0,0.1);批尺寸大小Bz,Bz∈Z

步骤4.4:将实际工区

步骤5:调用一个完整训练周期后的模型进行测试:将

3.本发明创新点表现在:

(1)与传统的残差网络相比,上述改进的残差模块采用先激活再卷积的组合形式,保证了输入卷积层数据的非零性,同时采用自适应卷积代替固定的卷积操作,在维持网络复杂度不变的同时,提高了特征数量以及识别精度。

(2)与传统的通道注意力机制相比,上述改进的通道注意力机制在处理不同方向平均池化时采用了矩阵相乘来实现特征融合,而非简单的通道拼接,并且采用三通道多尺度扩张卷积块提取特征,提高了相邻像素点之间的特征差异性,同时也提高了识别精度。

(3)与带距离函数的生成对抗网络WGAN相比,改进了梯度惩罚的损失函数,使得传统损失函数计算出的距离特征能更进一步扩大,大大提高了模型的感知力,提高了相邻特征的内间关联性。

4.有益效果

本发明公开了一种针对现在实际工区地震图像噪声是多种噪声叠加的随机噪声而非单一高斯噪声,提供一种基于梯度惩罚生成对抗网络的地震资料随机噪声盲去噪方法,首先通过改进的残差网络结构减少了地震图像大部分噪声,通过改进的通道注意力机制模块让图像的细节部分得到调整,提高了模型的结构相似度;最后使用改进的梯度惩罚损失函数来更进一步修正图片真是结构与生成图像之间的差距,此方法在保证了模型盲去噪目的的同时,也提高了模型的精度与泛化能力。

附图说明

图1为生成对抗网络整体的算法流程图,输入原始数据集到生成器中进行图像生成,再将生成的图像与真实数据一同输入到判别器中判断真伪,将判定为真的数据保存到模型参数中并进行下一次训练,将判定为假的数据返回到起始位置重新生成训练;

图2为生成器G改进残差结构的模块结构图,输入数据尺寸统一为100×100,先经过批归一化操作后进入LeakyRelu激活函数激活,然后再进入自适应卷积层进行特征提取,重复上诉操作两次,并将输出与输入进行通道上的拼接,构成残差结构;

图3为生成器G改进通道注意力机制的模块结构图,首先,将输入100×100的数据进行x和y方向上的全局平均池化,得到1×100和100×1的特征向量进行矩阵相乘运算,然后,通过三通道多尺度的扩张卷积运算,卷积核大小分别为3×3、5×5、7×7,扩张率为1、2、3,提取特征进行通道上的拼接,最后,经过一个3×3的卷积操作后进行双通道的卷积降维操作,卷积核为1×1,激活函数为Sigmoid;

图4为完整的改进后的梯度惩罚生成对抗网络生成器G的结构图,将改进的残差模块和通道注意力机制模块拼接成一个整体模块P,每个通道上有四个这样的模块P,一共两个通道;

图5为使用梯度惩罚生成对抗网络去噪后的效果子图,其中第一列为人工去噪后的真实子图像,第二列为含随机噪声子图像,第三列为模型去噪后的效果子图;

图6为将所有效果子图去噪后再拼接成的整体图,左边是人工去噪后的真实图像,中间是含随机噪声图像,右边是模型去噪后的效果图;

具体实施方式

为了使本发明的目的、技术方案及有益效果更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明,实施例采用自制模拟炮集数据共30炮。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明,即所描述的实施例仅是本发明一部分实施例,而不是全部的实施例。

步骤1:使用实际工区30张原始尺寸为301×1501的含有未知噪声的地震数据图片制作训练集和测试集,首先,将30张切面图按照一定比例划分为训练集和测试集,对每张图片的尺寸进行预处理操作,均处理为300×1500的尺寸,然后,对每张预处理后的图片进行切割,每张图片切割成45张长宽为100×100的子图片,总共切割出1350张子图片,其中训练集子图共1080张,测试集子图270张,形成模型训练所需要的训练集和测试集;

步骤2:构建基于改进残差与改进通道注意力机制融合的特征提取模块,所述改进的特征融合模块包括以下结构:

步骤2.1:构建改进的残差特征提取模块对数据特征进行粗提取;

步骤2.2:构建改进的基于通道注意力机制模块对上述融合特征后的信息H′进行进一步特征细化;

步骤3:引入一个新的梯度惩罚项的梯度计算公式来拉大判别器对于真假样本的特征差距;

步骤4:将步骤2构建的改进的特征提取模块引入步骤3的新的梯度惩罚函数并设计组合成一个完整的生成器网络G,同时设计一个合适的判别器网络D进行对抗训练:

步骤4.1:首先构建一个A、B双通道生成器G网络,每个通道包括四个步骤2所述的改进残差与改进通道注意力机制融合的特征提取模块;

步骤4.2:构造一个由n个卷积结构拼接的判别器用于学习对抗,n∈Z

步骤4.3:设置学习率Lr=0.0001,批尺寸大小Bz=10,训练周期E=20000,以及优化器Adam;

步骤4.4:将实际工区1080张切割完成的100×100大小的地震噪声图片和其对应的人工去噪后的图片放入模型进行训练,并保存一个完整训练周期后的模型;

步骤5:调用一个完整训练周期后的模型进行测试:将270张尺寸为100×100的地震噪声图片放入该模型进行去噪测试,并将所有去噪后的子图按照切割方向和大小还原成原始尺寸为300×1500的图片。

表1是该方法与不同方法之间的去噪效果对比,其中评价指标为峰值信噪比PSNR,计算公式为:

表1本发明方法与不同模型的识别准确率对比

Tab.1 Our method improves the recognition rate of various models

技术分类

06120116305561