掌桥专利:专业的专利平台
掌桥专利
首页

一种自干扰消除方法及装置

文献发布时间:2023-06-19 10:11:51


一种自干扰消除方法及装置

技术领域

本发明涉及全双工通信领域技术领域,尤其涉及一种自干扰消除方法及装置。

背景技术

面对自干扰信号中包含的射频器件造成的非线性效应,传统方法需要结合相关先验知识来建立数学模型以刻画非线性效应,之后再通过信道估计方法来获得模型参数,重建自干扰信号。

由于极其依赖相关先验知识,如果发生模型失配的情况,将会导致消除效果严重恶化,而人工设计模型估计相关参数的方法效率较为低下。并且结合传统深度神经网络存在以下劣势,全连接层神经网络仅仅是利用了多层感知机与非线性激活函数具有一定程度能够减少特征提取过程以及对待拟合函数非线性近似的能力,而无法针对特有的高维数据存在空频相关性、时间相关性等特点进行处理。

发明内容

本发明目的在于,提供一种自干扰消除方法及装置,通过在输入层中引入三维张量或在卷积层设置复数卷积层结构,分别设计了两种重建自干扰信号的网络结构,充分利用卷积神经网络局部感知和权值共享的优势,能够捕捉到数据的空频特性,从而在高维特征中学习到更抽象的低维特征,从而能提高自干扰消除的效果。

为实现上述目的,本发明实施例提供一种自干扰消除方法,其特征在于,包括:

t时刻获取基带信号x(t),将所述基带信号x(t)导入输入层和卷积层的训练模型得到输出信号,所述训练模型包括:在所述输入层引入三维张量或在所述卷积层设置复数卷积层结构;

将所述输出信号输入LSTM层,所述LSTM层用于处理带有时序的序列,输出结果至全连接层,所述全连接层用于对所述输出结果进行数据的维度变换,得到维度变换结果;

根据所述维度变换结果输入至输出层,所述输出层输出两个神经元。

优选地,所述在所述输入层引入三维张量,包括:

所述基带信号x(t),分为实部和虚部;

根据所述实部和虚部构建三维张量,所述三维张量还包括原始数据的样本量和记忆长度;

将所述三维张量输入所述卷积层,完成所述训练模型,得到输出信号。

优选地,所述基带信号x(t),所述输入层分为实部输入层和虚部输入层;

根据所述实部输入层和虚部输入层,分别输入所述卷积层进行复卷积,得到实部复卷积层和虚部复卷积层,再进行级联,完成所述训练模型,得到输出信号。

优选地,所述根据所述实部和虚部,分别输入所述卷积层进行复卷积,得到实部复卷积层和虚部复卷积层,再进行级联,完成所述训练模型,得到输出信号,还包括:

所述复卷积,如下:

其中,x,y分别代表样本实部虚部,A,B代表复卷积核。

本发明实施例提供还提供一种自干扰消除装置,应用于上述任一实施例中的一种自干扰消除方法,包括:

卷积模块,根据t时刻获取基带信号x(t),将所述基带信号x(t)导入输入层和卷积层的训练模型得到输出信号;所述卷积模块,包括第一子模块或第二子模块,所述第一子模块包括,在所述输入层引入三维张量,所述第二子模块包括,在所述卷积层设置复数卷积层结构;

处理模块,将所述输出信号输入LSTM层,所述LSTM层用于处理带有时序的序列,输出结果至全连接层,所述全连接层用于对所述输出结果进行数据的维度变换,得到维度变换结果;

输出模块,根据所述维度变换结果输入至输出层,所述输出层输出两个神经元。

优选地,所述第一子模块,包括:

所述基带信号x(t),分为实部和虚部;

根据所述实部和虚部构建三维张量,所述三维张量还包括原始数据的样本量和记忆长度;

将所述三维张量输入所述卷积层,完成所述训练模型,得到输出信号。

优选地,所述第二子模块,包括:

所述基带信号x(t),所述输入层分为实部输入层和虚部输入层;

根据所述实部输入层和虚部输入层,分别输入所述卷积层进行复卷积,得到实部复卷积层和虚部复卷积层,再进行级联,完成所述训练模型,得到输出信号。

优选地,所述第二子模块,还包括:

所述复卷积,如下:

其中,x,y分别代表样本实部虚部,A,B代表复卷积核。

本发明的实施例中,通过在输入层中引入三维张量或在卷积层设置复数卷积层结构,分别设计了两种重建自干扰信号的网络结构,充分利用卷积神经网络局部感知和权值共享的优势,能够捕捉到数据的空频特性,从而在高维特征中学习到更抽象的低维特征,从而能提高自干扰消除的效果。

附图说明

为了更清楚地说明本发明的技术方案,下面将对实施方式中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。

图1是本发明某一实施例提供的一种自干扰消除方法的流程示意图;

图2是本发明另一实施例提供的一种自干扰消除方法的流程示意图;

图3是本发明又一实施例提供的网络结构图;

图4是本发明某一实施例提供的一种自干扰消除方法的流程示意图;

图5是本发明另一实施例提供的网络结构图;

图6是本发明又一实施例提供的功率谱密度图;

图7是本发明某一实施例提供的功率谱密度图;

图8是本发明另一实施例提供的功率谱密度图;

图9是本发明又一实施例提供的功率谱密度图;

图10是本发明某一实施例提供的一种自干扰消除装置的结构示意图;

图11是本发明某一实施例提供的一种自干扰消除装置的结构示意图。

具体实施方式

下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。

应当理解,文中所使用的步骤编号仅是为了方便描述,不对作为对步骤执行先后顺序的限定。

应当理解,在本发明说明书中所使用的术语仅仅是出于描述特定实施例的目的而并不意在限制本发明。如在本发明说明书和所附权利要求书中所使用的那样,除非上下文清楚地指明其它情况,否则单数形式的“一”、“一个”及“该”意在包括复数形式。

术语“包括”和“包含”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。

术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。

请参阅图1,本发明实施例提供一种自干扰消除方法,包括以下步骤:

S101、t时刻获取基带信号x(t),将所述基带信号x(t)导入输入层和卷积层的训练模型得到输出信号,所述训练模型包括:在所述输入层引入三维张量或在所述卷积层设置复数卷积层结构;

在具体的实施例中,同时同频全双工通信是指一套通信设备或装置在相同介质资源中使用相同的时间和频率资源,同时发射和接收电磁信号。同时同频全双工通信发射机发射的信号,传输到接收机接收支路中的信号被称为自干扰信号,大功率的同频发射信号会影响接收机的弱信号接受能力。

发射和接收的数字基带信号x(t),将此基带信号输入神经网络中进行训练得到一个新的网络,包括:

请参照图2和图3,在一实施例中,获取基带信号x(t),分为实部和虚部,根据所述实部和虚部构建三维张量,所述三维张量还包括原始数据的样本量和记忆长度,将所述三维张量输入所述卷积层,完成所述训练模型,得到输出信号。

CLDNN=CNN+LSTM+DNN的神经网络结构,其中,CNN可以减小频率的偏移变化,LSTM则很适合对时序语音进行建模,DNN就可以对特征进行非线性映射到一个抽象空间进行有效分离。传统的CLDNN网络以卷积神经网络(CNN)、长短时记忆网络(LSTM)和全连接层网络(DNN)级联组成。实部虚部二维神经网络(2D-CLDNN)的设计源于图像处理领域中处理多通道图像的方案,在算法设计中引入三维张量,其中各维度分别表征原始数据的样本量、记忆长度M+L(M和L分别代表器件时间相关性和多径长度)与实虚部。实部虚部二维CLDNN(2D-CLDNN)不需要针对基带信号的实部虚部分别设计神经网络输入层,因此能大大减少待估计的网络参数,同时显著提高每轮训练速度。此外,在卷积层可以充分利用复基带信号的实部虚部联合特性,且考虑复数的相位信息,因此能更加逼近自干扰信号的本质以更好地对信号进行近似。卷积层输出的信号输入到LSTM层后,算法充分利用LSTM特有的处理时间序列任务的优势,准确地反映了自干扰信号具有时间相关性的特点。

请参照图4和图5,在另一实施例中,获取基带信号x(t),所述输入层分为实部输入层和虚部输入层,根据所述实部输入层和虚部输入层,分别输入所述卷积层进行复卷积,得到实部复卷积层和虚部复卷积层,再进行级联,完成所述训练模型,得到输出信号。

具体的,在传统的深度神经网络的基础上,设置了复卷积层结构,与实部虚部两层输入神经元分别的输出进行复数卷积操作:

其中,x,y分别代表样本实部虚部,A,B代表复卷积核。

复数卷积神经网络(CC-CLDNN)通过复卷积核与输入样本的实部虚部进行模仿复数运算的复卷积运算,同样充分考虑了复基带信号包含的相位信息,更好地对自干扰信号进行刻画和重建。

参照表1,基于以上两个实施例,综合考虑不同的信道条件对记忆长度M+L(记忆长度参数将会对网络输入张量维度和网络结构输入层神经元个数产生影响)的影响通过对实测信道获得数据集进行算法的软件仿真。分别选择M+L=8、13、20三种参数进行仿真计算,将传统的网络结构(实值神经网络RVNN和实虚部分割复神经网络CVNN-split与本发明实施例(2D-CLDNN和CC-CLDNN)非线性干扰效果进行对比:

表1每种网络的非线性干扰效果对比结果

请参照图6和表1,在当记忆长度设定在13时,2D-CLDNN和CC-CLDNN的非线性自干扰消除效果分别达到了7.7dB和7.89dB。与之相比,其余三种方法(多项式模型、实值神经网络和实虚部分割复神经网络)表现均差于CLDNN网络,当记忆长度设定为8时,实值神经网络RVNN的消除效果大幅下降,仅仅达到了5.94dB。经过两种CLDNN网络的自干扰消除后,可以分别达到-88.49dBm和-88.3dBm的效果,已经非常逼近基底噪声-90.8dBm的水平。

请参照图7,当记忆长度M+L设定为13时,当两种CLDNN网络在训练轮数达到60轮后,非线性干扰消除效果均逼近8dB,但是在测试集上表现出轻微波动。此外实值神经网络RVNN表现略高于6dB,但测试集表现相对稳定,而实虚部分割复神经网络CVNN-split的消除效果略高但仍低于两种CLDNN网络。CLDNN网络在测试集上表现的波动程度源于其网络结构相对复杂,可能造成了一定程度的过拟合,但是这种过拟合效应可以通过进一步调整训练轮数、学习率和优化使用样本批量大小来克服。

请参照图8,当记忆长度M+L设定为8时,每一种网络的自干扰消除效果均发生了不同程度的恶化。但是两种CLDNN网络仍能保持在7dB的消除效果。而实值神经网络则只能逼近6dB,在这种情况下消除效果受到了较严重的恶化。

请参照图9,当记忆长度M+L设定为20时,各种网络的消除效果接近记忆长度设定为13时的表现。但此时实虚部分割复神经网络在测试集上的表现发生了较大恶化。

S102、将所述输出信号输入LSTM层,所述LSTM层用于处理带有时序的序列,输出结果至全连接层,所述全连接层用于对所述输出结果进行数据的维度变换,得到维度变换结果;

在具体的实施例中,接收到卷积层输出信号,其中,输出信号是经过特征提取和降维后导入LSTM层,LSTM层与全连接层连接,用于接收LSTM层的输出结果,对所述输出结果进行数据的维度变换,得到维度变换结果。其中,全连接层与卷积层是等价的,输出结果在全连接层中将结果转化为卷积层的输出结果,达到训练模型的效果。

S103、根据所述维度变换结果输入至输出层,所述输出层输出两个神经元。

全连接层连接到两个输出层,其中,两个输出层分别为实部输出层和虚部输出层。

本发明实施例优点在于,通过在输入层中引入三维张量或在卷积层设置复数卷积层结构,分别设计了两种重建自干扰信号的网络结构,充分利用卷积神经网络局部感知和权值共享的优势,能够捕捉到数据的空频特性,从而在高维特征中学习到更抽象的低维特征,从而能提高自干扰消除的效果。

请参阅图10和图11,本发明实施例提供一种自干扰消除装置,应用于上述任意一个实施例中的一种自干扰消除的方法,包括:

卷积模块,根据t时刻获取基带信号x(t),将所述基带信号x(t)导入输入层和卷积层的训练模型得到输出信号;所述卷积模块,包括第一子模块或第二子模块,所述第一子模块包括,在所述输入层引入三维张量,所述第二子模块包括,在所述卷积层设置复数卷积层结构;

在具体的实施例中,同时同频全双工通信是指一套通信设备或装置在相同介质资源中使用相同的时间和频率资源,同时发射和接收电磁信号。同时同频全双工通信发射机发射的信号,传输到接收机接收支路中的信号被称为自干扰信号,大功率的同频发射信号会影响接收机的弱信号接受能力。

发射和接收的数字基带信号x(t),将此基带信号输入神经网络中进行训练得到一个新的网络,卷积模块包括:第一子模块11或第二子模块12包括:

请参照图2和图3,在一实施例中,在第一子模块11中,获取基带信号x(t),分为实部和虚部,根据所述实部和虚部构建三维张量,所述三维张量还包括原始数据的样本量和记忆长度,将所述三维张量输入所述卷积层,完成所述训练模型,得到输出信号。

CLDNN=CNN+LSTM+DNN的神经网络结构,其中,CNN可以减小频率的偏移变化,LSTM则很适合对时序语音进行建模,DNN就可以对特征进行非线性映射到一个抽象空间进行有效分离。传统的CLDNN网络以卷积神经网络(CNN)、长短时记忆网络(LSTM)和全连接层网络(DNN)级联组成。实部虚部二维神经网络(2D-CLDNN)的设计源于图像处理领域中处理多通道图像的方案,在算法设计中引入三维张量,其中各维度分别表征原始数据的样本量、记忆长度M+L(M和L分别代表器件时间相关性和多径长度)与实虚部。实部虚部二维CLDNN(2D-CLDNN)不需要针对基带信号的实部虚部分别设计神经网络输入层,因此能大大减少待估计的网络参数,同时显著提高每轮训练速度。此外,在卷积层可以充分利用复基带信号的实部虚部联合特性,且考虑复数的相位信息,因此能更加逼近自干扰信号的本质以更好地对信号进行近似。卷积层输出的信号输入到LSTM层后,算法充分利用LSTM特有的处理时间序列任务的优势,准确地反映了自干扰信号具有时间相关性的特点。

请参照图4和图5,在另一实施例中,在第二子模块12中,获取基带信号x(t),所述输入层分为实部输入层和虚部输入层,根据所述实部输入层和虚部输入层,分别输入所述卷积层进行复卷积,得到实部复卷积层和虚部复卷积层,再进行级联,完成所述训练模型,得到输出信号。

具体的,在传统的深度神经网络的基础上,设置了复卷积层结构,与实部虚部两层输入神经元分别的输出进行复数卷积操作:

其中,x,y分别代表样本实部虚部,A,B代表复卷积核。

复数卷积神经网络(CC-CLDNN)通过复卷积核与输入样本的实部虚部进行模仿复数运算的复卷积运算,同样充分考虑了复基带信号包含的相位信息,更好地对自干扰信号进行刻画和重建。

参照表1,基于以上两个实施例,综合考虑不同的信道条件对记忆长度M+L(记忆长度参数将会对网络输入张量维度和网络结构输入层神经元个数产生影响)的影响通过对实测信道获得数据集进行算法的软件仿真。分别选择M+L=8、13、20三种参数进行仿真计算,将传统的网络结构(实值神经网络RVNN和实虚部分割复神经网络CVNN-split与本发明实施例(2D-CLDNN和CC-CLDNN)非线性干扰效果进行对比:

表1每种网络的非线性干扰效果对比结果

请参照图6和表1,在当记忆长度设定在13时,2D-CLDNN和CC-CLDNN的非线性自干扰消除效果分别达到了7.7dB和7.89dB。与之相比,其余三种方法(多项式模型、实值神经网络和实虚部分割复神经网络)表现均差于CLDNN网络,当记忆长度设定为8时,实值神经网络RVNN的消除效果大幅下降,仅仅达到了5.94dB。经过两种CLDNN网络的自干扰消除后,可以分别达到-88.49dBm和-88.3dBm的效果,已经非常逼近基底噪声-90.8dBm的水平。

请参照图7,当记忆长度M+L设定为13时,当两种CLDNN网络在训练轮数达到60轮后,非线性干扰消除效果均逼近8dB,但是在测试集上表现出轻微波动。此外实值神经网络RVNN表现略高于6dB,但测试集表现相对稳定,而实虚部分割复神经网络CVNN-split的消除效果略高但仍低于两种CLDNN网络。CLDNN网络在测试集上表现的波动程度源于其网络结构相对复杂,可能造成了一定程度的过拟合,但是这种过拟合效应可以通过进一步调整训练轮数、学习率和优化使用样本批量大小来克服。

请参照图8,当记忆长度M+L设定为8时,每一种网络的自干扰消除效果均发生了不同程度的恶化。但是两种CLDNN网络仍能保持在7dB的消除效果。而实值神经网络则只能逼近6dB,在这种情况下消除效果受到了较严重的恶化。

请参照图9,当记忆长度M+L设定为20时,各种网络的消除效果接近记忆长度设定为13时的表现。但此时实虚部分割复神经网络在测试集上的表现发生了较大恶化。

处理模块121,将所述输出信号输入LSTM层,所述LSTM层用于处理带有时序的序列,输出结果至全连接层,所述全连接层用于对所述输出结果进行数据的维度变换,得到维度变换结果;

在具体的实施例中,接收到卷积层输出信号,其中,输出信号是经过特征提取和降维后导入LSTM层,LSTM层与全连接层连接,用于接收LSTM层的输出结果,对所述输出结果进行数据的维度变换,得到维度变换结果。其中,全连接层与卷积层是等价的,输出结果在全连接层中将结果转化为卷积层的输出结果,达到训练模型的效果。

输出模块131,根据所述维度变换结果输入至输出层,所述输出层输出两个神经元。

全连接层连接到两个输出层,其中,两个输出层分别为实部输出层和虚部输出层。

本发明实施例优点在于,通过在输入层中引入三维张量或在卷积层设置复数卷积层结构,分别设计了两种重建自干扰信号的网络结构,充分利用卷积神经网络局部感知和权值共享的优势,能够捕捉到数据的空频特性,从而在高维特征中学习到更抽象的低维特征,从而能提高自干扰消除的效果。

以上所述是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也视为本发明的保护范围。

相关技术
  • 重构自干扰的装置和方法、自干扰消除的设备和方法
  • 一种自干扰信号的消除装置及消除方法
技术分类

06120112452807