掌桥专利:专业的专利平台
掌桥专利
首页

一种基于组合神经网络的分布式电源出力预测方法和设备

文献发布时间:2024-07-23 01:35:21


一种基于组合神经网络的分布式电源出力预测方法和设备

技术领域

本发明涉及分布式电源出力预测技术领域,具体涉及一种基于组合神经网络的分布式电源出力预测方法和设备。

背景技术

分布式能源的时序出力是一个典型的时间序列,其时间序列的特征参数在不同周期会存在典型差异,以光伏为例,其影响出力的核心参数光照强度和温度不仅在短周期的日内面对不同的天气状况,在中长周期还要考虑季节乃至经济等因素。传统的时间序列分析方法,要么先验地预设变量的概率分布,要么其模型难以覆盖所有的隐藏信息,同时在数据爆炸的今天,难以应付VPP面临的多控制节点并行计算的情景。

随着人工智能、机器学习等前沿技术的进步,神经网络已经越来越广泛地应用到各种需要预测时间序列用以优化决策的场景中。这些新型分析方法,虽然解释性不佳,但实用性却大大超过传统的数理统计方法。不过,不同的神经网络具备不同的优劣势,其适合处理问题的情景也不相同。长短期记忆网络(Long Short-Term Memory Network)由于具备简单递归神经网络不具备的持续记忆能力,可以有效挖掘长距离时序数据中的有效信息,从而广泛应用于机器翻译、故障预测、负荷预测等领域。但LSTM也存在长期单一训练会出现不稳定和梯度消失的问题,导致其无法捕捉更长周期中的信息相关性。而神经卷积网络(Convolution Neural Network)能够在较短距离的时间序列中提取高维特征,适合处理具备局部相关性的时序数据。如前所述,分布式电源的出力在长短周期都存在不同的影响因素,由于LSTM和CNN在技术优势上的互补性,因此将两者结合,应用于分布式能源的出力预测,是一个很好的思路,相关的研究已经出现成果。不过将LSTM和CNN单纯结合运用,仍然存在显著缺陷,即无法体现不同时序数据特征的重要程度。

发明内容

有鉴于此,本发明的目的在于提供一种基于组合神经网络的分布式电源出力预测方法和设备,以克服目前LSTM和CNN单纯结合运用无法体现不同时序数据特征的重要程度的问题。

为实现以上目的,本发明采用如下技术方案:

一方面,本申请提供了一种基于组合神经网络的分布式电源出力预测方法,包括:

获取所述分布式电源的出力影响因素个数;

根据所述出力影响因素个数,构建相应个数的CNN单元,并为每个所述CNN单元并行一个注意力支路,完成CNN-attention单元的构建;

将所有所述CNN-attention单元并行,并为每个所述CNN-attention单元对接一个LSTM,完成分布式电源出力预测模型的构建;

获取所述分布式电源的历史出力数据;

根据所述历史出力数据对所述分布式电源出力预测模型进行训练;

获取所述分布式电源的最新出力数据,并通过训练好的所述分布式电源出力预测模型进行所述分布式电源的出力预测。

进一步的,以上所述的方法,所述CNN单元包括:输入层、卷积层、池化层、全连接层和输出层;

通过所述卷积层对所述输入层输入的所述历史出力数据进行处理;

通过所述池化层对所述卷积层的输出结果进行下采样,剔除掉弱相关的样本,保留相关性强的样本;

通过所述全连接层对所述样本的特征向量进行加权求和,并通过所述输出层输出数据。

进一步的,以上所述的方法,所述通过所述全连接层对所述样本的特征向量进行加权求和,包括:

通过所述全连接层的输出机制公式,对所述样本的特征向量进行加权求和;

其中,所述全连接层的输出机制公式为:

其中,x

进一步的,以上所述的方法,所述注意力支路,包括:特征聚合功能模块和尺度恢复模块。

进一步的,以上所述的方法,所述CNN-attention单元的输出序列为:

Ω(i,l)=Ω

其中,Ω

进一步的,以上所述的方法,所述LSTM包括:记忆细胞、输入门、输出门和遗忘门。

进一步的,以上所述的方法,其特征在于所述输入门的输出状态为:

I

其中,σ表示Sigmoid函数;I

所述输入门控制的记忆细胞的状态更新值为:

其中,

所述遗忘门的输出为:

F

其中,W

所述记忆细胞在t时刻的状态为:

进一步的,以上所述的方法,还包括:

所述LSTM会在t时刻输出一个隐藏层数据序列h

所述隐藏层在t时刻的输出h

h

其中,O

O

进一步的,以上所述的方法,在所述根据所述历史出力数据对所述分布式电源出力预测模型进行训练之前,还包括:

通过自相关检验公式,对所述历史出力数据进行检验;

其中,所述自相关检验公式为:

其中,ACF(p

另一方面,本申请还提供了一种基于组合神经网络的分布式电源出力预测设备,包括处理器和存储器,所述处理器与存储器相连:

其中,所述处理器,用于调用并执行所述存储器中存储的程序;

所述存储器,用于存储所述程序,所述程序至少用于执行以上任一项所述的基于组合神经网络的分布式电源出力预测方法。

本发明的有益效果为:

本申请通过获取分布式电源的出力影响因素个数;根据出力影响因素个数,构建相应个数的CNN单元,并为每个CNN单元并行一个注意力支路,完成CNN-attention单元的构建;将所有CNN-attention单元并行,并为每个CNN-attention单元对接一个LSTM,完成分布式电源出力预测模型的构建;获取分布式电源的历史出力数据;根据历史出力数据对分布式电源出力预测模型进行训练;获取分布式电源的最新出力数据,并通过训练好的分布式电源出力预测模型进行分布式电源的出力预测。在本申请中,通过将注意力机制引入到标准CNN模型中,弥补CNN在挖掘短距离时序数据中的特征信息不足的缺陷,通过将改进的CNN与LSTM结合运用,实现分布式能源出力的长期稳定预测。

附图说明

为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。

图1是本发明一种基于组合神经网络的分布式电源出力预测方法一种实施例提供的流程图;

图2是本发明一种基于组合神经网络的分布式电源出力预测设备一种实施例提供的流程图。

具体实施方式

为使本发明的目的、技术方案和优点更加清楚,下面将对本发明的技术方案进行详细的描述。显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所得到的所有其它实施方式,都属于本发明所保护的范围。

图1是本发明一种基于组合神经网络的分布式电源出力预测方法一种实施例提供的流程图。请参阅图1,本实施例可以包括以下步骤:

S1、获取分布式电源的出力影响因素个数。

S2、根据出力影响因素个数,构建相应个数的CNN单元,并为每个CNN单元并行一个注意力支路,完成CNN-attention单元的构建。

S3、将所有CNN-attention单元并行,并为每个CNN-attention单元对接一个LSTM,完成分布式电源出力预测模型的构建。

S4、获取分布式电源的历史出力数据。

S5、根据历史出力数据对分布式电源出力预测模型进行训练。

S6、获取分布式电源的最新出力数据,并通过训练好的分布式电源出力预测模型进行分布式电源的出力预测。

可以理解的是,本申请通过获取分布式电源的出力影响因素个数;根据出力影响因素个数,构建相应个数的CNN单元,并为每个CNN单元并行一个注意力支路,完成CNN-attention单元的构建;将所有CNN-attention单元并行,并为每个CNN-attention单元对接一个LSTM,完成分布式电源出力预测模型的构建;获取分布式电源的历史出力数据;根据历史出力数据对分布式电源出力预测模型进行训练;获取分布式电源的最新出力数据,并通过训练好的分布式电源出力预测模型进行分布式电源的出力预测。在本申请中,通过将注意力机制引入到标准CNN模型中,弥补CNN在挖掘短距离时序数据中的特征信息不足的缺陷,通过将改进的CNN与LSTM结合运用,实现分布式能源出力的长期稳定预测。

优选的,CNN单元包括:输入层、卷积层、池化层、全连接层和输出层;

通过卷积层对输入层输入的历史出力数据进行处理;

通过池化层对卷积层的输出结果进行下采样,剔除掉弱相关的样本,保留相关性强的样本;

通过全连接层对样本的特征向量进行加权求和,并通过输出层输出数据。

优选的,通过所述全连接层对所述样本的特征向量进行加权求和,包括:

通过所述全连接层的输出机制公式,对所述样本的特征向量进行加权求和;

其中,所述全连接层的输出机制公式为:

其中,x

可以理解的是,改进的CNN单元包括标准的CNN单元和一个可以提取数据特征信息的注意力支路。其中,单个CNN单元的神经网络结果包括输入层、卷积层、池化层、全连接层和输出层。其中卷积层、池化层和全连接层在神经网络的应用结构中可以视为一个整体,即隐含层。CNN输出的数据大小为n×m,n表示特征序列长度,m表示维度。

当输入层输入数据后,卷积层的特征图像可表示为

其中,C表示输入数据在卷积层的抽象表达结果;f(·)表示激活函数,在CNN中常用的激活函数包括tanh、Sigmoid和Relu等,我们选取Sigmoid作为激活函数;

卷积层输出的结果进入池化层,池化层对卷积层结果进行下采样,剔除掉弱相关的样本,保留相关性强的样本,降低参数类别,防止模型过拟合。

全连接层的作用是将特征映射到样本标记空间。通过全连接层将神经元权重连接,并向下一层网络传递数据信息。全连接层的功能机制实质是对特征向量进行加权求和,并通过激活函数得到本层的输出。全连接层的输出机制可以表示为

上式中,x

全连接层输出数据经过输出层的非线性映射变换,得到CNN的输出结果,将该结果命名为Ω

优选的,注意力支路,包括:特征聚合功能模块和尺度恢复模块。

可以理解的是,注意力模块的主要功能是通过注意力机制,通过注意力评分函数将与数据特征重要性相关的因素序列进行赋值,从而挖掘数据中的关键信息。注意力机制的功能架构可以按照如下方法实现:

将多个卷积层和池化层串行作为注意力机制的特征聚合功能模块,为表述方便,我们假设有n

特征聚合功能模块需要处理的数据序列包括两个部分,分别为多个编码器原时刻的隐藏层变量序列

特征聚合模块输出的1×1的数据通过尺度恢复模块进行升维,恢复为n×m的数据序列,即与CNN输出的序列大小保持一致。

注意力机制的实现可以通过数学方法描述如下

当对系统发出一个查询q∈R

上式中,α(q,k

上式中,e表示注意力的基础评分函数,可以选择多种形式,在这里我们选择加性注意力的函数形式,具体表达式为

e=ν

上式中,ν

优选的,CNN-attention单元的输出序列为:

Ω(i,l)=Ω

其中,Ω

可以理解的是,由于分布式能源的出力受各种因素的影响,以光伏为例,其出力主要受日照和气温影响,在建模中,这些因素都可作为自变量。我们设计的单个CNN和注意力机制支路并行,可视作专门处理自变量序列中某个因素的部件,我们将其命名为CNN-Attention单元,多个CNN-Attention单元并行,共同向后面的LSTM输出挖掘信息特征后的数据序列。假设我们在预测光伏出力时,考虑的自变量有n个,截取的时间序列长度为m,那么对于单个CNN-Attention单元,其主要挖掘的是输入序列中关于某个自变量的特征信息。单个CNN-Attention单元最终的输出序列可表示为

Ω(i,l)=Ω

上式中,i表示自变量的时间序列在面板数据中的位置;l表示神经网络的通道设置;⊙表示两个序列的逐元素相乘。单个CNN-Attention单元输出的Ω(i,l)越接近1,表示该因素/自变量在模型中的重要性程度越高。Ω(i,l)将作为与CNN-Attention单元对接的LSTM的输入数据,进入其后的长序列数据分析过程中。

优选的,LSTM包括:记忆细胞、输入门、输出门和遗忘门。

优选的,输入门的输出状态为:

I

其中,σ表示Sigmoid函数;I

所述输入门控制的记忆细胞的状态更新值为:

其中,

所述遗忘门的输出为:

F

其中,W

所述记忆细胞在t时刻的状态为:

优选的,还包括:

所述LSTM会在t时刻输出一个隐藏层数据序列h

所述隐藏层在t时刻的输出h

h

其中,O

O

可以理解的是,我们将多个CNN-Attention单元并行,构成了挖掘自变量重要特征的应用层。其中每个CNN-Attention单元对接一个LSTM,与之前的应用层对应,多个LSTM并行构成了一个专门处理时间序列的应用层。

单个LSTM的主要结构包括记忆细胞、输入门、输出门和遗忘门。其中记忆细胞是LSTM的核心,负责保存重要的信息,并将这些信息传递给后面的网络层。记忆细胞的作用类似于我们的记忆力,它的特性是可以保存历史信息并应用于当前预测。神经元在每个时间步都会进行更新,然后由输入门、遗忘门和输出门来控制在每个时间步内如何更新和输出这个数值。输入门决定了当前输入信息是否写入记忆细胞,也就是说,能够控制输入信息对记忆细胞的影响。遗忘门决定记忆细胞应该保留哪些信息,而遗忘其他不重要的信息;输出门决定记忆细胞中的哪些信息应该向后面的神经网络输出。

这四个部分通过计算权重矩阵和输入信号的点积,并通过激活函数(通常是Sigmoid函数)计算出每个门的输出值,再乘上记忆细胞的状态值来进行最终计算。输入门通过其输出值乘上当前输入信号来决定将多少信息写入记忆细胞,遗忘门通过其输出值乘上当前记忆细胞的状态值来决定清除多少信息,输出门通过其输出值乘上当前记忆细胞的值来决定输出多少信息给后面的网络层。通过这样的结构设计,LSTM可以在保留重要信息的同时遗忘无关信息,更好地处理长时间依赖性的问题。

在t时刻,LSTM会输出一个隐藏层数据序列h

输入门在t时刻的输出状态可以表示为

I

上式中,σ表示Sigmoid函数;I

此时,输入门控制的记忆细胞的状态更新值为

上式中,

遗忘门决定上一时刻的细胞状态c

F

上式中,W

此时,隐藏层在t时刻的输出h

h

其中,O

O

由于我们的目标是时间序列预测,因此LSTM采用单向结构,设置好步长P,那么在最后一步的隐藏层输出数据h

通过将多个LSTM并行对接相应的CNN-attention单元,我们可以得到基于多因素的时间序列预测值。

优选的,在步骤S5之前,还包括:

通过自相关检验公式,对所述历史出力数据进行检验;

其中,所述自相关检验公式为:

其中,ACF(p

优选的,在步骤S6之前,还包括:

通过MAPE对所述分布式电源出力预测模型的训练结果进行评估。

在具体的实践中,面板数据包括自变量的选取和时间序列的处理。这里以光伏为例,我们选取日照强度、气温、已使用时长(以小时计)、季节因素等n个因素作为自变量,将上述自变量进行标序,形成一个样本的多维度集合,表示为n={1,2,3,4,5}。

接下来,我们要确定应该确定时间序列的长度。我们将光伏的每小时出力作为样本,进行如下的自相关检验

其中,ACF(p

那么,这n个自变量和m个时序样本共同形成了一个n×m的数据集,也就是我们预测使用的面板数据。

由于不同变量的单位不同,数值差别较大,先将所有类别的样本数据进行归一化处理。如果样本存在遗漏或者异常数据,采用均值临近插值的方法补全或替进行替换。根据我们选取的变量数目n,我们将n个CNN-attention单元并行组成一个应用层,LSTM与之对应。其中LSTM的步长设置为P,CNN的输入数据序列为

将处理好的数据输入,可以得到模型对于该m个小时的光伏出力,我们可以将其与光伏在该m个小时的真实历史数据序列{P

在评估模型的预测效果后,通过神经网络的反向传播机制,模型会不断更新参数权重,调整CNN-attention、LSTM的步长,直到损失函数控制在满意范围内,模型完成训练。

CNN和LSTM都是近年来公认的效果较好的神经网络,但由于各自的算法特点,他们各自运用于分布式能源的预测时,在面对周期不同的样本序列,分别存在不同的缺陷。将CNN和LSTM组合运用于分布式能源出力预测,能够发挥两者在面对短序列周期和中长序列周期的优点,实现模型的长效稳定。通过在CNN中引入注意力机制,能够充分挖掘数据中隐藏的有用特征,注意力机制能够不断优化机器学习的过程,提高模型的效率。

本发明还提供了一种基于组合神经网络的分布式电源出力预测设备,用于实现上述方法实施例。图2是本发明一种基于组合神经网络的分布式电源出力预测设备一种实施例提供的流程图。如图2所示,本实施例的基于组合神经网络的分布式电源出力预测设备包括处理器21和存储器22,处理器21与存储器22相连。其中,处理器21用于调用并执行所述存储器22中存储的程序;存储器22用于存储所述程序,所述程序至少用于执行以上实施例中的基于组合神经网络的分布式电源出力预测方法。

本申请实施例提供的基于组合神经网络的分布式电源出力预测设备的具体实施方案可以参考以上任意实施例的基于组合神经网络的分布式电源出力预测方法的实施方式,此处不再赘述。

可以理解的是,上述各实施例中相同或相似部分可以相互参考,在一些实施例中未详细说明的内容可以参见其他实施例中相同或相似的内容。

需要说明的是,在本发明的描述中,术语“第一”、“第二”等仅用于描述目的,而不能理解为指示或暗示相对重要性。此外,在本发明的描述中,除非另有说明,“多个”的含义是指至少两个。

流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现特定逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本发明的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本发明的实施例所属技术领域的技术人员所理解。

应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。

本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。

此外,在本发明各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。

上述提到的存储介质可以是只读存储器,磁盘或光盘等。

在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。

尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。

相关技术
  • 一种基于ARIMA模型的分布式光伏出力功率预测方法
  • 一种基于人工神经网络的分布式电源频率检测方法
  • 基于预测负荷与分布式电源出力的坚强配电网方法
  • 基于自适应神经网络的光伏出力预测方法、设备、介质
技术分类

06120116678628