掌桥专利:专业的专利平台
掌桥专利
首页

基于联邦学习的光伏发电组合预测方法、装置及电子设备

文献发布时间:2023-06-19 19:30:30


基于联邦学习的光伏发电组合预测方法、装置及电子设备

技术领域

本发明涉及光伏技术领域,尤其涉及一种基于联邦学习的光伏发电组合预测方法、装置及电子设备。

背景技术

光伏发电受到许多不可控因素的影响,如太阳辐射、温度、湿度、风速和方向等,因此,准确预测光伏发电非常困难。光伏发电的不可预测性不仅影响经济效率,而且对大规模并网后电力系统运行的稳定性、可靠性和调度产生不利影响。可靠的光伏发电系统对于电网的安全稳定运行至关重要,因此,准确预测光伏发电量非常重要。

目前,光伏功率预测方法通常可以分为物理预测方法、统计预测方法、人工智能预测方法和混合预测方法。物理预测方法主要是基于大气中的物理规律与太阳辐射之间的相互作用来建立预测的物理模型,该方法建模复杂,计算量大,短期预测结果不理想。统计预测方法主要基于预测模型的输入和输出之间的相关性,并根据一定的统计规律进行预测,该方法仅依赖历史太阳数据来建立模型,以捕捉天气变量与光伏发电之间的关系,并且预测过程相对简单。基于人工智能的光伏电力预测模型不依赖电力与其影响因素之间的关系,而是从大量历史数据中学习来进行预测,该方法在处理具有良好鲁棒性和准确性的非平稳太阳辐射强度序列方面具有巨大优势。为了克服单一模型处理数据的缺点,混合预测方法将上述各预测方法相结合,以实现高预测精度。

然而,现有的混合预测方法依赖于具有足够多的样本和足够丰富的特征的训练数据集,而实际情况是发电数据样本数量和特征普遍不足,并且不同区域的发电数据通常严格保密,使得混合预测方法预测光伏发电的效果较差。

发明内容

本发明实施例提供了一种基于联邦学习的光伏发电组合预测方法、装置及电子设备,以解决因训练数据不足使得混合预测方法预测光伏发电的效果较差的问题。

第一方面,本发明实施例提供了一种基于联邦学习的光伏发电组合预测方法,包括:

对待训练的预设初始模型进行联邦学习训练,得到训练后的模型参数;

根据训练后的模型参数,生成光伏发电组合预测模型;

利用光伏发电组合预测模型对待预测光伏区域进行光伏发电预测;

其中,联邦学习训练由联邦服务器和多个本地服务器执行,多个本地服务器分别对应互不相同的且数据不共享的一个光伏区域;本地服务器根据所在光伏区域的训练数据集和由联邦服务器分发的不同训练轮次的聚合模型参数,对预设初始模型进行训练;联邦服务器对接收的本地服务器在不同训练轮次上传的本地模型参数进行模型聚合处理,得到下一轮次的聚合模型参数,直至得到符合预设条件的训练后的模型参数,停止联邦学习训练。

第二方面,本发明实施例提供了一种基于联邦学习的光伏发电组合预测方法装置,包括:

模型训练模块,用于对待训练的预设初始模型进行联邦学习训练,得到训练后的模型参数;

模型生成模块,用于根据训练后的模型参数,生成光伏发电组合预测模型;

预测模块,用于利用光伏发电组合预测模型对待预测光伏区域进行光伏发电预测;

其中,联邦学习训练由联邦服务器和多个本地服务器执行,多个本地服务器分别对应互不相同的且数据不共享的一个光伏区域;本地服务器根据所在光伏区域的训练数据集和由联邦服务器分发的不同训练轮次的聚合模型参数,对预设初始模型进行训练;联邦服务器对接收的本地服务器在不同训练轮次上传的本地模型参数进行模型聚合处理,得到下一轮次的聚合模型参数,直至得到符合预设条件的训练后的模型参数,停止联邦学习训练。

第三方面,本发明实施例提供了一种电子设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如上第一方面或第一方面的任一种可能的实现方式所述方法的步骤。

本发明实施例提供一种基于联邦学习的光伏发电组合预测方法、装置及电子设备,其首先对待训练的预设初始模型进行联邦学习训练,得到训练后的模型参数。然后根据所述训练后的模型参数,生成光伏发电组合预测模型。最后,利用所述光伏发电组合预测模型对待预测光伏区域进行光伏发电预测。由于通过采用联邦学习训练的方式对预设初始模型进行训练,实现了光伏运营商之间预测模型的协同训练,解决了单个数据持有者的数据不足的问题,极大地提升了训练数据的数量,从而提升了光伏发电组合预测模型的泛化能力,提升了混合预测方法预测光伏发电的效果。同时,由于在训练过程中,各参与方无法获取其他参与方的训练数据,从而保证了数据隐私,解决了训练数据无法共享的问题。

附图说明

为了更清楚地说明本发明实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。

图1是本发明实施例提供的一种基于联邦学习的光伏发电组合预测方法的实现流程图;

图2是本发明实施例提供的一种基于联邦学习的光伏发电组合预测方法的实现架构示意图;

图3是本发明实施例提供的一种基于联邦学习的光伏发电组合预测方法的训练架构示意图;

图4是本发明实施例提供的基于联邦学习的光伏发电组合预测装置的结构示意图;

图5是本发明实施例提供的电子设备的示意图。

具体实施方式

以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本发明实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本发明。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本发明的描述。

为使本发明的目的、技术方案和优点更加清楚,下面将结合附图通过具体实施例来进行说明。

如相关技术所介绍的,混合预测方法存在以下问题。首先,无法解决实际情况下发电数据样本数量和特征不足的问题,现有的混合预测方法依赖于具有足够多的样本和足够丰富的特征的训练数据集,但在实际的负荷预测工作中通常很难满足这一条件。其次,仅使用单个区域的数据训练的模型很难满足新区域的预测要求。最后,由于数据隐私保护,光伏数据是严格保密的,这限制了数据共享培训,而利用不同区域之间的数据进行训练能够提高模型预测能力。因此,缺乏一种能够在保护数据隐私的同时对功率预测模型进行联合训练的方法。

为了解决现有技术问题,本发明实施例提供了一种基于联邦学习的光伏发电组合预测方法、装置及电子设备。下面首先对本发明实施例所提供的基于联邦学习的光伏发电组合预测方法进行介绍。

基于联邦学习的光伏发电组合预测方法的执行主体,可以是基于联邦学习的光伏发电组合预测装置,该装置可以是具备数据处理能力的电子设备,例如个人计算机、服务器等电子设备,本发明实施例不作具体限定。

图1为本发明实施例提供的一种基于联邦学习的光伏发电组合预测方法的实现流程图,详述如下:

步骤110,对待训练的预设初始模型进行联邦学习训练,得到训练后的模型参数。

联邦学习训练由联邦服务器和多个本地服务器执行。多个本地服务器分别对应互不相同的且数据不共享的一个光伏区域;本地服务器根据所在光伏区域的训练数据集和由联邦服务器分发的不同训练轮次的聚合模型参数,对预设初始模型进行训练;联邦服务器对接收的本地服务器在不同训练轮次上传的本地模型参数进行模型聚合处理,得到下一轮次的聚合模型参数,直至得到符合预设条件的训练后的模型参数,停止联邦学习训练。

具体的,本地服务器可以是由光伏运营商控制的服务器,如用于训练光伏发电组合预测模型的服务器。联邦服务器可以是某一光伏运营商控制的服务器,也可以是第三方服务商控制的服务器。

在一些实施例中,训练数据集可以包括带有时间信息的光伏正向有功能量数据、有功功率、电压和电流,如某光伏区域在某时间范围内每15分钟记录的光伏正向有功能量数据、有功功率、电压和电流。

为了便于理解,给出一种步骤110的具体处理方式。

首先,联邦服务器向多个本地服务器分发待训练的预设初始模型的初始化聚合模型参数。之后,每个本地服务器根据所在光伏区域的训练数据集和初始化聚合模型参数,对预设初始模型进行第一轮训练,并将第一轮训练得到的本地模型参数上传至联邦服务器。接着,联邦服务器对接收的第一轮训练的所有本地模型参数进行第一轮模型聚合处理,并将得到的第一轮聚合模型参数分发至每个本地服务器。如此,对预设初始模型进行的联邦学习训练的第一轮训练迭代完成,然后开始第二轮训练。

与第一轮训练类似,每个本地服务器根据第一轮聚合模型参数进行第二轮模型训练,并将第二轮训练得到的本地模型参数上传至联邦服务器。然后联邦服务器对接收的第二轮训练的所有本地模型参数进行第二轮模型聚合处理。此时,需要加入对得到的聚合模型参数是否符合预设条件的判断。如果得到的第二轮聚合模型参数符合预设条件,则停止联邦学习训练并将第二轮聚合模型参数确定为训练后的模型参数,否则继续进行后续轮次的训练,即第三轮、第四轮……,直至某一轮训练得到符合预设条件的训练后的模型参数后,停止联邦学习训练。

在一些实施例中,联邦服务器可以采用预设函数进行模型聚合处理,以得到聚合模型参数,该预设函数为:

minf(w);

f

其中,D为每个本地服务器拥有的数据总量,f

此外,对于本地服务器k,定义为:

其中,N为本地服务器的数量,本地服务器k的数据总量为Dk;

当本地服务器k的梯度为

则每个本地服务器的本地模型参数更新如下:

在一些实施例中,预设条件可以是聚合处理得到的模型参数满足预设评价指标。具体的,预设评价指标可以是用于衡量采用了聚合处理得到的模型参数的模型的预测准确率的评价指标,如均方根误差(RMSE)或平均绝对百分比误差(MAPE),这些指标的数值越小,表明模型生成的预测值与真实值之间的误差越小,相应的模型的预测效果越好。

具体的,提供一种均方根误差y

/>

其中,

在一些实施例中,预设条件也可以是进行的训练轮次达至预设轮次,如100次。如此,可以避免过度模型训练。

在一些实施例中,预设初始模型可以是混合LSTM-BPNN预测模型,其包括一个LSTM和一个前后连接的BPNN,其中,LSTM的输出是BPNN的输入。具体的,特征提取阶段使用RNN提取特征,功率预测阶段使用BPNN输出预测值,而特征提取过程和功率预测过程紧密耦合,以最小化预测误差为目标,指导特征提取和功率预测,最终实现从具有时间特征的功率数据中提取有效特征。BP神经网络(BPNN)通常由一个输入层、多个隐藏层和一个输出层组成[26]。BPNN具有更好的非线性映射特性,能够对无法直接表示的关系进行无限逼近。递归神经网络(RNN)是一类专门设计用于处理顺序数据的神经网络。与仅在神经元之间建立前向连接的BPNN不同,RNN也在神经元间建立时间连接,使得RNN当前时刻的输出不仅取决于当前时刻的输入,还取决于前一时刻的输入。长短期存储器(LSTM)网络也是由RNN开发的,它通过巧妙地改进网络结构来实现对具有长间隔和长延迟的时间序列的预测,从而缓解了训练过程中的梯度消失问题。

在一些实施例中,混合LSTM-BPNN预测模型的时间步长可以通过下式得到:

其中,主周期P是频率f的倒数,对应于频域序列振幅的最大值,P=1/f,x(n)是长度为N的时域序列中的第N个数,X(k)是长度为N的频域序列中的k个数。

具体的,时间步长的数量是混合模型的一个重要超参数,它确定了在执行能耗预测时输入到预测模型的时间序列的长度,以及输入中包含的建筑历史数据的数量的物理意义。

值得一提的是,上述预设初始模型本质是RNN和BPNN的结合,因此用于训练RNN的BPTT(Back Propagation Through Time)算法仍然适用于混合模型。混合模型的超参数设置影响模型的性能,主要超参数包括细胞隐藏状态维度、BPNN隐藏层的数量、BPNN激活函数、BPNN隐层中神经元的数量等。在使用BPTT算法训练混合模型时,使用网格搜索算法执行超参数搜索,直到找到最优混合模型。

步骤120,根据训练后的模型参数,生成光伏发电组合预测模型。

当得到训练后的模型参数后,可以经使用该训练后的模型参数的预设初始模型,确定为光伏发电组合预测模型。

步骤130,利用光伏发电组合预测模型对待预测光伏区域进行光伏发电预测。

当生成光伏发电组合预测模型后,可以将待预测光伏区域的数据,如历史光伏数据,输入至该光伏发电组合预测模型,从而得到该待预测光伏区域的光伏发电预测结果。

为了便于理解本发明实施例提供的基于联邦学习的光伏发电组合预测方法,下面提供一种具体的实现架构,如图2所示,采用联邦学习方式联合训练模型,该方法用于在几个地方联合训练联合预测模型,这保护了数据的隐私,还减少了数据传输量,提高了通信效率。具体的,预测模型部署在每个光伏运营商所控制的本地服务器上,光伏运营商可以是某个地区的光伏公司或某些光伏电力用户的集合。聚合算法部署在联邦服务器中,用于模型聚合和模型发送和接收;预测模型算法被部署在每个PV运营商的本地服务器中,用于模型训练和参数上传。

整个训练过程如下:

首先,联邦服务器向每个本地服务器发送预测模型的初始化参数,然后在随后的轮中发送全局模型参数。本地服务器使用初始化参数进行第一次训练,并且利用联邦服务器接收的全局参数在本地执行每个后续训练,以获得本地模型参数。在每一轮通信中,每个运营商将其各自的本地模型参数上传到联合服务器,以进行新一轮的模型聚合和更新,直到达到模型性能要求或指定的通信轮数。

例如,假设5家发电公司参与模型训练,每个公司都有自己不同的数据。如此,可以将本发明实施例的混合预测方法部署在5个参与者的本地服务器上。模型训练过程在各自的本地服务器中执行,而模型参数的聚合将在联邦服务器中进行,并且具有高泛化能力的预测模型将通过多轮联邦聚合来导出。如此,可以防止每个参与者的数据离开本地区域,满足了各自数据安全的需要,同时解决了数据不足的问题。

如图3所示,提供了一种训练框架,在每一轮迭代训练中,独立参与者分别训练本地模型,并将训练后的模型参数上传到联邦服务器,联邦服务器完成参数聚合和更新,并将更新后的参数发送给每个参与者,以开始新一轮迭代,直到训练收敛。具体的,可以采用联邦平均算法(FedAvg),从而通过多次全局迭代实现局部模型的联合训练。

在本发明实施例中,通过采用联邦学习训练的方式对预设初始模型进行训练,实现了光伏运营商之间预测模型的协同训练,解决了单个数据持有者的数据不足的问题,极大地提升了训练数据的数量,从而提升了光伏发电组合预测模型的泛化能力,提升了混合预测方法预测光伏发电的效果。同时,由于在训练过程中,各参与方无法获取其他参与方的训练数据,从而保证了数据隐私,解决了训练数据无法共享的问题。

此外,本发明实施例还设计了一种基于长短期记忆神经网络的组合预测模型,即上述的预设初始模型,通过利用长期短期记忆算法从时间序列数据中提取重要特征值,通过BP神经网络将提取的高维特征映射到低维空间,并输出预测结果,极大地提高了模型的预测精度。

应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。

以下为本发明的装置实施例,对于其中未详尽描述的细节,可以参考上述对应的方法实施例。

图4示出了本发明实施例提供的基于联邦学习的光伏发电组合预测装置的结构示意图,为了便于说明,仅示出了与本发明实施例相关的部分,详述如下:

如图4所示,基于联邦学习的光伏发电组合预测装置包括:

模型训练模块410,用于对待训练的预设初始模型进行联邦学习训练,得到训练后的模型参数;

模型生成模块420,用于根据所述训练后的模型参数,生成光伏发电组合预测模型;

预测模块430,用于利用所述光伏发电组合预测模型对待预测光伏区域进行光伏发电预测;

其中,联邦学习训练由联邦服务器和多个本地服务器执行,多个本地服务器分别对应互不相同的且数据不共享的一个光伏区域;本地服务器根据所在光伏区域的训练数据集和由联邦服务器分发的不同训练轮次的聚合模型参数,对预设初始模型进行训练;联邦服务器对接收的本地服务器在不同训练轮次上传的本地模型参数进行模型聚合处理,得到下一轮次的聚合模型参数,直至得到符合预设条件的训练后的模型参数,停止联邦学习训练。

在一种可能的实现方式,模型训练模块还用于:

联邦服务器向多个本地服务器分发待训练的预设初始模型的初始化聚合模型参数;

每个本地服务器根据所在光伏区域的训练数据集和初始化聚合模型参数,对预设初始模型进行第一轮训练,并将第一轮训练得到的本地模型参数上传至联邦服务器;

联邦服务器对接收的第一轮训练的所有本地模型参数进行第一轮模型聚合处理,并将得到的第一轮聚合模型参数分发至每个本地服务器;

每个本地服务器根据第一轮聚合模型参数进行第二轮模型训练,并将第二轮训练得到的本地模型参数上传至联邦服务器;

联邦服务器对接收的第二轮训练的所有本地模型参数进行第二轮模型聚合处理,且如果得到的第二轮聚合模型参数符合预设条件,则停止联邦学习训练并将第二轮聚合模型参数确定为训练后的模型参数,否则继续进行后续轮次的训练,直至得到符合预设条件的训练后的模型参数。

在一种可能的实现方式,预设条件为:

模型参数满足预设评价指标;或者,训练轮次达至预设轮次。

在一种可能的实现方式,训练数据集包括带有时间信息的光伏正向有功能量数据、有功功率、电压和电流。

在一种可能的实现方式,联邦服务器采用预设函数进行模型聚合处理,预设函数为:

minf(w);

f

其中,D为每个本地服务器拥有的数据总量,f

在一种可能的实现方式,预设初始模型为混合LSTM-BPNN预测模型,包括一个LSTM和一个前后连接的BPNN,其中,LSTM的输出是BPNN的输入。

在一种可能的实现方式,混合LSTM-BPNN预测模型的时间步长为:

其中,主周期P是频率f的倒数,对应于频域序列振幅的最大值,P=1/f,x(n)是长度为N的时域序列中的第N个数,X(k)是长度为N的频域序列中的k个数。

图5是本发明实施例提供的电子设备的示意图。如图5所示,该实施例的电子设备5包括:处理器50、存储器51以及存储在存储器51中并可在处理器50上运行的计算机程序52。处理器50执行计算机程序52时实现上述各个基于联邦学习的光伏发电组合预测方法实施例中的步骤,例如图1所示的步骤110至步骤130。或者,处理器50执行计算机程序52时实现上述各装置实施例中各模块/单元的功能,例如图4所示模块410至430的功能。

示例性的,计算机程序52可以被分割成一个或多个模块/单元,一个或者多个模块/单元被存储在存储器51中,并由处理器50执行,以完成本发明。一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述计算机程序52在电子设备5中的执行过程。例如,计算机程序52可以被分割成图4所示模块410至430。

电子设备5可包括,但不仅限于,处理器50、存储器51。本领域技术人员可以理解,图5仅仅是电子设备5的示例,并不构成对电子设备5的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述电子设备还可以包括输入输出设备、网络接入设备、总线等。

所称处理器50可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。

所述存储器51可以是所述电子设备5的内部存储单元,例如电子设备5的硬盘或内存。所述存储器51也可以是所述电子设备5的外部存储设备,例如所述电子设备5上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,所述存储器51还可以既包括所述电子设备5的内部存储单元也包括外部存储设备。所述存储器51用于存储所述计算机程序以及所述电子设备所需的其他程序和数据。所述存储器51还可以用于暂时地存储已经输出或者将要输出的数据。

所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本发明的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。

在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。

本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。

在本发明所提供的实施例中,应该理解到,所揭露的装置/电子设备和方法,可以通过其它的方式实现。例如,以上所描述的装置/电子设备实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。

所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。

另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。

所述集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个基于联邦学习的光伏发电组合预测方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(Read-OnlyMemory,ROM)、随机存取存储器(Random Access Memory,RAM)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括是电载波信号和电信信号。

以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。

技术分类

06120115935042