掌桥专利:专业的专利平台
掌桥专利
首页

基于bagging集成神经网络的压水堆堆芯参数预测模型设计方法

文献发布时间:2023-06-19 09:46:20


基于bagging集成神经网络的压水堆堆芯参数预测模型设计方法

技术领域

本发明属于反应堆设计技术,具体涉及一种基于bagging集成神经网络的压水堆堆芯参数预测模型设计方法。

背景技术

压水反应堆在正常运行和运行瞬变中,堆芯的运行工况处于经常变化的状态(如负荷追随运行),这些变化导致实际运行中的堆芯状态与装料方案中的计算结果发生偏离,操纵员需及时准确地了解堆芯功率因子等关键参数状况,确保压水堆安全运行。

压水堆堆芯关键参数主要依靠现场实验测量和计算机数值模拟两种手段获得。由于测量条件的限制,实验手段只能获得部分离散数据。计算机模拟主要有蒙特卡罗随机模拟和确定论两种方法。蒙特卡罗方法具备建模精度高、计算准确的特点,但通常计算耗费时间较长,即使采用并行方式进行计算,仍无法达到实时获得数据的要求;确定论方法计算时间较蒙特卡罗方法虽有显著提升,对于单个堆芯计算,基本可以满足要求,但是其计算时间通常与计算精度、模型复杂性密切相关,并且在处理堆芯装料优化问题时,问题的规模非常庞大,在大量方案计算的要求下,确定性方法也无法满足要求,需要寻找快速获得堆芯参数的方法,用直接预测来代替复杂的堆芯计算来产生堆芯物理参数,大大减少计算时间。

目前国内外以快速计算为目标的方法主要有人工神经网络方法。该方法是一种新型的智能信息处理系统,它不依赖于精确的数学模型,而显示出自适应、自组织、自学习、联想记忆和优化计算及智能处理功能。随着计算机硬件和深度学习技术的发展,深度人工神经网络预测由于其不需要特定领域的专业知识,就能快速准确地预测堆芯参数,是当前学界的研究热点,具有广阔的发展空间。

目前使用人工神经网络进行堆芯参数预测时,遇到的几个主要困难有:

1)生成高质量的原始数据样本

神经网络的预测效果直接取决于原始样本所反映的特征分布,只有设计合适的抽样方法,从堆芯排布全空间中抽取能代表空间特征的高质量样本,才能通过训练产生高精度的神经网络模型;

2)样本均衡化

很多时候,原始数据样本分布很不均衡,某些区域样本集中,某些区域样本稀疏,需要研究样本均衡化方法,提高神经网络预测精度;

3)精细的网络训练

高精度的预测通常对神经网络要求很高,需要非常精细的训练和调参,寻找合适的网络结构(节点、层数、连接关系)和网络参数(权重、阈值、激励函数等),避免欠拟合或者过拟合现象的发生;

4)区域边界处预测精度降低

神经网络在边界数据上(训练样本标签最大最小值处)的预测结果较差,精度严重下降,很多时候边界区域恰恰是最关心的数据,需要寻找提高精度的方法。

发明内容

本发明的目的在于针对现有技术的不足,提供一种基于bagging集成神经网络的压水堆堆芯参数预测模型设计方法,从而降低样本的非均匀性,减小单个网络的训练难度,并且提高边界数据的预测精度,实现全区域压水堆堆芯参数的快速准确预测。

本发明的技术方案如下:一种基于bagging集成神经网络的压水堆堆芯参数预测模型设计方法,包括:

(1)根据堆芯的对称性选取部分堆芯燃料组件作为物理特性分析对象,确定堆芯燃料组件的排布规则;

(2)针对堆芯燃料组件排布方案确定均匀样本抽样方法;

(3)将均匀抽样获得的样本结果根据对称性补充完整,生成输入文件并通过模拟程序进行计算,得到对应的关键堆芯参数;

(4)将堆芯燃料组件进行一维排列,用二进制数表示每一种燃料组件,形成燃料组件二进制排布数据,然后组合生成包含关键堆芯参数数值和堆芯排布方式的二进制数值的原始数据集;

(5)将原始数据集按比例划分为训练集和测试集,并基于训练多个模型的目标,进行子训练集抽样设计;

(6)进行弱学习器的设计;

(7)进行集成网络设计,确定训练样本数量、弱学习器数量,以及集成方法。

进一步,如上所述的基于bagging集成神经网络的压水堆堆芯参数预测模型设计方法,步骤(1)中按对称性取堆芯1/8部分燃料组件作为物理特性分析对象,将选取的部分堆芯燃料组件进行区域划分,所确定的排布规则是:燃料组件只能在每个特定区域内部进行调换。

进一步,如上所述的基于bagging集成神经网络的压水堆堆芯参数预测模型设计方法,步骤(2)中所述的均匀样本抽样方法为:从不同区域所有排布方式中各随机抽取一种方式,并进行组合而获得一个样本,重复抽样m 次,即可获得m个能够反映整个组合空间的样本。

进一步,如上所述的基于bagging集成神经网络的压水堆堆芯参数预测模型设计方法,步骤(3)中所述的模拟程序为CASMO5程序,计算得到的关键堆芯参数包括有效增殖因数(KEFF)、组件功率峰因子(RAD)和棒功率峰因子(FΔH)。

进一步,如上所述的基于bagging集成神经网络的压水堆堆芯参数预测模型设计方法,步骤(4)中所述原始数据集中包含80维堆芯排布方式的二进制数值以及对应的关键堆芯参数数值。

进一步,如上所述的基于bagging集成神经网络的压水堆堆芯参数预测模型设计方法,步骤(5)中将原始数据集按8︰2比例划分为训练集和测试集;在从训练集中抽取训练样本时,采用全局抽样与重点区域抽样相结合的方法,针对重点区域训练样本进行加密抽样。

进一步,如上所述的基于bagging集成神经网络的压水堆堆芯参数预测模型设计方法,步骤(6)中使用三层BP神经网络作为弱学习器模型,BP神经网络的隐藏层节点数量为1024。

进一步,如上所述的基于bagging集成神经网络的压水堆堆芯参数预测模型设计方法,步骤(7)中训练样本数量选择5000个,弱学习器数量为10 个,集成方法采用平均数集成方法。

本发明的有益效果如下:

本发明与实验方法相比,由于不受实验条件限制,能获得更多数据,且速度更快;与计算机模拟相比,不需要过多的专业知识,且受模型复杂度的影响小。与现有的神经网络技术相比,使用bagging集成网络进行压水堆堆芯参数预测,主要有以下几点优点:

1)设计了堆芯排布空间的均匀抽样方法,比较好的反映了数据特征:将堆芯组件1/8对称区域分成多个部分,每个部分分别均匀随机抽样后进行组合,产生排布方式,再利用COSMO5程序计算,得到一组样本数据,反复抽样,生成了较高质量的样本集;

2)使用全局随机放回抽样策略训练了多个弱BP神经网络学习器,减轻了单个网络训练难度:与仅使用一个网络(如DNN)实现高精度预测相比,多个弱学习器的情况下,由于每个弱学习器的训练样本少,训练难度降低,时间缩短,且集成后精度不会降低,集成学习与单网络学习的对比如下表:

两种算法的平均误差

3)使用重点区域加密抽样策略训练了每个弱BP神经网络预测器,有效改善了样本的不平衡程度,提高了边界部分的预测精度。

附图说明

图1为本发明的基于bagging集成神经网络的压水堆堆芯参数预测模型设计方法流程图;

图2(a)为压水堆堆芯组件阵列分布示意图;

图2(b)为压水堆堆芯组件左上角1/8部分结构示意图;

图3为本发明具体实施例中原始数据集的示意图;

图4为本发明具体实施例中三个关键堆芯参数的高斯分布示意图;

图5为本发明具体实施例中数据集抽样统计结果示意图;

图6为本发明具体实施例中不同隐藏层数量对网络训练结果的影响示意图;其中中间的图上面虚线表示测试集上的mape,下面虚线表示训练集上的 mape;

图7为本发明具体实施例中BP神经网络拓扑图;

图8为本发明具体实施例中训练样本数量与集成性能的关系示意图;

图9为本发明具体实施例中学习器数量与集成性能的关系示意图;

图10为本发明具体实施例中中位数集成方法示意图;

图11为本发明具体实施例中平均数集成方法示意图;

图12为本发明具体实施例中线性回归集成方法示意图;

图13为本发明具体实施例中多层感知器集成方法示意图;

图14为本发明具体实施例中平均数集成网络在测试集的预测情况示意图,(a)为KEFF数据、(b)为RAD数据、(c)为FΔH数据。

具体实施方式

为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。

本发明主要包括三个部分,数据处理、弱学习器(BP神经网络)设计、集成网络设计。其中,数据处理包括研究对象描述(压水堆堆芯组件排布)、原始数据模拟、子训练集数据抽样设计等内容;弱学习器设计不仅包括BP网络隐藏层的节点数量、激活函数、优化器、学习率的确定,也包括模型训练中训练批次、批次大小等超参数(人为设定参数)确定;集成网络设计包括确定训练样本、弱学习器数量、集成方法等。具体的技术流程如图1所示。

(一)数据处理

1.研究对象描述

由于压水堆堆芯组件阵列呈对称分布(如图2(a)),作为一种实施方式,可以取其1/8独立部分代替整个阵列的物理特性分析,同时降低研究对象的数据维度。如图2(b)所示阵列为堆芯左上角的1/8部分,该阵列中包含四种(E、 F、G、H)组件,分别是三次、二次、一次、全新燃耗组件,不同数字则区分其燃耗深度的不同。

2.原始数据模拟

2.1样本抽样方法设计

通过研究图2(b)的燃料阵列,确定排布设计中组件只能在三个区域(图中虚线划定的I、II、III)内部进行调换。按照这个限制条件,设计如下均匀样本设计方法:从三个区所有排布方式中各随机抽取一种方式,并进行组合而获得一个样本,重复抽样m次,即可获得m个一定程度上反映整个组合空间的样本。

2.2原始数据计算

将抽样结果根据对称性补充完整,并生成输入文件,使用CASMO5程序计算出对应的堆芯参数。CASMO5程序是由美国Studsvik公司开发堆芯分析计算程序,适用于方形燃料组件堆芯的换料设计校算任务,能够完成堆芯核设计计算的所有功能。该套程序是国际上得到广泛认可和应用的商用堆芯分析程序,在国际上十几个国家与地区包括美国、英国、德国、日本、韩国、西班牙、瑞典、芬兰、中国台湾等的五十多公司超过200台核电机组有应用,累计应用超过2000个燃料循环,也是美国NRC认可的程序系统,因此可以认为CASMO5程序计算生成的数据比较可靠。

通过CASMO5程序,主要计算如下3个关键堆芯参数:有效增殖因数(KEFF)、组件功率峰因子(RAD)和棒功率峰因子(FΔH),生成输出文件。对输出文件进行处理,获得结构化样本数据,每个样本数据包括堆芯3个关键参数,燃料组件排布。

2.3燃料组件排布二进制设计

对于类似图1的燃料组件阵列,按照一定顺序将组件进行一维排列,并以4 位二进制数来替代每一种组件(见表1),形成燃料组件二进制排布数据。

表1组件与编码对应关系

2.4三个关键参数的统计信息

对堆芯燃料组件组合(排布)方式进行均匀抽样,生成原始数据集,如图3 所示,数据包含KEFF、RAD、FΔH等3个堆芯参数数值以及80维堆芯排布方式的二进制数值。

3个对应的关键堆芯参数大致呈高斯分布,如图4所示。具体数值如表2, KEFF数据集中,数据表示精度高,需要足够精确的预测结果才能满足要求;RAD、 FΔH数据方差较大,且在值较小的区域样本量比例很小。

表2堆芯参数的统计数据

注:此处的精度表示关键参数数值表示的精度。

3.子训练集抽样设计

为训练神经网络模型,将原始数据集按照8:2比例划分为训练集和测试集。

基于训练多个模型的目标,为每个模型从训练集中抽取训练样本,采用“全局随机放回抽样+重点区域随机放回抽样”结合。设样本总量为m,则4m/5为全局抽样,m/5为重点区域抽样。由上面三个关键堆芯参数的统计信息可以知道,RAD、FΔH在值较小时数据样本较少,为了使得在这部分区域内的预测准确率更高,确定这部分区域为“重点区域”,并对该区域数据样本进行加密抽样。

图5为一次数据集抽样统计结果,样本总量为5000组。对于KEFF,从训练集中随机有放回抽取5000组样本(图5中(a));对于RAD,从训练集中随机有放回抽取4000组,再从RAD<1.50的训练集数据中抽取1000组,组成子训练集 (图5中(b));对于FΔH,从训练集中随机有放回抽取4000组,再从FΔH<1.60 的训练集数据中抽取1000组,组成子训练集(图5中(c))。

(二)弱学习器设计

使用三层BP神经网络作为弱学习器模型,其单独的学习能力有限,但是其性能将决定强学习器的性能。

1.隐藏层节点

根据问题属性,BP网络输入层80个节点、输出层1个节点,需要选择合适的隐藏层节点数量。通过数值实验,设置不同的隐藏层节点数,得到不同的模型。设置batch_size=40,epochs=400,batch_size是指批次大小,即神经网络一次训练的样本量,epochs指世代,即神经网络训练的迭代次数。以FΔH参数数据进行多次训练,对训练结果进行统计分析。结果如图6所示,训练时间与节点数量有类似线性的关系,对模型影响有限;神经网络训练过程中预测值与真实值的平均相对误差(mape)、均方损失(loss)在节点数量1000附近(1024) 达到最低。若以KEFF或RAD数据进行实验,将得到大致相同的结果。

因此最终确定BP网络的隐藏层节点数量为1024,网络拓扑结构如图7所示。

2.其他网络参数

通过反复数值实验,确定BP神经网络的其他参数,如表3:

表3BP神经网络的其他参数

(三)集成网络设计

1.训练样本数量

在数据处理部分,确定了训练样本的抽样方式,还需要进行实验确定每个弱学习器的抽样比例。图8在7个弱学习器下,以平均数集成,获得训练样本数量与集成性能的关系图,基于网络尽量紧凑的原则,抽样样本数量选择为 5000。

2.弱学习器的数量

基于bagging集成的神经网络算法由多个弱学习器集成,弱学习器数量直接影响算法性能。在训练样本量为5000的条件下训练弱学习器,以平均数集成,进行弱学习器数量与算法性能的研究。图9分别分析了(KEFF)(RAD)(FΔH) 3个关键参数的计算时间、平均误差、最大误差随弱学习器数量的变化趋势,总体来看变化规律相一致,总计算时间随学习器数量呈线性增加,平均误差、最大误差在学习器数量为10时限制在比较理想的范围内,因此确定弱学习器数量为10。

3.bagging集成方法设计

目前没有理论和经验证明存在一种最优的集成方法,对应不同实际问题,须对不同集成思路和手段应进行实验对比分析。这里对比4种设计方法:中位数、平均数、线性回归、多层感知器。

3.1中位数学习器

中位数学习器是基于所有弱学习器计算结果的中位数确定强学习器输出的:

即,将10个网络的结果进行排序(降序、升序均可),取中位数,即将第6 大(小)的值作为集成网络的结果,如图10所示。

3.2平均数学习器

平均数学习器是平均所有学习器的输出为集成网络的输出:

如图11所示,相对于中位数,取均值能考虑所有学习器的贡献。

3.3线性回归集成学习器

线性回归集成学习器将所有学习器输出加权平均:

如图12所示,相对于平均值,感知器赋予各个学习器的权重不同。这个集成方法需要使用测试集数据进行线性回归,以确定不同权重的大小。

3.4多层感知器学习器

多层感知器学习器,将弱学习器的输出作为MLP(多层感知器)的输入,通过训练MLP获得一个预测模型,从而获得输出。

如图13所示,相对于线性回归,多层感知器增加了非线性过程。同感知器一样,需要使用测试集的数据进行训练,以确定模型。

(四)结果分析与模型评估

1.实验结果

对堆芯的3个关键参数预测,分别训练了各10个弱BP网络学习器,4种集成方法,其结果如表4(KEFF、RAD、FΔH)所示。包含了弱学习器、集成结果的测试误差、测试最大误差、误差大于5%的样本数。测试误差越小,说明学习器性能越好;最大误差越小,说明学习器的下限较高;而大误差样本的比例则说明了学习器的可靠性。

表4学习器性能 (KEFF)

(RAD)

(FΔH)

根据表4数据,兼顾算法复杂程度考虑,在性能差别不大的情况下,根据最简单的(“奥卡姆剃刀准则”)选择最终集成方法为平均数集成方法。3个集成网络在测试集上的综合表现如表5,其预测的所有样本情况如图14所示,该图中实现表示预测值与真实值相等(即误差为0)的位置,长虚线表示两者误差为 10%的位置,点虚线表示两者误差为5%的位置,散点代表了预测值与真实值的偏移情况。

表5最终确定的集成网络在测试集上的表现

2.模型评估

2.1可靠性分析

如果一个数据的真实值与预测值相对误差<5%,可认为其预测准确。那么,在以上2000组测试样本中,共38组样本误差超过5%,即总数的1.9%,因此可以得到预测的可靠性为98.1%。同样,如果有31个样本误差超过5%,则该预测模型的可靠性为98.45%(如表5最后一列)。

2.2敏感性分析

从图14上看,对于KEFF数据,集成网络的最大误差未超过0.5%,平均更在 0.1%以内,精度高、拟合度好,具有很好的鲁棒性。RAD的测试集样本标签主要集中在1.6-2.1之间,测试集是总数据集的抽样,因此总数据集也大致这样分布。这使得最终的集成网络模型对这个区域样本的容错率最高。对RAD<1.6的样本,因为抽取时得到重视,对模型训练的影响比重较高,因此模型对此区域样本的敏感度最高。FΔH分析类似。

本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本发明的其它实施方案。本申请旨在涵盖本发明的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本发明的一般性原理并包括本发明未公开的本技术领域中的公知常识或惯用技术手段。这样,倘若对本发明的这些变型、用途适应性变化属于本发明权利要求及其同等技术的范围之内,则本发明也意图包含这些改变型和用途适应性变化在内。

上述实施方式只是对本发明的举例说明,本发明也可以以其它的特定方式或其它的特定形式实施,而不偏离本发明的要旨或本质特征。因此,描述的实施方式从任何方面来看均应视为说明性而非限定性的。本发明的范围应由附加的权利要求说明,任何与权利要求的意图和范围等效的变化也应包含在本发明的范围内。

相关技术
  • 基于bagging集成神经网络的压水堆堆芯参数预测模型设计方法
  • 基于征兆的压水堆核电厂二次侧热阱控制策略的设计方法
技术分类

06120112291586