掌桥专利:专业的专利平台
掌桥专利
首页

基于时序变换记忆网络的锂离子电池健康状态估计方法

文献发布时间:2024-04-18 20:02:18


基于时序变换记忆网络的锂离子电池健康状态估计方法

技术领域

本发明涉及电池健康状态估计技术领域,具体涉及基于时序变换记忆网络的锂离子电池健康状态估计方法。

背景技术

锂离子电池作为一项清洁储能技术备受瞩目,其在电动车辆和能量储存系统方面的前景备受看好。然而,需要注意的是,连续的充放电循环会逐渐降低锂离子电池的性能,从而导致容量减退或输出功率降低。健康状态是衡量电池容量的关键参数之一,它反映了电池的退化程度,有助于电池的维护、评估和分析。健康状态的变化直接影响电池组的性能、可靠性以及安全性,准确的健康状态估计可以保证汽车电池安全可靠地运行,从容量角度来说一般将健康状态定义为电池实际容量与其初始值的比值;当健康状态降至80%以下时,意味着电池已接近最大使用寿命,需要进行更换。

目前,数据驱动方法在电池健康状态估计方面越来越受到关注,然而,由于锂离子电池制作工艺不同,数据收集过程中会存在噪声、不准确或缺失的数据,导致难以在每个电池充放电曲线中提取有利特征,而且特征选择和降维等步骤还需要复杂的计算资源,并且目前已知方法难以捕获时间序列数据中的短期模式和长期依赖问题以及不同层并行处理能力和计算速度以至于无法在估计电池健康状态上获得更高的精度和鲁棒性。

发明内容

针对现有技术中的问题,本发明提供基于时序变换记忆网络的锂离子电池健康状态估计方法,目的在于来解决时间序列数据中的短期模式和长期依赖问题。

基于时序变换记忆网络的锂离子电池健康状态估计方法,包括以下步骤:

步骤1:建立电池循环寿命试验的实验平台,获取电池健康状况数据集;

步骤2:将数据集中充电过程的电压曲线分割成等电压间隔,并提取等电压间隔之间的时间差构建特征;

步骤3:使用滑动窗口来处理每个特征获得时间序列数据;

步骤4:利用一维卷积神经模块对时间序列数据进行充分卷积处理得到特征向量;

步骤5:将得到的特征向量送入时序变换记忆网络,时序变换记忆网络包括编码层和解码层,编码层包括第一通道自注意力模块、第一前馈神经模块和长短期记忆模块,解码层包括多头注意力模块、第二通道自注意力模块和第二前馈神经模块;

特征向量在时序变换记忆网络中的处理过程包括以下步骤:

步骤5.1:特征向量经位置编码后,一路经第一通道自注意力模块CSAM后与另一路进行拼接归一化并获得局部特征数据;

步骤5.2:局部特征数据经第一前馈神经模块后再与其自身进行拼接归一化并获得局部特征向量;

步骤5.3:局部特征向量经长短期记忆模块后获得编码数据;

步骤5.4:编码数据经位置编码后再经多头注意力模块后与其自身进行拼接归一化并获得第一中间数据;

步骤5.5:第二通道自注意力模块的一路输入为编码数据,另一路输入为第一中间数据;第二通道自注意力模块的输出与第一中间数据拼接归一化后获得第二中间数据;

步骤5.6:第二中间数据经第二前馈神经模块后与其自身进行拼接归一化并获得解码数据;

步骤6:将得到的解码数据通过两层全连接层进行映射和转换实现最终的SoH估计。

进一步为:第一通道自注意力模块和第二通道自注意力模块的输出

(9)

其中,

其中,

进一步为:长短期记忆模块包括遗忘门、输入门和输出门,遗忘门通过使用当前输入

(11)

其中,

输入门使用当前输入

(12)

(13)

其中,

记忆单元

(14)

其中

输出门使用当前输入

(15)

其中,

进一步为:多头自注意力模块中每一个头的注意力机制的表达式如公式16所示,因此多头注意力机制则如公式17所示:

(16)

(17)

其中,

本发明的有益效果:能够解决序列数据中的短期模式和长期依赖问题,加速并行处理不同层次的信息,显著提高了基于深度学习估计方法的估计性能和泛化能力,能够克服传统方法所面临的准确性、鲁棒性和实时适用性不强的问题。

附图说明

图1为本发明的流程框图;

图2为本发明的模型图;

图3为多头注意力模块的模型图;

图4为长短期记忆模块的模型图;

图5为通道自注意力模块的模型图。

具体实施方式

下面结合附图对本发明做详细说明。下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本发明,而不能解释为对本发明的限制。本发明实施例中的左、中、右、上、下等方位用语,仅是互为相对概念或是以产品的正常使用状态为参考的,而不应该认为是具有限制性的。

基于时序变换记忆网络的锂离子电池健康状态估计方法,结合图1和图2所示,包括以下步骤:

步骤1:建立电池循环寿命试验的实验平台,获取电池健康状况数据集;

其中,采用NewareBTS-5V12A电池测试仪对电池进行自动充放电,电压、电流误差为满量程的±0.05%,从同一批次的锂离子电池中选择7块18650功率电池(ProspowerICR18650P),这些电池在25℃的恒温箱(SANWOOD SMG-150-CC,温度偏差≤±1℃)中重复充电和放电,循环曲线包括5次电池预处理循环、50次老化循环和20次容量校准循环;本发明将容量作为SoH的指标,SoH被定义为电池组的当前最大可用容量与初始容量的比值,计算公式如下:

(1)

其中,

步骤2:将数据集中充电过程的电压曲线分割成等电压间隔,并提取等电压间隔之间的时间差构建特征;

其中,通过老化循环实验将每个电池进行充放电循环,并获取其中1000次循环的电池充放电实验数据和输入向量,我们选取实验数据中的充电电压曲线,将充电过程中的电压范围均匀地分成若干间隔,每一个间隔所用的时间被提取作为特征,选择3.4V至4.2V的电压范围作为充电的总间隔,并由

(2)

(3)

其中

步骤3:使用滑动窗口来处理每个特征获得时间序列数据;

其中,在正常运行中,电池状态参数是动态的,测量延迟时间难以计算,在每个滑动窗口的位置,滑动窗口内的特征数据被整合在一起,我们可以考虑一段时间内的数据关系,而不仅仅是单个数据点的独立性,这有助于更好地捕捉特征中的动态特征和趋势,并提供更准确的分析和估计结果,通过调整滑动窗口的大小,可以获得特征中的所有相关信息。因此,滑动窗口的使用有利于时间序列数据的分析,并提供准确的估计结果;通常,滑动窗口的大小是固定值,并且利用滑动窗口来构造用于时序变换记忆网络训练的输入和目标,当为每个周期提取多特征数据和SoH标签时,将滑动窗口应用于时间序列以获得具有特征和标签的训练样本,在本文的实验中,我们的数据由

(4)

(5)

表示一个周期,并且/>

(6)

(7)

其中,

步骤4:利用一维卷积神经模块对时间序列数据进行充分卷积处理得到特征向量;

其中,一维卷积神经模块(1DCNN)的作用不仅仅在于进行特征提取,而且在特征转换方面起到了重要作用,我们的1DCNN模型通过卷积操作对时间序列数据进行处理,将原始的电池数据转换为更高维度的特征表示,具体而言,我们将1DCNN的输出维度设置为输入维度的4倍;

步骤5:将得到的特征向量送入时序变换记忆网络,并进行四次循环,时序变换记忆网络包括编码层和解码层,编码层包括第一通道自注意力模块、第一前馈神经模块和长短期记忆模块,解码层包括多头注意力模块、第二通道自注意力模块和第二前馈神经模块;

其中,我们提出的一种通道自注意力模块,我们选择使用tanh作为激活函数,相比于自注意力模块,该模块不会出现分母为零的不稳定问题,可以使模型更关注正确的特征,同时抑制不相关特征的提取,不会出现梯度消失或梯度爆炸的问题,从而提高网络性能;CSAM使用了Batch Normalization的缩放因子来表示权值的重要程度,缩放因子反映出各个通道的变化的大小,也表示了该通道的重要性,缩放因子即BN中的方差,可以反应出该通道变化程度,如果方差越大,那么该通道中包含的信息会越丰富,重要性也越大,批量归一化操作的结果

其中,

如图5所示,第一通道自注意力模块和第二通道自注意力模块的输出

(9)

其中,

CSAM相对自注意力模块具有以下优点:

(1)CSAM通过在计算注意力权重之前对注意力分数进行归一化,可以改善模型的稳定性和鲁棒性,自注意力模块在计算注意力权重时,可能会面临数值不稳定的问题,例如分母接近于零时的除法问题,通过归一化操作,可以使注意力分数处于较合理的范围内,减少数值上的不稳定性;

(2)CSAM通过归一化操作,可以更好地控制信息在序列中的流动,CSAM中的tanh函数在输入趋近于正无穷或负无穷时会渐进于1和-1,这保证了时序变换记忆网络的输出值在一定范围内,不会出现梯度消失或梯度爆炸的问题,当输入处于[-1,1]之间时,tanh函数的函数值变化比Sigmoid函数更加敏感,使得模型在这个区间内的表现更加稳定,使得信息能够在序列中有效地传递和集中;

(3)CSAM对于异常值的影响较小,如果存在异常值或噪声数据,自注意力模块可能会对这些异常值过度关注,导致模型性能下降,通道自注意力模块通过限制注意力权重在一定范围内,可以减轻异常值的影响,提高模型的鲁棒性;

前馈神经模块由输入层,多个隐藏层,输出层组成,每一层包含多个神经元,并且每个神经元与下一层的所有神经元相连,输入信息从输入层经过中间层逐层传递,最终到达输出层。每个隐藏层的神经元都可以学习到输入信息的不同抽象特征,有助于更好地表示和捕捉输入信息中的关键信息;前馈神经模块可以在输入和目标之间建立一个逼近任意复杂的非线性函数,从而从输入信息中提取出更高级别的特征表示,这些更高级别的特征表示可以捕捉输入信息中的结构和模式,提供更好的表达能力;

特征向量在时序变换记忆网络中的处理过程包括以下步骤:

步骤5.1:特征向量经位置编码后,一路经第一通道自注意力模块CSAM后与另一路进行拼接归一化并获得局部特征数据;

位置编码可以有效为序列中的每个位置提供独特的位置信息,解决位置信息交换问题,并对抗序列长度影响;

通过拼接归一化操作,不同分支或层级的特征在拼接之前会被归一化到相似的分布,形成一个更大的特征向量,从而减少特征分布不一致性带来的问题;这有助于提高模型的训练稳定性,加速收敛过程,并提高模型的泛化能力;

步骤5.2:局部特征数据经第一前馈神经模块后再与其自身进行拼接归一化并获得局部特征向量;前馈神经模块在输入和目标之间建立一个逼近任意复杂的非线性函数,从而从局部特征数据中提取出更高级别的特征表示,这些更高级别的特征表示可以捕捉局部特征数据中的结构和模式,提供更好的表达能力;

步骤5.3:局部特征向量经长短期记忆模块后获得编码数据;在此处使用长短期记忆模块能够选择性地遗忘、存储和输出信息,从而在处理长序列时更好地捕捉长期依赖关系,长短期记忆模块包括遗忘门、输入门和输出门。如图4所示,遗忘门的主要作用是决定在当前时间步,长短期记忆模块是否应该忘记之前的记忆,它通过使用当前输入

(11)

其中,

输入门负责决定在当前时间步,选择新的特征信息并添加到记忆单元中,(类似于遗忘门,)输入门也使用当前输入

(12)

(13)

其中,

在遗忘门和输入门的指导下,记忆单元更新其内容,遗忘门决定要从先前的记忆单元中丢弃哪些信息,输入门决定要将哪些新信息添加到记忆单元中,记忆单元

(14)

其中

输出门决定在当前时间步,记忆单元中的信息如何被传递到下一个时间步的隐藏状态,它使用当前输入

(15)

其中,

步骤5.4:编码数据经位置编码后再经多头注意力模块后与其自身进行拼接归一化并获得第一中间数据;多头自注意力模块相比对自注意力模块来说,它通过并行地学习多个注意力头从不同的子空间中学习到不同的特征表示,每个注意力头可以关注序列中的不同方面或特征,从而提供更丰富的表达能力;多头自注意力模块同时关注序列中不同位置的信息,每个注意力头可以学习到不同粒度的依赖关系,这样可以捕捉到输入序列中的局部和全局依赖,从而更全面地理解序列的语义结构,加快模型的训练和推理速度,提高模型的效率;如图3所示,多头自注意力模块中每一个头的注意力机制的表达式如公式16所示,因此多头注意力机制则如公式17所示:

(16)

(17)

其中,

步骤5.5:第二通道自注意力模块的一路输入为编码数据,另一路输入为第一中间数据;第二通道自注意力模块的输出与第一中间数据拼接归一化后获得第二中间数据;

步骤5.6:第二中间数据经第二前馈神经模块后与其自身进行拼接归一化并获得解码数据;

步骤6:将得到的解码数据通过两层全连接层进行映射和转换实现最终的SoH估计;两层全连接层可以通过非线性变换将输入数据映射到一个高维特征空间,这样可以帮助提高时序变换记忆网络学习到更丰富、更抽象的特征表示,提高时序变换记忆网络的鲁棒性。

在本研究中,我们采用了多个评价指标来对所提出的时序变换记忆网络(TTMN)的性能进行综合评估。这些指标有助于客观地衡量模型的估计能力,并从不同的角度揭示其准确性和鲁棒性。以下是我们使用的五个评价指标:

1. 均方误差(MSE):均方误差是评估模型估计结果与真实值之间差异的常用指标;它计算了估计值与真实值之间的平方差的平均值,以衡量估计的平均偏差;

(18)

n表示样本数量,t表示样本的索引,

2. 均方根误差(RMSE):均方根误差是均方误差的平方根,它表示估计值与真实值之间的平均差异;RMSE对异常值更加敏感,可以用于衡量模型的精确性;

(19)

3. 平均绝对误差(MAE):平均绝对误差是估计值与真实值之间绝对差的平均值,衡量了估计的平均误差;与MSE不同,MAE不会放大大误差的影响,因此更能反映估计的整体准确性;

(20)

4. 平均百分比绝对误差(MAPE):平均百分比绝对误差是估计值与真实值之间相对差的平均值,以百分比表示;它衡量了模型在不同数据范围内的相对误差,可以反映估计的相对准确性;

(21)

5. 最大绝对误差(MAXE):最大绝对误差是估计值与真实值之间绝对差的最大值,它标识了模型在最差情况下的估计误差;MAXE对异常值特别敏感,有助于了解模型在估计中的最大风险;

(20)

其中,

本文使用了两个数据集,其中,数据集1我们使用了XQ-11、XQ-12、XQ-14、XQ-16和XQ-17作为训练验证集,XQ-15和XQ-18分别作为测试集1和测试集2;数据集2中,我们使用了M0005、M0006和M0007作为训练验证集,M0018作为测试集3,并且,我们将训练验证集按照8:2的比例随机划分为训练集和验证集;

为了训练网络,我们选择了均方误差(MSE)函数作为模型的损失函数,然后使用基于梯度的AdamW优化算法,用于更新网络模型中的权重和偏置参数,以最小化损失函数。我们选择了初始学习率为0.003;最后,采用了早期停止机制防止模型过拟合,具体地,如果验证损失在接下来的120个epoch内没有下降,我们将会终止模型训练,值得注意的,我们在特征提取之前对数据进行了最小-最大归一化的处理,具体算法如公式23所示:

(23)

其中,

表1设备配置和模型参数

为了验证提出的估计模型的有效性,进行了一系列实验,具体的包括:

通过消融实验,我们旨在深入分析和验证TTMN在锂离子电池健康状态评估中的优越性。我们选择了在数据集1上进行实验,将TTMN与三种变体模型进行对比,这三种变体分别是去除了1DCNN模块、transformer模块和LSTM模块的模型。为了保证实验的有效性,我们统一使用表1中设置的参数,并在相同的环境下进行实验,可以清楚地看出,TTMN在所有五个评价指标中均取得了最佳结果。实验结果如表2所示:

表2消融实验结果

在鲁棒性实验中,我们对噪声的影响进行了评估,旨在探究TTMN在不同噪声水平下的表现。实验中,我们引入了不同幅度的噪声(50 mV、100 mV和150 mV)来模拟现实中电池数据的不确定性。实验结果如表3:

表3引入噪声的结果

从表格中的结果可以明显观察到,在所有评价指标下,随着噪声水平的增加,各个模型的性能都有所下降。然而,TTMN模型在不同噪声水平下依然保持了较高的估计准确性。以测试集1为例,随着噪声水平从50 mV增加到150 mV,TTMN的MSE仅从0.41增加到0.66。这表明TTMN模型对噪声的鲁棒性较强,能够在一定程度上抵抗数据不确定性的影响。此外,我们还注意到TTMN模型在测试集2上的表现同样出色。尽管在高噪声水平下,所有模型的性能均有所下降,但TTMN模型依然在各个评价指标中保持了相对较低的值,证明其在应对不同数据质量下的稳定性。

在对比试验中,我们进一步验证了提出的TTMN的准确性,通过将其与多个开源模型(GRU、LSTM和transformer)进行了比较实验,使用数据集1和数据集2分别进行评估,在这一系列的对比试验中,我们保持了统一的实验参数设置,以及相同的环境条件,以确保实验结果的可比性。结果如表4所示:

表4对比试验结果

从实验结果可以清晰地观察到,在所有评价指标下,TTMN都展现出显著的优势。以测试集1为例,TTMN模型相对于GRU、LSTM和transformer模型,在MSE、RMSE、MAE、MAPE和MAXE五个评价指标上分别降低了约54.9%、47.6%、45.1%、39.1%和53.9%。同样,在测试集2上,TTMN模型相对于GRU、LSTM和transformer模型,分别取得了约49.6%、35.9%、33.2%、30.9%和52.0%的性能提升。测试集3在GRU与LSTM中无法拟合,结果为空。我们可以得出结论:TTMN模型在3个数据集上均取得了更为准确和稳定的估计结果,相对于开源模型GRU、LSTM和transformer,其在多个评价指标下均取得了明显的优势。这进一步证明了TTMN模型在锂离子电池健康状态估计方面的出色性能,为电池管理和维护策略的优化提供了有力的工具和指导。

以上显示和描述了本发明的基本原理、主要特征和优点。本行业的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的只是说明本发明的原理,在不脱离本发明精神和范围的前提下,本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明范围内。本发明要求保护范围由所附的权利要求书及其等效物界定。

技术分类

06120116579994