专利名称:基于化成分容数据的锂电池容量预测方法
专利类型:发明专利
专利申请号:CN202410252193.3
专利申请(专利权)人:北京理工大学
权利人地址:北京市海淀区中关村南大街5号
专利发明(设计)人:孙潇,张文珂,杨晓光,何洪文,孙逢春
专利摘要:本发明提出一种基于化成分容数据的锂电池容量预测方法,包括:根据每个锂电池化成数据的电压时间序列数据与容量时间序列数据计算每个锂电池的IC曲线;对计算得到的IC曲线使用Savitzky‑Golay滤波;获取数据的位置编码与放缩后的IC曲线加和,构造时间序列特征;将时间序列特征整理为上层训练集;使用上层训练集训练上层模型,生成抽象特征;通过抽象特征生成下层模型输入,与锂电池容量成组构成下层模型训练集,对下层模型进行训练;对待预测电池的化成数据通过神经网络模型预测电池容量。本发明提到一种效果更好的特征归一化方法,对化成数据的IC曲线进行归一化后与时间的正弦函数相加得到特征,使得时间的位置特征更加明显,处理后的特征作为上层模型的输入。
主权利要求:
1.一种基于化成分容数据的锂电池容量预测方法,其特征在于,所述基于化成分容数据的锂电池容量预测方法包括以下步骤:步骤1,根据每个锂电池化成数据的电压时间序列数据与容量时间序列数据计算每个锂电池的IC曲线;
步骤2,对计算得到的IC曲线使用Savitzky‑Golay滤波;
步骤3,获取数据的位置编码与放缩后的IC曲线加和,构造时间序列特征;
步骤4,将时间序列特征整理为上层训练集;
步骤5,使用上层训练集训练上层模型,生成抽象特征;
步骤6,通过抽象特征生成下层模型输入,与锂电池容量成组构成下层模型训练集,对下层模型进行训练;
步骤7,对待预测电池的化成数据通过神经网络模型预测电池容量;
在步骤1中,每个锂电池的IC曲线为:
式中,Qraw(ti)、Vraw(ti)分别为ti时刻原始容量、电压数据;
在步骤3中,对所述IC曲线进行放缩,使其区间变化为[‑1:1]之间:其中,xj为序列中的第j个点,xmin序列中的最小值,xmax为序列中的最大值, 表示进行放缩后序列中的第j个点;
在放缩后序列后加上位置编码,所述位置编码是关于时间的正弦函数,生成时间序列特征:其中,tj为第j个数据所对应的时间,fj为时间序列特征;
在步骤5中,所述上层模型包括上层模型输入(1)、卷积模块(2)、LSTM模块(3)、全连接层(4)和上层模型输出(5);
上层模型输入(1)、卷积模块(2)、LSTM模块(3)、全连接层(4)和上层模型输出(5)依次连接,卷积模块(2)中由卷积层与池化层构成,LSTM模块(3)由LSTM层与展平层构成;
所述全连接层(4)中神经元为d个,则每通过一次序列对序列的抽象特征提取能够得到形状为d×1的特征,通过a段时间序列特征的抽象特征提取,可以得到形状为 的抽象特征。
2.根据权利要求1所述基于化成分容数据的锂电池容量预测方法,其特征在于,在步骤
2中,所述Savitzky‑Golay滤波为:
其中Yj为平滑之后的第j个增容数据,m为窗口宽度,j为平滑点,Ci是拟合多项式的系数,用于在每个数据点上对数据进行加权平均,以产生一个新的经过滤波的点,该系数通过最小二乘法确定。
3.根据权利要求1所述基于化成分容数据的锂电池容量预测方法,其特征在于,在步骤
4中,所述上层训练集取多段时间序列特征中任意两段时间序列,其中在时间序列上较早的作为输入数据,较晚的作为输出标签。
4.根据权利要求1所述基于化成分容数据的锂电池容量预测方法,其特征在于,在步骤
6中,下层模型为基于Transformer的锂电池容量预测模型,包括具体任务模型输入(6)、transformer编码块(7)、平均池化层(8)和下层模型输出(9);
具体任务模型输入(6)与全连接层(4)连接,用于获取抽象特征作为下层模型输入数据,具体任务模型输入(6)、transformer编码块(7)、平均池化层(8)和下层模型输出(9)依次连接,下层模型输出(9)输出锂电池容量预测值,通过下层模型输出(9)与锂电池真实容量来训练网络。
5.根据权利要求1所述基于化成分容数据的锂电池容量预测方法,其特征在于,在步骤
5中,所述上层模型的损失函数为:
其中,n为时间序列的长度,fj为真实特征序列值, 为预测值。
6.根据权利要求4所述基于化成分容数据的锂电池容量预测方法,其特征在于,在步骤
6中,所述下层模型的损失函数为:
其中,k为锂电池容量的个数,yi为真实值, 为预测值,通过最小化均方误差来优化神经网络参数,当随着迭代次数增加验证集损失不在降低时停止训练。
7.根据权利要求4所述基于化成分容数据的锂电池容量预测方法,其特征在于,在步骤
6中,提取全连接层(4)的神经元输出的抽象特征作为下层模型的输入,并将对应锂电池的预测容量作为标签对下层模型进行训练。 说明书 : 基于化成分容数据的锂电池容量预测方法技术领域[0001] 本发明涉及锂电池技术领域,特别涉及一种基于化成分容数据的锂电池容量预测方法。背景技术[0002] 在现有技术中,实际生产线上锂电池首先会进行化成,以激活电池;随后需要分容,进行多次充放电循环,来标定锂电池的容量,并对产品进行分级。其中,分容工艺需要大量的时间,并且消耗了大量电能。目前仅有头部几个电池企业取消分容工序或减少了分容设备。主要通过以下策略,一是提高前端工艺水平,使得生产的电池容量一致性高;二是基于已有的电池化成大数据与对应容量,建立起预测模型。[0003] 然而,在现有电池容量预测方法中,存在如下问题:一是提取特征时没有充分利用神经网络的特点,人为提取的特征不一定效果更好;二是在设计时没有充分利用化成时间序列数据的特点,没有设计有效的使用方法;三是现在公开的方法中往往只针对同一种批次的电池,当针对不同批次电池时还需要重新训练网络。发明内容[0004] 本发明利用化成数据的增量容量(Incrementalcapacity,IC)曲线,对其进行归一化处理后,充分利用其时间序列的特点,首先在上层抽线象任务模型中进一步提取抽象特征,作为下层具体任务模型的输入以预测锂电池容量,建立起化成数据与锂电池容量的映射关系,仅需要化成数据几个即可预测锂电池容量,省去了分容工步,节省了电能,提高了生产效率。[0005] 本专利提出一种基于化成分容数据的锂电池容量预测方法,所述基于化成分容数据的锂电池容量预测方法包括以下步骤:[0006] 步骤1,根据每个锂电池化成数据的电压时间序列数据与容量时间序列数据计算每个锂电池的IC曲线;[0007] 步骤2,对计算得到的IC曲线使用Savitzky‑Golay滤波;[0008] 步骤3,获取数据的位置编码与放缩后的IC曲线加和,构造时间序列特征;[0009] 步骤4,将时间序列特征整理为上层训练集;[0010] 步骤5,使用上层训练集训练上层模型,生成抽象特征;[0011] 步骤6,通过抽象特征生成下层模型输入,与锂电池容量成组构成下层模型训练集,对下层模型进行训练;[0012] 更近一步地,在步骤1中,所述每段序列的IC曲线为:[0013][0014] 式中,Qraw(ti)、Vraw(ti)分别为ti时刻原始容量、电压数据。[0015] 更近一步地,在步骤2中,所述Savitzky‑Golay滤波为:[0016][0017] 其中Yj为平滑之后的第j个增容数据,m为窗口宽度,j为平滑点,Ci是拟合多项式的系数,用于在每个数据点上对数据进行加权平均,以产生一个新的经过滤波的点,该系数通过最小二乘法确定。[0018] 更近一步地,在步骤3中,对所述IC曲线进行放缩,使其区间变化为[‑1:1]之间:[0019][0020] 其中,xj为序列中的第j个点,xmin序列中的最小值,xmax为序列中的最大值, 表示进行放缩后序列中的第j个点;[0021] 在放缩后序列后加上位置编码,所述位置编码是关于时间的正弦函数,生成时间序列特征:[0022][0023] 其中,tj为第j个数据所对应的时间,fj为时间序列特征。[0024] 更近一步地,在步骤4中,所述上层训练集取多段时间序列特征中任意两段时间序列,其中在时间序列上较早的作为输入数据,较晚的作为输出标签。[0025] 更近一步地,在步骤5中,所述上层模型包括输入层、卷积模块、LSTM模块、全连接层和输出层;[0026] 输入层、卷积模块、LSTM模块、全连接层和输出层依次连接,卷积模块中由卷积层与池化层构成,LSTM模块由LSTM层与展平层构成;[0027] 所述全连接层中神经元为d个,则每通过一次序列对序列的抽象特征提取能够得到形状为d×1的特征。通过a段时间序列特征的抽象特征提取,可以得到形状为 的抽象特征。[0028] 更近一步地,在步骤6中,下层模型为基于Transformer的锂电池容量预测模型,包括下层输入、编码块、平均池化层和下层模型输出;[0029] 下层输入与全连接层连接,用于获取抽象特征作为下层模型输入数据,下层输入、编码块、平均池化层和下层模型输出依次连接,下层模型输出输出锂电池容量预测值,通过最小化网络输出与锂电池真实容量来训练网络。[0030] 更近一步地,在步骤5中,所述上层模型损失函数为:[0031][0032] 其中,n为时间序列的长度,fj为真实特征序列值, 为预测值。[0033] 更近一步地,在步骤6中,所述下层模型损失函数为:[0034][0035] 其中,k为锂电池容量的个数,yi为真实值, 为预测值。通过最小化均方误差来优化神经网络参数,当随着迭代次数增加验证集损失不在降低时停止训练。[0036] 更近一步地,在步骤6中,提取全连接层的神经元输出的抽象特征作为下层模型的输入,并将对应锂电池的预测容量作为标签对下层模型进行训练。[0037] 本发明达到的有益效果是:[0038] 本发明建立了一套完善的神经网络工作流程,提出了上层抽象任务与下层具体任务的工作流程,上层抽象任务基于CNN‑LSTM网络1‑5构建序列到序列的模型,下层具体任务模型基于transformer神经网络6‑9预测锂电池具体容量;[0039] 本发明上层模型中基于序列到序列的模型,通过将整段化成数据分为多个子段,能够对任意化成数据处理,降低了方法的使用难度,增加了方法易用性;[0040] 本发明基于迁移学习理论,通过上层CNN‑LSTM神经网络训练后提取全连接层4神经元作为具体任务模型的特征输入,充分利用神经网络提取特征的特点;[0041] 本发明由于流程中存在上层模型,即迁移学习中用来提取抽象特征的层。因此该方法可同时应用在不同批次的电池中;[0042] 本发明提到一种效果更好的特征归一化方法,对化成数据的IC曲线进行归一化后与时间的正弦函数相加得到特征,使得时间的位置特征更加明显,处理后的特征作为上层模型的输入。附图说明[0043] 图1为本发明实施例提供的基于化成分容数据的锂电池容量预测方法的流程示意图;[0044] 图2为本发明实施例提供的基于化成分容数据的锂电池容量预测方法中锂电池容量预测模型网络上层抽象任务模型的结构示意图;[0045] 图3为本发明实施例提供的基于化成分容数据的锂电池容量预测方法中锂电池容量预测模型网络下层具体任务模型的结构示意图;[0046] 图4为本发明实施例提供的基于化成分容数据的锂电池容量预测方法的下层具体任务模型中编码块的结构细节的示意图;[0047] 图5为本发明实施例提供的基于化成分容数据的锂电池容量预测方法的上层抽象任务模型中LSTM单元的示意图;[0048] 图6为本发明实施例提供的基于化成分容数据的锂电池容量预测方法实施例一中IC曲线进行SG滤波的示意图;[0049] 图7为本发明实施例提供的基于化成分容数据的锂电池容量预测方法实施例一中训练集与验证集损失函数的示意图。[0050] 附图中的标记说明:[0051] 1‑上层模型输入,2‑卷积模块,3‑LSTM模块,4‑全连接层,5‑上层模型输出,6‑具体任务模型输入,7‑transformer编码块,8‑平均池化层,9‑下层模型输出,10‑LSTM单元输入门,11‑LSTM单元遗忘门,12‑LSTM单元状态更新门,13‑LSTM输出门,14‑编码块输入,15‑多头注意力模块,16‑残差连接模块。具体实施方式[0052] 下面结合附图对本发明的技术方案进行更详细的说明,本发明包括但不仅限于下述实施例。[0053] 如附图1所示,本发明提供了基于化成分容数据的锂电池容量预测方法,包括以下流程:[0054] 步骤1,根据每个锂电池化成数据的电压时间序列数据与容量时间序列数据计算每个锂电池的IC曲线;[0055] 锂电池的IC曲线为:[0056][0057] 式中,Qraw(ti)、Vraw(ti)分别为ti时刻原始容量、电压数据。[0058] 步骤2,对计算得到的IC曲线使用Savitzky‑Golay滤波;[0059] Savitzky‑Golay滤波公式为:[0060][0061] 其中Yj为平滑之后的第j个增容数据,m为窗口宽度,j为平滑点,Ci是拟合多项式的系数,用于在每个数据点上对数据进行加权平均,以产生一个新的经过滤波的点,该系数通过最小二乘法确定。[0062] 在本发明中滤波窗口的宽度为5,即每次窗口包含处理点以及前后两个点,对窗口内数据进行最小二乘法的多项式拟合,本发明中使用二次多项式进行拟合。SG滤波器平滑了数据,同时保持数据的形状和趋势,减少了噪声的影响。[0063] 将滤波后的IC曲线截取为等长度的a段数据每段曲线都有相同个数的点,设点的个数为n;[0064] 步骤3,获取数据的位置编码与放缩后的IC曲线加和,构造时间序列特征;[0065] 对IC曲线进行放缩,使其区间变化为[‑1:1]之间,放缩公式如下[0066][0067] 其中,xj为序列中的第j个点,xmin序列中的最小值,xmax为序列中的最大值, 表示进行放缩后序列中的第j个点。[0068] 随后在放缩后序列后加上位置编码,生成时间序列特征:[0069][0070] 其中,tj为第j个数据所对应的时间,单位为s。[0071] 此处位置编码即为关于时间的正弦函数sin(tj),经过以上步骤得到a段长度为n的时间序列特征。[0072] 步骤4,将时间序列特征整理为上层训练集;[0073] 每个上层训练集取a段时间序列特征中任意两段时间序列,其中在时间序列上较早的作为输入数据,较晚的作为输出标签。[0074] 步骤5,使用上层训练集训练上层模型,生成抽象特征;[0075] 如附图2‑3所示,上层模型包括上层模型输入1、卷积模块2、LSTM模块3、全连接层4和上层模型输出5;[0076] 上层模型输入1、卷积模块2、LSTM模块3、全连接层4和上层模型输出5依次连接,卷积模块2中由卷积层与池化层构成,LSTM模块3由LSTM层与展平层构成。[0077] LSTM模块3包括LSTM单元输入门10、LSTM单元遗忘门11、LSTM单元状态更新门12、LSTM输出门13。[0078] 取a段时间序列特征中两段时间序列的特征,分别作为上层模型输入1与上层模型输出5的真实值,时间序列特征由上层模型输入1输入上层模型的神经网络,依次经过卷积模块2、LSTM模块3、全连接层4得到上层模型输出5。[0079] 上层模型损失函数为:[0080][0081] 其中,n为时间序列的长度,fj为真实特征序列值, 为预测值。[0082] 设置全连接层4中神经元为d个,则每通过一次序列对序列的抽象特征提取能够得到形状为d×1的特征。通过a段序列的抽象特征提取,可以得到形状为 的抽象特征。[0083] 一般来说,a的数值不大,分成两段即有效果,随着电池数量增多,分段可增加通过上层模型得到更多的特征,实际操作中电池数量太少分段过多造成的训练结果较差。[0084] 具体的,通过上层训练集训练上层模型,输入输出分别为a段序列中任意两段时间序列,即训练出 个模型。其中任意两段时间序列中第1段作为输入第2段作为输出标签,通过最小化预测结果与标签的损失来改进神经网络权重,损失函数使用的是均方误差函数。到验证集损失在5个迭代步不在下降停止训练,此时训练好模型。[0085] 将多个电池数据第一段作为输入,输入训练好的模型,提取全连接层的神经元数值,提取到形状为d*1的数值。[0086] 分别使用 组时间序列对神经网络进行训练,训练过程相同。训练好模型后,按照同样步骤提取d*1的全连接层神经元数值,堆叠得到形状为 的抽象特征。[0087] 步骤6,通过抽象特征生成下层模型输入,与锂电池容量成组构成下层模型训练集,对下层模型进行训练;[0088] 如附图4‑5所示,本发明中的上层模型任务与下层模型具体任务高度相关,因此提取全连接层4的神经元输出的抽象特征作为下层模型的输入,并将对应锂电池的预测容量作为标签对下层模型进行训练。[0089] 下层模型为基于Transformer的锂电池容量预测模型,包括具体任务模型输入6、transformer编码块7、平均池化层8和下层模型输出9;[0090] 具体任务模型输入6与全连接层4连接,用于获取下层模型输入数据,具体任务模型输入6、transformer编码块7、平均池化层8和下层模型输出9依次连接,下层模型输出9输出锂电池容量预测值,通过下层模型输出9与锂电池真实容量来训练网络。[0091] 由于任务可概括为从特征中提取信息最后并预测目标,不涉及到解码过程,因此只需要使用transformer网络中的transformer编码块7即可。[0092] 如图3,transformer编码块7包括多个“Encoder”块叠加组成,“Encoder”的主要由多头注意力模块15、前馈神经网络模块组成。两个模块均设置随机失活层以及层标准化层。[0093] 以下分别叙述多头注意模块以及前馈残差神经网络,多头注意力模块15的核心步骤如下:[0094] 首先,模型会将输入的查询Q、键K和值V通过三个不同的线性变换映射到不同的维度,得到Q′,K′和V′。[0095] Q′=Q·WQ[0096] K′=K·WK[0097] V′=V·WV[0098] 其中,WQ、WK和WV是待学习的参数矩阵,Q、K、V为同一个输入向量。[0099] Self‑Attention的计算公式如下:[0100][0101] 在多头注意力模块15中,会有多个头独立执行上述步骤,最终所有头将得到的输出向量拼接得到最终的输出。[0102] output=Concat(outputhead1,outputhead2,…,outputheadn)[0103] 前馈残差神经网络的核心步骤如下:[0104] 前馈神经网络由两层卷积网络组成,第一层卷积网络卷积核大小为1,相当于使用执行线性变化操作,随后使用Dropout策略,随机失活一部分神经元,防止模型过拟合。第二个卷积网络使得形状恢复到原始的维度,最后使用层归一化,对每个时间步执行归一化操作,使其均值为0、方差为1,该步同样防止训练过程中梯度爆炸与梯度消失问题。[0105] 由于Relu函数的计算量小,并且在大部分网络中有效性好。根据奥卡姆剃刀原则,本发明中神经网络所有激活函数均使用Relu函数。Relu激活函数表达式为:[0106] f(x)=max(0,x)[0107] 下层模型损失函数通过最小化均方误差来优化神经网络参数,当随着迭代次数增加损失不在降低时停止训练。[0108] 对下层模型的训练过程中,将多个电池的 的抽象特征作为输入,电池容量作为输出标签,损失函数使用均方误差,当验证集损失函数5步不再下降时停止训练,此时训练好下层模型。[0109] 步骤7,对待预测电池的化成数据通过神经网络模型预测电池容量。[0110] 实施案例一[0111] 本发明提出的基于迁移学习的方法能够在同一次训练中应用在不同电池批次以及不同电池配方中。为了说明发明方法有效性,本部分提供以下具体实施案例。[0112] 不同于已经存在的专利中的实施部分,该案例包含了不同配方、不同批次共100个电池,以说明方法在应用至不同配方的有效性。[0113] 电池为4种不同配方的电池。其中,一配方包含24个电池,二配方包含35个电池,三配方包含27个电池,三配方的27个电池又分为3批次制造,每批次个数分别为11、5、11,四配方包含14个电池,所有电池在0.2C情况下的放电容量由分容工步提取。[0114] 需要说明的是,在该案例中,数据量较少会成为制约电池预测准确性的主要因素,因此该案例主要说明该迁移学习方法在同时应用在不同配方中的有效性。在实际应用中,如果需要在一个模型中同时预测多个配方多个批次电池的容量,需要每个批次电池的数量至少达到几百数量级。[0115] 首先通过电池化成数据的电压与容量数据计算其IC曲线,将其归一化后加上时间的正弦函数,随后进行SG滤波,设置窗口大小为5,拟合多项式次数为3。根据设置的参数,SG滤波公式可写为:[0116][0117] 式中,Yj为滤波后的点y为滤波之前的点。滤波之后将其等距的划分为3段。每段95个数据点。[0118] 得到的三段曲线如图6所示,随后分别将第一段第二段,第一段第三段,第二段第三段作为输入输出,对应放入CNN‑LSTM神经网络用于提取抽象特征。由于电池数量较少,在该任务中,仅使用一层卷积层,卷积核个数设置为8。LSTM层单元个数设置为32,全连接层神经元个数为128。该网络在多个层中设置随机失活以避免过拟合情况。[0119] 上层模型的数据集全部用来训练,当训练过程中当训练损失在5个迭代步内不再下降后,停止训练。需要说明的时,其他数据集划分可根据实际情况确定,例如当数据量足够大时,尽量设置验证集。[0120] 接下来提取全连接层神经元作为迁移学习的抽象特征,每次训练可得到形状为128*1的特征。最终训练完成后,每个电池提取得到形状为128*3的特征。[0121] 每个电池的放电容量从分容工序中提取,并对其取以e为底的对数进行归一化。[0122] 随后将得到的特征迁移至容量预测模型中。该模型的具体参数设置为:使用“Encoder”块个数为3,多头注意力个数为8,键的维度设置为128,全连接层神经元为128。为防止过拟合,在多个层中使用随机失活策率。[0123] 具体任务模型中,将数据集100个电池的划分为10个测试集,10个电池验证集,80个电池训练集。为保证训练效果,测试集和验证集均涵盖四个不同配方。[0124] 使用均方误差作为损失函数,当验证集损失在5个迭代步内不在下降时停止训练。训练过程中训练集与验证集损失函数如图7所示。[0125] 训练完成后,将模型应用在测试集中,其误差如表1所示。[0126] 表1[0127]电池编号 预测容量(Ah) 实际容量(Ah) 误差5 2.2174 2.1997 0.805%25 2.3471 2.2987 2.11%28 2.2971 2.2931 0.174%44 2.1658 2.1634 0.110%[0128] 从表1可以看出,在该案例中,使用该方法应用于包含多个配方的电池数据集中。在数据量较少的情况下,取得了可以接受的结果。[0129] 实施案例二[0130] 实施案例二为同种配方电池,共500个。首先通过化成数据计算IC曲线,按照方法归一化后进行SG滤波处理,取窗口大小为5,拟合多项式次数为3。将滤波后曲线划分为等长的3个区间。该案例中,上层模型使用两层卷积层,第一层卷积核个数设置为16,第二层卷积核个数设置为8,每层卷积后跟随一层最大池化层。LSTM单元个数设置为32,全连接层神经元个数设置为128。[0131] 同案例一,每个电池可以得到大小为128*3的特征,将其输入transformer容量预测模型中,“Encoder”块个数为4,多头注意力个数为8,键的维度设置为128。其中数据集划分为训练集400个电池,验证集50个电池,测试集50个电池。测试集部分电池预测情况如表2所示。[0132] 表2[0133] 电池编号 预测容量(Ah) 实际容量(Ah) 误差37 5.0894 5.081 0.165%123 5.1032 5.095 0.161%248 5.1107 5.106 0.092%385 5.0036 4.98 0.474%478 5.1197 5.125 0.103%[0134] 表二中的预测容量保留4位小数,实际容量由实验测出。由于制作电池时存在容量冗余以避免容量低于标称容量,减少容量不合格率,所以大部分电池容量都大于5Ah。该预测误差在可以接受范围内。[0135] 本发明不仅局限于上述具体实施方式,本领域一般技术人员根据实施例和附图公开内容,可以采用其它多种具体实施方式实施本发明,因此,凡是采用本发明的设计结构和思路,做一些简单的变换或更改的设计,都落入本发明保护的范围。
专利地区:北京
专利申请日期:2024-03-06
专利公开日期:2024-09-03
专利公告号:CN118091424B