买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
申请/专利权人:北京工业大学
摘要:本发明公开了一种基于Transformer和长短期记忆网络的BOD5指标软测量方法。该方法利用污水处理中的易于测量的出水指标参数和对BOD5造成影响的出水指标参数的连续时间数据,构造可用于预测的完整空气质量数据集。随后基于预处理后的数据集进行比例划分,构造训练集和测试集。利用训练集数据对LSTM‑former模型进行参数调优,包括注意力头层数,模型维度、注意力机制中Q、K、V的维度、神经元个数、随机失活率、初始学习率、迭代次数、批次大小等。接着构造可用于软测量BOD5浓度的参数调优后的LSTM‑former模型,确定优化算法,选定激活函数。基于训练完毕的LSTM‑former软测量模型预测得到BOD5的浓度预测值,本发明提高模型精度,增强了泛化能力。
主权项:1.基于Transformer和长短期记忆网络的污水出水指标BOD5软测量方法,其特征在于,包括以下步骤:S1:获取某污水处理厂在处理污水之后多个易于测量的出水指标参数和对BOD5造成影响的出水指标参数的连续时间数据,构造污水指标原始数据集;S2:对所构造的污水出水指标初始数据集进行预处理,对异常值进行修正,采用插值法填补数据空缺,构造可用于软测量的完整污水出水指标数据集Z;其中M为辅助变量与目标变量的和,N为所获取数据总采样数;M为14; 具体形式为 t时刻的输入即为:Xt=[x2t,x2t…x14t]TS3:基于预处理后的数据集进行比例划分,构造训练集和测试集;利用训练集数据对LSTM-former模型进行参数调优,包括神经元个数、随机失活率、学习率α、初始学习率α0、迭代次数、批次大小;α=α01+kt其中k为超参数,用来控制学习率α减缓幅度,设置为0.1,α的每一次变换为上一次的90%之上,;t为训练轮数,与epoch保持一致设置为200;S4:构造可用于软测量BOD5浓度的参数调优后的LSTM-former模型,根据模型训练表现,确定优化算法,选定激活函数ReLU,确保训练序列和原始真实序列之间的动态一致性;用于BOD5软测量的公式如下:首先为LSTM的计算公式:ft=σWf·[xt,ht-1]+bfit=σWi·[xt,ht-1]+bi ot=σWo·[xt,ht-1]+boht=ot*tanhCt其中角标t表示时刻,ft表示输入门,it表示遗忘门,ot表示输出门;σ表示Sigmoid函数;Wf和bf分别表示遗忘门ft的权重和偏置,Wi和bi分别表示输入门it的权重和偏置,Wo和bo分别表示输入门ot的权重和偏置;ht-1表示隐藏层状态,xt表示当前时刻t的输入,它们在遗忘门经过一个tanh层,得到一个新的候选值Wc和bc分别代表候选层的权重和偏置;Ct表示细胞cell状态更新后的输出;Ct-1表示上一时刻的cell状态,ht表示最终的输出;其次是Transformer多头注意力机制的计算公式:Qi=X·WiQKi=X·WiKVi=X·WiV Oi=AttentionQi,Ki,Vii=1......hO=ConcatO1,O2,...,OhWO其中Qi、Ki、Vi是输入矩阵X通过矩阵运算变化得到的3个矩阵,并将其乘以训练的权重矩阵WiQ、WiK、WiV转换出来的查询矩阵、键矩阵和值矩阵;dk是向量维度,Oi是多头注意力层h个注意力头中第i个注意力头的输出,Concat函数是将多个向量按照指定的维度进行拼接,WO是最终的输出权重矩阵,O为最终的多头注意力输出;最后将LSTM的机制融入到Transformer多头注意力的运算中,在Q、K、V进行自注意力机制的运算前先经过LSTM的处理,它们分别作为公式里的xt输入到LSTM里,输出得到新的Q*、K*、V*,在进行后续运算;S5:基于训练完毕的LSTM-former软测量模型对测试集进行软测量得到BOD5的浓度软测量值;并根据软测量值与真实值对模型进行性能评估。
全文数据:
权利要求:
百度查询: 北京工业大学 一种基于Transformer和长短期记忆网络的污水出水指标BOD5软测量方法
免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。