买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
申请/专利权人:河海大学
摘要:本发明属于水文模型参数优化技术领域,具体公开了一种基于神经常微分方程的水文模型参数优化方法,步骤包括:参数学习神经网络构建,常微分方程组正向数值求解,水文模型参数反向传播更新以及水文模型参数迭代优化。本发明所述方法将神经网络嵌入到微分形式水文模型结构中,结合流域水文过程的物理机制与深度学习算法的数据挖掘能力,形成基于神经常微分方程的水文模型参数优化方法,降低了模型参数的不确定性、并提高了模型模拟精度。本发明解决了解决微分形式水文模型获取模型参数全局最优和稳定解的难题。
主权项:1.一种基于神经常微分方程的水文模型参数优化方法,其特征在于,所述方法包括以下步骤:步骤1,参数学习神经网络构建:构建用于学习水文模型参数与流域下垫面属性之间关系的神经网络N,记迭代次数为k;在第k次迭代时,神经网络参数θ的参数初值记为θk,0,基于神经网络N和流域下垫面属性数据A,转换得到水文模型参数δ的参数值,记为δk;使用0初始化迭代次数k,此时的神经网络参数θ的参数初值为θ0,0,初始化θ0,0,对应转换得到的水文模型参数值为δ0;步骤2,常微分方程组正向数值求解:将步骤1得到的水文模型参数值δ0代入水文模型的常微分方程组中,设定水文模型状态变量初始值和流域水文气象输入数据,采用常微分方程求解器对水文模型的常微分方程组进行正向数值求解,得到流量模拟数据;步骤3,神经网络参数反向传播更新:基于流域出口断面的流量观测数据、步骤2得到的流量模拟数据,计算损失函数值,然后计算该损失函数值相对于步骤1中神经网络参数θ的梯度,通过反向传播对神经网络参数θ进行更新,得到神经网络参数更新值θk+1,0;步骤4,水文模型参数迭代优化:基于步骤1中的神经网络N和流域下垫面属性数据A、步骤3得到的神经网络参数更新值θk+1,0,计算得到水文模型参数更新值δk+1;使用δk+1替换步骤1得到水文模型参数值δ0或上次迭代过程中计算得到的水文模型参数更新值δk,作为步骤2的输入,依次再执行一次步骤2所述的常微分方程组正向数值求解过程和步骤3所述的神经网络参数反向传播更新过程,基于步骤1中的神经网络N和流域下垫面属性数据A、步骤3得到的神经网络参数更新值θk+2,0,计算得到水文模型参数更新值δk+2,将迭代次数k加1,完成一次完整的迭代过程;重复迭代过程,直至损失函数值收敛,此时的水文模型参数更新值δk+2即为最优的水文模型参数值。
全文数据:
权利要求:
百度查询: 河海大学 一种基于神经常微分方程的水文模型参数优化方法
免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。