Document
拖动滑块完成拼图
首页 专利交易 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

神经网络镇定动力系统的随机镇定器设计方法 

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

申请/专利权人:复旦大学

摘要:本发明属于动力系统控制技术领域,具体为神经网络镇定动力系统的随机镇定器设计方法。本发明利用NODE方法,在免模型情境中,先进行系统重构,再根据重构系统设计镇定器。本发明同时考虑受控系统的指数稳定性和渐进稳定性,分别设计指数镇定器和渐进镇定器来实现相应的稳定;根据这两种镇定器的计算复杂度和镇定效果的不同进行权衡,来选择具体的镇定器。在实际应用中,可以根据模型和系统参数事先计算出镇定器在这两个指标下的预计表现,以便对本方法进行更好的评估和使用。

主权项:1.一种神经网络镇定动力系统的随机镇定器设计方法,其特征在于,具体步骤为:S1:首先从目标系统对应的随机动力学的数学模型中进行采样;考虑随机动力学的一般形式:dx=fxdt+gxdBt,1其中,f表示漂移项,g表示耗散项,Bt表示标准布朗运动,下标t表示对应的时间;在模型已知的情况下,从漂移项和耗散项的解析表达式或者采样器中抽取N对样本作为后续的训练样本,下标i表示第i个样本,这里采样器指未知漂移项和耗散项的解析形式,但给定任意输入x可以获得相应函数值的输出fx,gx;在模型未知的情况下,根据神经常微分方程NODE从时序观测数据中重构随机动力学;具体地,对于时序观测数据观测数据服从的内在动力学被建模为一个常微分方程ODE:dx=fxdt,2目标是寻找合适的向量场f,使得观测数据对应该向量场的解;上述问题转化为下列优化问题: 这里,用神经网络参数化待定向量场f=f·;θ,用反向传播梯度更新方法寻找使得目标泛函最小的最优参数;在神经网络训练过程中需要计算损失函数L关于参数θ的梯度,其数学求解公式为: 上述公式说明训练过程中的参数梯度是关于参数化向量场的一个ODE的解,通过数值求解器来求解上述ODE;具体选择四阶龙格-库塔法来求解,梯度符号的下标zt,θ表示对相应的变量zt,θ求梯度;在得到用反向传播方法训练的向量场后,对其进行采样得到S2:利用神经网络搭建控制器;将多层前馈神经网络记为NNx∈Rd,其中d为目标系统所处空间的维数,并且用该网络来表示控制器u;为保证控制器不改变原系统的平衡点,控制器在目标平衡态处取值为0,不失一般性,通过坐标变换将目标平衡态平移至零点;于是,设计如下在零点处取值为0的控制器: 其中,对于向量x=xi,diagx表示一个第i个对角元为xi的对角矩阵;S3:利用神经网络搭建待定李雅普诺夫函数;具体提供两种不同形式的神经网络构造方法来表示李雅普诺夫函数:第一种形式是基于凸函数型神经网络的正定函数V:z1=σ0W0x+b0,zi+1=σiUizi+Wix+bi,gx≡zk,i=1,…,k-1, 其中,Wi,bi是实数值权重,Ui是正数权重,激活函数σi是凸单调递增函数,此处下标i表示第i层神经网络,ε是一个很小的正数,用来保证V函数的正定下界,是连续可导的可逆函数;为保证V∈C2Rd;R+,采用如下激活函数σi=σ: 该激活函数是传统整流线性激活函数的二阶光滑近似;第二种形式是基于二次型的物理背景,设计二次型神经网络;对任意x∈Rd,若Vθ∈Rd为一个参数为θ的多层前向神经网络,激活函数为Tanh,构造待定李雅普诺夫函数为下面的二次型形式: 其中,ε为很小的正数,用来调控函数的下界;根据二次型函数的性质,容易得到李雅普诺夫函数的正定性;S4:定义训练神经网络所需要的损失函数,作为神经网络参数更新的依据;目标是镇定目标系统的不稳定平衡点,因此,神经网络控制器满足能够使得受控系统平衡点稳定的条件;根据随机动力系统不同程度的稳定性以及相应的稳定性条件,将其分成指数稳定性和渐进稳定性;其中:指数稳定性是指随机动力系统的解xt以负指数的速度收敛到平衡点,即: 其中,x*表示目标平衡点;渐进稳定性是指随机动力系统的解xt在时间t充分大时收敛到平衡点,即: 根据这两种稳定性对应的充分性条件,得到相应的损失函数;对于指数稳定性,为表示简便起见,将神经网络的可训练参数记为θ,u,得到指数稳定性损失函数为: 其中,gux表示施加了控制的耗散项gx+ux,b>2是一个可以预先调整的权重因子;其中x服从分布μ;在实际训练中,采用如下的蒙特卡洛经验损失函数: 其中,是分布μ的独立同分布采样;对于渐进稳定性,将神经网络的可训练参数记为u,定义渐进稳定性损失函数为: 同样,采样蒙特卡洛经验损失函数为: 这里,0<α<1,为可调整的超参数,其中下标F表示Frobenius范数;S5:根据神经网络的反向传播方法,在采样数据上用梯度下降的方式更新神经网络的参数;在定义完成神经网络损失函数之后,使用Adam优化器更新神经网络参数;在训练完成后的神经网络控制器视为一个具有解析表达形式的函数,以系统的状态为自变量,输出控制策略;将该函数加到目标系统中进行闭环控制;S6:估计受控系统收敛到指定状态所需要的时间上界;选用ReLU或者Tanh作为激活函数,在这些激活函数下,神经网络是李普希兹连续的,将其李普希兹常数记为ku,下标u表示镇定器;首先得到指数镇定器关于阈值ε的收敛时间上界Tε计算公式为: 其中,τε=inf{t:‖xt‖=ε}表示受控系统首次到达目标态邻域的时间,x0为系统初值;接着,给出渐进镇定器的收敛时间上界计算公式: 其中,α∈0,1为神经网络训练过程中的超参数;在得到神经网络镇定器的收敛时间之后,继续对镇定器在控制过程中消耗的能量进行估计,以便评估在实际应用过程中的成本;首先定义控制过程中消耗的能量为: 其中,τε∧Tε表示这俩个量之间的最小值,在上述记号下,指数镇定器在镇定过程中的能量消耗上界为: 其中,为漂移项的李普希兹常数;进一步,给出渐进镇定器的能量消耗上界为 具体地,在根据观测数据将目标模型构建完成之后,依据S3-S5中的方法训练神经网络得到镇定器;在将镇定器应用到目标系统之前,依据S6中的计算方法计算出镇定器的收敛时间和消耗能量的上界估计,再根据指数镇定器和渐进镇定器的相应计算结果选择合适的镇定器。

全文数据:

权利要求:

百度查询: 复旦大学 神经网络镇定动力系统的随机镇定器设计方法

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。