Document
拖动滑块完成拼图
首页 专利交易 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

基于神经网络和强化学习的机器人步态规划算法 

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

申请/专利权人:合肥工业大学

摘要:本发明涉及机器人步态规划领域,尤其涉及基于神经网络和强化学习的机器人步态规划算法,包括以下步骤:建立动作网络与评价网络,根据机器人的当前状态与机器人控制器的参数建立强化学习的目标函数模型,获取当前策略下执行动作后,环境状态变化过程中的即时奖励值,通过动作网络与评价网络对奖励值进行更新以获取最优步态参数,并将该参数输入至机器人控制器中。本发明通过奖励机制与神经网络之间的结合来形成对机器人行动策略所产生的变化进行不断地学习,直至获得最优的步态参数,并将通过机器学习所产生的步态参数与控制器进行结合来实现对机器人步态的准确规划,以实现对机器人步态的精确跟踪。

主权项:1.基于神经网络和强化学习的机器人步态规划算法,其特征在于,包括以下步骤:S1:建立动作网络与评价网络,根据机器人的当前状态与机器人控制器的参数建立强化学习的目标函数模型;S2:获取当前策略下执行动作后,环境状态变化过程中的即时奖励值;S3:通过动作网络与评价网络对奖励值进行更新以获取最优步态参数,并将该参数输入至机器人控制器中;S201:根据机器人系统参数的不确定性,建立机器人下肢的动力学模型根;S202:在U-K方程的基础上,根据拉格朗日定理,建立无不确定性的一般约束系统的运动模型;S203:在不考虑摩擦力的情况下,根据机器人系统中的伺服约束建立受约束的机器人系统的显式运动模型;S204:在没有不确定性时的约束力的情况下,根据达朗贝尔原理的高斯原理和拉格朗日形式建立约束力模型;S205:根据约束力模型来设计鲁棒控制器;所述步骤S201中的机器人下肢的动力学模型如下: 其中,t表示时间,p表示关节的角位移,且p∈Rn,为机器人系统的角速度,为机器人系统的角加速,ε是不确定性的有界量,τt表示关节的输入力矩,H·∈Rn代表惯性矩阵,C·表示科氏力和离心力矩阵,F·是摩擦力和外部扰动矩阵,G·是重力项矩阵;所述步骤S202中的无不确定性的一般约束系统的运动模型如下: 其中,p=[p1,p2,…,pn]T,表示广义坐标,Hp,t∈Rn,表示系统对称的正定惯性矩阵,表示用于将系统摆脱约束的广义主动力矩阵;所述步骤S203中受约束系统的显式运动模型为: 其中,是约束力的矩阵,并驱动系统满足给定的约束,表示用于将系统摆脱约束的广义主动力矩阵;所述步骤S204中的约束力模型如下: 其中,是约束力的矩阵,t表示时间,“+”为广义逆矩阵,A为约束方程,p表示关节的角位移,且p∈Rn,为机器人系统的角速度,H·∈Rn代表惯性矩阵,C·表示科氏力和离心力矩阵,F·是摩擦力和外部扰动矩阵,G·是重力项矩阵;所述步骤S205中设计获得的鲁棒控制器如下: 其中,A为约束方程,H·∈Rn代表惯性矩阵,t表示时间,p表示关节的角位移,为机器人系统的角速度,是约束力的矩阵,P是所提的控制器的给定的参数矩阵,且P0,k是增益系数,ε是不确定性的有界半径的大小。

全文数据:

权利要求:

百度查询: 合肥工业大学 基于神经网络和强化学习的机器人步态规划算法

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

相关技术
相关技术
相关技术
相关技术