Document
拖动滑块完成拼图
个人中心

预订订单
服务订单
发布专利 发布成果 人才入驻 发布商标 发布需求

在线咨询

联系我们

龙图腾公众号
首页 专利交易 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 恭喜重庆交通大学尹燕莉获国家专利权

恭喜重庆交通大学尹燕莉获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网恭喜重庆交通大学申请的专利基于DQN算法的混合动力汽车再生制动控制方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN114643963B

龙图腾网通过国家知识产权局官网在2025-03-21发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202210376157.9,技术领域涉及:B60T8/17;该发明授权基于DQN算法的混合动力汽车再生制动控制方法是由尹燕莉;张鑫新;马什鹏;黄学江;王福振设计研发完成,并于2022-04-11向国家知识产权局提交的专利申请。

基于DQN算法的混合动力汽车再生制动控制方法在说明书摘要公布了:本发明提供的一种基于DQN算法的混合动力汽车再生制动控制方法,包括:S1.确定混合动力汽车的制动分配系数;S2.构建基于深度Q学习的再生制动控制的多目标优化模型;S3.确定混合动力汽车的状态参数以及动作参数;S4.将混合动力汽车的状态参数及动作参数输入至深度Q学习网络中进行离线训练;S5.再实时采集混合动力汽车的状态参数输入至完成训练的深度Q学习网络中在线优化,然后深度Q学习网络输出优化后的前轴制动力矩比例系数β和电机制动力矩比例系数α;能够使得混合动力汽车的再生制动分配合理,从而有效提升混合动力汽车能量回收效率以及制动的稳定性。

本发明授权基于DQN算法的混合动力汽车再生制动控制方法在权利要求书中公布了:1.一种基于DQN算法的混合动力汽车再生制动控制方法,其特征在于:包括以下步骤:S1.确定混合动力汽车的制动分配系数,包括前轴制动力矩比例系数β和电机制动力矩比例系数α;S2.构建基于深度Q学习的再生制动控制的多目标优化模型;S3.确定混合动力汽车的状态参数以及动作参数;其中,状态参数包括制动需求功率以及电池SOC值,动作参数包括前轴制动力矩比例系数β、电机制动力矩比例系数α、制动能量回收效率权重系数ω1、前轮制动稳定性权重系数ω2以及后轮制动稳定性权重系数ω3;S4.将混合动力汽车的状态参数及动作参数输入至深度Q学习网络中进行离线训练;S5.再实时采集混合动力汽车的状态参数输入至完成训练的深度Q学习网络中在线优化,然后深度Q学习网络输出优化后的前轴制动力矩比例系数β和电机制动力矩比例系数α;步骤S1中,前轴制动力矩比例系数β和电机制动力矩比例系数α通过如下方法确定: 其中:Tf为前轴总的制动力矩,Tr为后轴总的制动力矩,Tre为电机制动力矩;步骤S2中,深度Q学习的再生制动控制的多目标优化模型具体为:目标函数为: 其中,Qs,a为最优的状态-动作函数,γt为折扣因子且γt∈[0,1],rst,at为在状态为st且动作为at时的回报函数,t表示时刻;其中,回报函数具体表达式为: 其中:ω1为制动能量回收效率权重系数,ω2为前轮制动稳定性权重系数,ω3为后轮制动稳定性权重系数,φf为前轴利用附着系数,φr为后轴利用附着系数,z为制动强度;能量回收评价指数K通过如下方法确定: 其中,Tm为电机的转矩,nm为电机的转速,ηm为电机的效率,m为整车质量,v0为车辆制动初速度,vt为车辆制动中速度,f为滚动阻尼系数,CD为空气阻尼系数,A为车辆的迎风面积,v为车辆的速度,g为重力加速度;且目标函数和回报函数的约束条件如下: 其中,La为整车重心与前轴的距离,Lb为整车重心与后轴的距离,hg为整车重心的高度,L表示混合动力汽车的轴距;Tm_max为电机的最大转矩,Tm为电机的转矩,Pchg_max为电池的最大充电功率,nm为电机的转速,ηm为电机的效率;对深度Q学习网络进行训练具体包括:S41.确定随机样本数量nb,迭代次数n、折扣因子γt以及探索率ε,并初始化深度Q学习网络的权重值θ;S42.将车辆制动过程中的需求功率Preq和电池SOC值作为状态变量,将前轴制动力矩比例系数β、电机制动力矩比例系数α、制动能量回收效率权重系数ω1、前轮制动稳定性权重系数ω2以及后轮制动稳定性权重系数ω3作为动作变量;S43.选取动作变量样本,并采用ε-greedy策略确定深度Q学习网络的最优Q值所对应的动作,计算回报值,并储存当前状态st下的动作at、回报值以及下一时刻的状态st+1至经验池et,其中:et=st,at,rt,st+1;确定最优Q值所对应的动作具体为: 其中,πa|s为最优Q值所对应的动作策略,ε为探索率,As表示当前状态s下可行动作的总个数;S44.当经验池et的样本存储量达到设定值,从经验池中选取nb个样本对深度Q学习网络进行训练;S45.构建损失函数:Lθ=E{[r+γtminQst+1,at+1;θ--Qst,at;θ]2};利用梯度下降法反向更新深度Q学习网络中的权重值θ;S46.每个设定步长C将评价网络参数中的评价网络参数复制给深度Q学习网络的目标网络;S47.判断循环迭代次数是否达到最大值,如是,则进入步骤S48,如否,则重复步骤S43-S46直至迭代次数达到最大值;S48.判断相邻迭代次数的累计预测Q值之间的差值是否小于设定阈值,如是,则迭代结束,并将此时Q值对应的动作作为最优动作,如否,则返回步骤S43。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人重庆交通大学,其通讯地址为:402247 重庆市江津区双福新区福星大道1号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。