Document
拖动滑块完成拼图
个人中心

预订订单
服务订单
发布专利 发布成果 人才入驻 发布商标 发布需求

在线咨询

联系我们

龙图腾公众号
首页 专利交易 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 恭喜南京航空航天大学;江苏省未来网络创新研究院宋晓勤获国家专利权

恭喜南京航空航天大学;江苏省未来网络创新研究院宋晓勤获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网恭喜南京航空航天大学;江苏省未来网络创新研究院申请的专利一种基于强化学习的5G星地链路多波束动态功率分配方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN114599099B

龙图腾网通过国家知识产权局官网在2025-03-21发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202210221080.8,技术领域涉及:H04W72/50;该发明授权一种基于强化学习的5G星地链路多波束动态功率分配方法是由宋晓勤;程梦倩;陈权;柴新越;徐雷;缪娟娟设计研发完成,并于2022-03-08向国家知识产权局提交的专利申请。

一种基于强化学习的5G星地链路多波束动态功率分配方法在说明书摘要公布了:本发明公开一种基于强化学习的5G星地链路多波束动态功率分配方法,该方法搭建了多波束卫星通信系统模型,根据通信过程中上行链路与下行链路的信道状态不同得出了卫星的星上资源缓存信息,以最大化用户传输速率为优化目标,同时考虑功率、缓存、速率等多个约束条件给出了卫星系统资源分配问题的目标函数,基于Q学习方法,将多波束卫星设计为智能体Agent,动作为功率选择,环境为信道状态,在智能体与信道环境的交互过程中,不断更新Q值积累学习经验,逐步找到所提优化问题的最优解。本方法具有良好的收敛性和系统性能,是一种高效可靠的动态资源分配方法,能够适应复杂多变的通信环境,特别适合应用于资源受限的多波束卫星通信系统中。

本发明授权一种基于强化学习的5G星地链路多波束动态功率分配方法在权利要求书中公布了:1.一种基于强化学习的5G星地链路多波束动态功率分配方法,具体包括以下步骤:步骤1:建立多波束卫星通信系统模型,并给出上行信道链路模型和下行信道链路模型,得到上行信道链路的传输速率为其中ws是星地链路中上行链路的链路带宽,hs是星地链路中上行链路的信道系数,N为星地链路中的噪声功率,pu表示地面用户的发射功率,同理可得下行信道链路的传输速度为其中wu是星地链路中下行链路的链路带宽,hu是星地链路中下行链路的信道系数,N为星地链路中的噪声功率,ps表示通信卫星节点的发射功率;步骤2:确定在满足多波束卫星通信系统的星上缓存约束的条件下最大化用户的传输速率的卫星通信系统资源分配的目标函数,在t时刻,将卫星通信系统的资源优化问题建模为: 其中,Ntotal表示卫星系统的总波束数量,Ncarrier表示每波束中的总载波数量,表示在t时刻卫星通信系统中第m个波束上第k个载波上地面用户u的传输速率,表示t时刻地面用户u的传输速率,Rth表示地面用户传输速率的最低门限阈值,表示t时刻地面用户u在第m个波束上的第k个载波的分配情况,若地面用户u被分配到第m个波束上的第k个载波上,则有反之则为0,Φt表示在t时刻卫星上的资源缓存量,Φth表示多波束卫星通信系统中的星上资源缓存量的门限阈值,Pth表示卫星通信系统总功率的门限阈值,表示单一波束功率的门限阈值;步骤3:多波束卫星智能体不断观测通信环境,得到载波和用户的分配状况以及卫星的星上资源缓存状态,载波分配矩阵表示为wn表示第n个波束的载波分配状况,将在t时刻已分配的载波矩阵W、已被服务的用户集U以及卫星资源缓存Φ定义为状态空间,表示为之后根据此时的Q表完成功率分配动作的选择;步骤4:通信环境根据动作的执行结果更新载波分配、已服务用户以及星上缓存资源的状态,并评估此次功率分配动作执行结果的奖励收益,将其反馈给多波束卫星智能体,具体包括以下步骤:步骤4-1:定义多波束卫星Agent执行相应的动作并作用于通信环境之后,得到的来自环境反馈的奖励收益为r,奖励收益反馈的结果包括正反馈收益与负反馈收益,是一种当前状态的环境对智能体所执行动作结果评价的体现,在本资源分配方法中,将多波束卫星系统传输速率的增量Δδ设计为智能体的奖励收益,表示为:Δδ=δt+1-δt其中,表示t在时刻多波束卫星系统的总传输速率;步骤4-2:则奖励收益为: 其中,rg>rd,并且rg、rd的取值范围是0~1的闭区间,当传输速率增量大于0时智能体得到的奖励反馈会更大,即rt=rg,反之,智能体得到的收益将降低;步骤5:多波束卫星智能体根据通信环境反馈的奖励收益、更新过后的环境状态以及Q学习算法中值函数的更新规则,来对Q表中对应的Q值进行更新,实现智能体动作选择策略的不断更新优化,最终实现最大化智能体的奖励收益,找到优化问题的最优解。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人南京航空航天大学;江苏省未来网络创新研究院,其通讯地址为:210016 江苏省南京市御道街29号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。