恭喜北京邮电大学唐进获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网恭喜北京邮电大学申请的专利一种基于图关系交互学习的人体动作预测方法及装置获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN116935492B 。
龙图腾网通过国家知识产权局官网在2025-03-25发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202310987468.3,技术领域涉及:G06V40/20;该发明授权一种基于图关系交互学习的人体动作预测方法及装置是由唐进;顾宝轩;尹建芹设计研发完成,并于2023-08-07向国家知识产权局提交的专利申请。
本一种基于图关系交互学习的人体动作预测方法及装置在说明书摘要公布了:本发明提出一种基于图关系交互学习的人体动作预测方法,包括,获取训练数据集,所述训练数据集包括人体动作序列;构建图关系交互学习网络,其中,图关系交互学习网络采用双支路对称残差图卷积网络GCN结构,双支路GCN之间的连接类型包括数据流和参数流;通过训练数据集对图关系交互学习模型进行训练,其中,训练采用平均每关节位置误差损失和平均每关节速度误差损失加权结合的损失函数;获取待预测数据,将待预测数据输入训练完成的图关系交互学习网络,获取人体动作预测结果。本发明实现了更精确的人体动作预测。
本发明授权一种基于图关系交互学习的人体动作预测方法及装置在权利要求书中公布了:1.一种基于图关系交互学习的人体动作预测方法,其特征在于,包括以下步骤:获取训练数据集,所述训练数据集包括人体动作序列;构建图关系交互学习网络,其中,所述图关系交互学习网络采用双支路对称残差图卷积网络GCN结构,双支路GCN之间的连接类型包括数据流和参数流;通过所述训练数据集对所述图关系交互学习模型进行训练,其中,所述训练采用平均每关节位置误差损失和平均每关节速度误差损失加权结合的损失函数;获取待预测数据,将所述待预测数据输入训练完成的图关系交互学习网络,获取人体动作预测结果;其中,所述双支路对称残差图卷积网络GCN结构分别处理原始位姿序列和速度序列,所述数据流表示训练数据的方向,所述参数流表示模块间参数的交互操作,所述参数流包括层内交互模块和跨层交互模块,在所述层内交互模块中,对于所述双支路对称残差图卷积网络GCN,SRG的每个图卷积块GCB,使用α和β的权重融合和交换邻接矩阵,这种交互学习发生在不同迭代之间;在所述跨层交互模块中,利用α′和β′的权重对SRGO的参数进行第二次融合,然后冻结参数作为邻接矩阵SRG1的参数;在所述SRG中,不同尺度的SRG中的密集残差连接允许保留和重用GCB浅层中人体关节之间的明确关系,每个SRG模块包含n个GCB,其中n是GCB层的数量,并且是奇数;所述双支路对称残差图卷积网络GCN结构的第一支路和第二支路分别用于处理原始位姿序列和速度序列,以从位置和速度的角度对人体姿态序列的特征进行编码;通过线性层将人体动作序列的关节位置和所述人体动作序列的关节速度映射到相同的隐藏维度,分别对位置-速度特征进行建模;通过所述第一支路和所述第二支路分别对所述关节位置和所述关节速度进行特征建模,在所述第二支路中引入位置表征,将所述关节速度的特征恢复到位置空间;通过连接模块将所述关节位置的特征和所述关节速度的特征进行拼接,将拼接后的特征通过线性层映射到需要的输出维度。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人北京邮电大学,其通讯地址为:100876 北京市海淀区西土城路10号北京邮电大学新科研楼627室;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。