Document
拖动滑块完成拼图
个人中心

预订订单
服务订单
发布专利 发布成果 人才入驻 发布商标 发布需求

在线咨询

联系我们

龙图腾公众号
首页 专利交易 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 恭喜杭州电子科技大学胡海洋获国家专利权

恭喜杭州电子科技大学胡海洋获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网恭喜杭州电子科技大学申请的专利一种多视图自适应骨架网络的工业装箱动作识别方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN117152829B

龙图腾网通过国家知识产权局官网在2025-04-08发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202310471306.4,技术领域涉及:G06V40/20;该发明授权一种多视图自适应骨架网络的工业装箱动作识别方法是由胡海洋;潘开来设计研发完成,并于2023-04-27向国家知识产权局提交的专利申请。

一种多视图自适应骨架网络的工业装箱动作识别方法在说明书摘要公布了:本发明公开一种多视图自适应骨架网络的工业装箱动作识别方法。本发明首先使用堆叠的差分图像作为输入,代替原RGB图像来更好地提取运动特征,从而减少复杂背景的干扰。在获取到骨架数据后,传入到自适应视图转换网络中,自动寻找最佳的观测视角,用于提高工人复杂动作的识别精度,除此之外,还引入了双视图结果来解决人体被遮挡的问题,两个视图下的相机分别获取互补的运动信息,后续传入三层堆叠的长短时记忆网络中进行动作识别。最后将不同流下的分类分数进行融合,得到识别结果。此外,为了识别不同的细微动作,还引入了时域注意力模块,利用截取的局部图像传入到后续的ResNeXt网络中,进一步提高了识别的精度。

本发明授权一种多视图自适应骨架网络的工业装箱动作识别方法在权利要求书中公布了:1.一种多视图自适应骨架网络的工业装箱动作识别方法,其特征在于包括如下步骤:步骤S1:获取两个不同视角下的互补RGB视频;步骤S2:对两个不同视角下的互补RGB视频处理得到两个不同视角下的差分图像序列;步骤S3:利用3D姿态估计算法对两个不同视角下的差分图像序列提取人体骨架图像序列;步骤S4:利用自适应视图转换网络获取两个最佳观察视角的人体骨架图像;具体是:在全局坐标系O下给定的人体骨架图像序列S,在第t帧下图像中第j个骨架关节的坐标记作vt,j=[xt,j,yt,j,zt,j],其中t∈1,...,T,j∈1,...,J,T表示人体骨架图像序列中总帧数,J表示每一帧中骨架关节的总数;在第t帧中所表示的骨架序列的集合为Vt={vt,1,...,vt,J};在某一视角的全局坐标系O下,假设第t帧的虚拟观察视点由一个平移向量dt∈R3,以及两个分别绕着X轴和Z轴逆时针旋转αt,βt弧度的旋转角度表示;同一帧下的所有关节坐标都共享一个旋转角度,在新的观察视角下的骨架关节坐标表示为: 其中Rt表示为 其中分别表示绕X轴和Z轴旋转的旋转矩阵,使用以下公式表示: 在一个完整的动作序列中,每一个动作都会有其最合适的观察视角,利用自适应视图转换网络来寻找到最佳的视角变换参数αt,βt,dt,最后通过公式2计算出新坐标系下的骨架序列坐标V′t={v′t,1,...,v′t,J};步骤S5:两个最佳观察视角的人体骨架图像各自输入至行为识别模块进行行为识别;步骤S6:时域注意力网络获取所述行为识别模块中两个识别单元LSTM网络的输出结果,生成时域注意力权重AT;步骤S7:根据步骤S3获得的人体骨架图像序列确定手部的位置,然后对步骤S1获取的两个不同视角下的互补RGB视频进行裁剪,得到手部局部图像;最后将手部局部图像输入至ResNeXt网络,提取手部特征矩阵g;步骤S8:ResNeXt网络输出的手部特征矩阵g与时域注意力模块生成的时域注意力权重AT在时间维度上线性相乘,然后将相乘结果再与原特征矩阵g逐位相加,最后得到时域修正的特征矩阵gT;步骤S9:将时域修正的特征矩阵gT经全连接层、softmax层获取手部动作识别结果;步骤S10:将步骤S5行为识别模块输出的识别结果和步骤S9获取的手部动作识别结果进行加权融合,获取工业装箱动作识别结果。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人杭州电子科技大学,其通讯地址为:310018 浙江省杭州市下沙高教园区2号大街;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。