恭喜西安交通大学徐光华获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网恭喜西安交通大学申请的专利基于关节特征编码的单人深度图像卧姿二维姿态识别方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN114973313B 。
龙图腾网通过国家知识产权局官网在2025-03-14发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202210461597.4,技术领域涉及:G06V40/10;该发明授权基于关节特征编码的单人深度图像卧姿二维姿态识别方法是由徐光华;吴庆强;韩丞丞;覃芃淋;魏帆;李泽江设计研发完成,并于2022-04-28向国家知识产权局提交的专利申请。
本基于关节特征编码的单人深度图像卧姿二维姿态识别方法在说明书摘要公布了:一种基于关节特征编码的单人深度图像卧姿二维姿态识别方法,首先对深度图像归一化处理,再对深度图像数据集中的关节点坐标真值进行特征编码,编码分为置信区域特征编码、偏移量信息编码和尺度编码;将以上特征编码信息组合后,形成卷积神经网络的输出;然后对网络结构进行设计,网络结构中包含有通用网络结构模块和自定义网络结构模块,通过选择损失函数,实现网络的训练,将网络输出的结果进行解码插值后,可以得到各关节点的对应高分辨率的热力图,进而得到各关节点的定位坐标,形成卧姿的人体骨骼,实现人体二维姿态识别;本发明可以实现基于单人关节点特征编码的、仅以深度图像为输入的单人卧姿二维姿态识别。
本发明授权基于关节特征编码的单人深度图像卧姿二维姿态识别方法在权利要求书中公布了:1.一种基于关节特征编码的单人深度图像卧姿二维姿态识别方法,其特征在于,包括以下步骤:步骤一:深度图像归一化;步骤二:对关节点特征进行定位编码;具体为:将目标关键点U1,V1附近半径r范围内的像素点i,j归属于该目标关键点的置信区域{φ}:{φU1,V1,r|||i,j-U1,V1||≤r}2设置符合式2范围{φ}内的像素点的置信度ci,j=1,其余点为0;关键点的定位坐标信息由置信范围{φ}内像素相对于目标关键点的偏移量确定,其偏移量计算公式如式3所示: 式中:xi,j,yi,j为像素i,j相对于目标关键点的偏移量,i,j为目标关键的U1,V1置信范围{φ}内的像素点坐标;还考虑了人体尺度的编码,尺度si,j的计算公式如式4: 式中:si,j为图像中的个体尺度,{U}为关键点的x坐标集合,{V}为关键点的y坐标集合;步骤三:组合关节点特征编码;具体为:对灰度归一化的单通道深度图像进行多通道扩维,将单通道扩展为多通道;对于训练集中输入的深度图像Im×n×t,其中m,n分别对应深度图像I的长和宽,t代表输入的通道数;对其进行关键点特征编码,得到网络结构中输出对应的真值编码信息{Jci,j,xi,j,yi,j,si,j},其中J为关键点的坐标信息编码,i,j为图像中的坐标表示,ci,j,xi,j,yi,j,si,j分别表示在i,j处的点是关键点的置信度、相对于真值点的x和y偏移量以及该人体相对于图像的尺度大小;步骤四:网络结构设计;具体为:网络结构由卷积神经单元堆叠而成,网络的中间结构由两部分模块组成,分别是通用网络结构模块和自定义网络结构模块;网络的输出包含两类:第一类为像素点的置信区域分类概率输出ci,j,第二类为像素点的偏移回归量输出xi,j,yi,j和尺度输出si,j;通用网络结构模块采用了残差网络结构,而自定义网络结构模块包含有两类输出;步骤五:选择损失函数;步骤六:深度网络训练过程;步骤七:关节点定位特征解码;具体为:关键点的初步定位解码表示为式7: 式中:为目标点的xy估计坐标,i,j为目标点的置信区域{φ}内的对应像素点,xi,j,yi,j为对应像素点的偏移量;通过关键点的位置编码信息生成原输入分辨率的热力图,将放大后的两点之间的像素点值均置为0,再对置为0的像素进行插值,其插值公式为式8: 式中:fNi,Nj为坐标Ni,Nj处的像素点插值累加后的值,N为以坐标i,j为中心的合适大小的模板;步骤八:生成人体卧姿骨骼。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人西安交通大学,其通讯地址为:710049 陕西省西安市碑林区咸宁西路28号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。