恭喜同济大学赵才荣获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网恭喜同济大学申请的专利一种上下文感知、噪声鲁棒的行人搜索方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN114170625B 。
龙图腾网通过国家知识产权局官网在2025-03-21发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202111360243.2,技术领域涉及:G06V40/10;该发明授权一种上下文感知、噪声鲁棒的行人搜索方法是由赵才荣;陈至成设计研发完成,并于2021-11-17向国家知识产权局提交的专利申请。
本一种上下文感知、噪声鲁棒的行人搜索方法在说明书摘要公布了:本发明涉及计算机视觉领域,提出一种上下文感知、噪声鲁棒的行人搜索方法,采用深度学习框架,包括:1使用一个端到端的行人搜索神经网络同时完成行人检测和行人辨识;2在神经网络的训练过程中对行人特征的不确定性进行建模并额外使用同一场景行人的上下文信息约束行人的特征表示;3第一阶段的训练结束后,对于网络预测的每一行人身份特征中心进行相似性比对,分析潜在的数据噪声;4进行第二阶段的训练,在该阶段的训练过程中对于数据噪声进行抑制;5使用训练完毕的行人搜索网络进行行人检索任务并按照行人的相似程度对结果进行可视化。此算法具有充分利用场景图像中的上下文信息,对于遮挡以及错误数据标注等来源的噪声鲁棒,相比现有的相关方法更加准确的特点。
本发明授权一种上下文感知、噪声鲁棒的行人搜索方法在权利要求书中公布了:1.一种上下文感知、噪声鲁棒的行人搜索方法,其特征在于,包括步骤:步骤1构建一个端到端的行人搜索神经网络,该神经网络使用完整的监控视频画面作为输入,使用单个网络同时完成行人的检测以及行人的辨识两项任务;步骤2进行神经网络的训练,本发明提出的神经网络训练过程分为两个阶段;首先进行第一阶段神经网络的训练,在训练过程中使用数据不确定性模块对于数据中的不确定性进行建模,同时使用场景上下文信息对于网络预测的行人特征表示进行约束;步骤3使用完成第一阶段训练的神经网络对于训练数据中的噪声进行分析,查找训练数据中可能存在噪声;步骤4进行第二阶段神经网络的训练,除了使用噪声抑制模块对于步骤3中噪声进行抑制之外,该训练阶段的过程和其余各模块的表现于第一阶段训练时保持一致;步骤5使用训练完成的行人搜索神经网络,进行场景图像中行人的检索任务;所述步骤2具体包括以下步骤:步骤2.1对图像进行归一化,将图像减去预先计算的图像均值,除以预先计算的图像方差;步骤2.2将归一化的图像以及图像上行人的边界框进行缩放到指定尺寸,在保证宽高比不变;以一定的概率将图像以及其标注水平翻转;步骤2.3将步骤2.2处理完成的图像送入骨干网络,提取得到场景图像的特征图谱;步骤2.4将送入候选区域提取网络,得到可能存在行人的候选区域;步骤2.5使用感兴趣区域池化模块,从提取候选区域的特征图;步骤2.6将特征图送入识别网络,提取到表示候选区域特征的特征向量;步骤2.7将特征向量送入检测子任务的分类和回归模块,分别得到后选区域的前景背景预测结果以及;步骤2.8将特征向量送入数据不确定性模块,得到表示样本特征的均值和标准差,从上述均值和标准差组成的高斯分布中进行采样,得到用于训练的行人特征表示;步骤2.9使用分类损失以及回归损失计算RPN以及分类和回归模块的损失函数,使用在线实例匹配损失函数以及上下文对比损失函数计算行人特征表示的损失函数;所述上下文对比损失函数包括候选区域的上下文对比损失、人工标注区域的上下文对比损失函数;其中,候选区域的上下文对比损失表示为: 其中,表示被分配到第个人工标注区域对应的候选区域特征;表示人工标注区域的数量,表示第个人工标注区域对应的特征,表示矩阵的转置,是用于该损失函数的放缩系数,是一个超参数;其中,人工标注区域的上下文对比损失函数表示为: 其中,是用于该损失函数的放缩系数、是一个超参数;其余的符号与候选区域的上下文对比损失函数相同;步骤2.10进行方向传播运算,更新网络的参数;步骤2.11按照事先定义好的迭代次数,重复步骤2.1~步骤2.10。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人同济大学,其通讯地址为:200092 上海市杨浦区四平路1239号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。