恭喜北京航空航天大学周栋获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网恭喜北京航空航天大学申请的专利基于不确定性与复杂性的视频流认知情感识别方法及系统获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN117576746B 。
龙图腾网通过国家知识产权局官网在2025-04-08发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202311515030.1,技术领域涉及:G06V40/16;该发明授权基于不确定性与复杂性的视频流认知情感识别方法及系统是由周栋;仵宏铎;郭子玥;周启迪;王妍;宋子骋;康子旭;李语设计研发完成,并于2023-11-14向国家知识产权局提交的专利申请。
本基于不确定性与复杂性的视频流认知情感识别方法及系统在说明书摘要公布了:本发明公开了基于不确定性与复杂性的视频流认知情感识别方法及系统,属于情感计算与人脸识别领域。S1:获取视频信息,并对所述视频信息进行预处理,得到训练图像数据集;S2:基于训练图像数据集构建并训练约束局部模型CLM,基于约束局部模型CLM对脸部情感描述点定位,得到训练数据集;S3:融合欧氏距离与样本熵,提取训练数据集中的面部情感特征;S4:基于面部情感特征,以及基于不确定性与复杂性主动学习算法构建认知情感识别模型并测试;S5:获取目标视频信息,基于认知情感识别模型识别视频流认知情感,并输出识别结果。本发明具有较高的效率、精度和稳定性。
本发明授权基于不确定性与复杂性的视频流认知情感识别方法及系统在权利要求书中公布了:1.一种基于不确定性与复杂性的视频流认知情感识别方法,其特征在于,包括以下步骤:S1:获取视频信息,并对所述视频信息进行预处理,得到训练图像数据集;S2:基于训练图像数据集构建并训练约束局部模型CLM,基于约束局部模型CLM对脸部情感描述点定位,得到训练数据集;S3:融合欧氏距离与样本熵,提取训练数据集中的面部情感特征,包括:S3.1:基于欧氏距离的情感描述点时空特征表达:情感描述点的空间特征通常通过测量距离来表达;对于第i张图像中第j个情感描述点si,j和同一视频片段中的第k张图像中第j个情感描述点sk,j,两点之间的欧氏距离为: 假设每个视频样本包含n张图像,则数据集V3或V4中一个样本的情感描述点集序列可以表达为:Sample={S1,S2,...,Sn}4计算每个样本中第一幅图像中的情感描述点与序列中随后的图像中相应的情感描述点之间的欧氏距离,得到的情感描述点的时空特征矩阵如下: 其中,deV1,j,Vi,j=[des1,j,s1,jdes1,j,s2,j...des1,j,sn,j],1≤j≤49;此时每个样本的数据维度变为49×n;步骤3.2.5:序列X的样本熵可以表示为:SampEnX;m,r=lnBmr-lnAmr11其中,Bmr为X任意两个子列在相似容限r下匹配m个点的概率,Amr是任意两子列在相似容限r下匹配m+1个点的概率;参数设置为m=2并且r为原始信号标准差的0.2倍;计算每个样本所提取的时空特征矩阵Featurest中每个行向量的样本熵,完成认知情感特征的深度提取;特征向量Feature如下所示: S4:基于面部情感特征,以及基于不确定性与复杂性主动学习算法构建认知情感识别模型并测试,包括以下步骤:S4.1:定义训练数据集中未标记的样本为{x1,P1,x2,P2,...,xk,Pk},x1到xk为提取的特征向量Feature,P1到Pk对应样本所属类的概率向量;S4.2:引入信息熵测量样本的不确定性,计算未标记样本集中任意一个样本xi的不确定性;S4.3:计算样本xi的复杂性;S4.4:通过训练随机森林模型f来预测每个样本的类概率向量,并通过主动学习算法生成认知情感识别模型;S5:获取目标视频信息,基于认知情感识别模型识别视频流认知情感,并输出识别结果。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人北京航空航天大学,其通讯地址为:100089 北京市海淀区学院路37号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。