首页 专利交易 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

一种不平衡学习动态恢复大类重要性的损失函数计算方法 

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

申请/专利权人:海南大学

摘要:本发明从动态平衡的角度来看待不平衡学习的问题,提供了一种不平衡学习动态恢复大类重要性DynamicallyRestoringtheImportanceofMajorityClass,DRMC的损失函数计算方法。DRMC首先抑制大类的重要性,然后逐渐恢复大类的重要性。其损失函数中的成本函数包括初始函数、恢复函数、渐进函数和激活函数。渐进函数为一递增函数,激活函数采用类Relu函数,初始函数和恢复函数采用已有的静态的类别成本函数。DRMC方法动态地计算类别成本,结合标准交叉熵函数,有效地解决了已有方法中的静态平衡策略与训练过程中类别表示程度的动态变化不相匹配的问题。与相应的静态的成本函数相比,DRMC方法可以显著提高了模型的分类性能,不仅显示了良好的泛化能力,而且方法对超参数不敏感,易化了超参数调试过程。

主权项:1.一种不平衡学习动态恢复大类重要性的损失函数计算方法,其特征在于,在两个典型的视觉任务中实施,其中一个为图像显著性实例分割的显著性目标检测子任务,另一个为图像语义分割任务;显著性实例分割是对显著性区域进行分割并识别每一个实例,包括两个连续的子任务:显著性目标检测和显著性分割;在显著性分割阶段,用于训练的样本是类别平衡的,在显著性目标检测阶段,显著性框和非显著性框之间存在极端的类别不平衡,类别频率比1:1000;对显著性目标检测子任务进行深度神经网络模型的不平衡学习;所述对显著性目标检测子任务进行深度神经网络模型的不平衡学习,具体包括:首先抑制大类的重要性,然后逐渐恢复大类的重要性,基于该方法的损失函数的计算公式为:CEDRMCp,y,i=-logpt·αt_drmcy,i,4其中,所述p∈[0,1],是样本的类别预测概率,所述y是样本的标签值,所述i为训练迭代次数,所述pt是样本的真实类别的预测概率,所述-logpt·为交叉熵损失,所述αt_drmc是动态的成本函数,由4部分构成,其定义如下:αt_drmcy,i=Inity·Acti1Resty·Gradi,5其中,所述Inity为抑制大类重要性的初始成本函数,所述Resty为成本恢复函数,所述Grad·为渐进增大的函数,所述Acti·为激活函数,Resty、Grad·和Acti·共同控制恢复大类的重要性;对于公式5,Inity和Resty为已有的类别级成本函数;对于公式5,其所述的激活函数Acti·为: 其中,所述x∈-∞,+∞;对于公式5,其所述的渐进函数Grad.为:Gradi=iM,7其中M是最大的训练迭代次数。

全文数据:

权利要求:

百度查询: 海南大学 一种不平衡学习动态恢复大类重要性的损失函数计算方法

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。