买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
摘要:本发明提供一种基于类别对抗联合学习的跨提示自动作文评分方法、装置及电子设备,属于作文评分技术领域,获取待评测作文的作文数据;将作文数据,输入到具有Hi‑att网络的特征提取器中,输出作文特征;定义判别器,将判别器与特征提取器进行对抗性训练;将作文特征与手工特征进行拼接,并通过多个不同的非线性特征变换预测评分并计算评分损失;使用回归损失、分类损失和对抗损失,对待评测作文的评分、等级预测以及泛化能力进行处理。本发明提升模型的性能。通过采用类别感知的对抗训练方法,提升了分类性能,有效避免了由于类别分布不均衡导致的源提示间错位对齐问题,大大增强模型的实用性和准确度。
主权项:1.一种基于类别对抗联合学习的跨提示自动作文评分方法,其特征在于,方法包括:S101:获取待评测作文的作文数据;S102:将作文数据,输入到具有Hi-att网络的特征提取器中,输出作文特征;还定义作文数据e包含句子,其中,句子包含|w|个单词;通过卷积神经网络应用于每个句子的单词嵌入: 其中,代表第𝑘个词的词嵌入,𝑓代表激活函数,𝑛代表卷积神经网络中滑动窗口的大小,和分别代表权重矩阵和偏置;方法中,还配置回归评分器和分类评分器;回归评分器包括整体评分器和M个属性评分器;回归评分器对作文数据进行总体评分和属性评分的预测以及定义出手工特征;获得作文特征表示后,与手工特征进行拼接,即[,通过非线性特征变换得到用于作文总体评分的特征表示: 其中,和为权重矩阵和偏置项参数;方法中还定义的属性注意力机制来建模属性间及总体与各属性间相互影响的重要程度,获得用于第m个属性评分的作文特征表示: 其中,是计算两个属性相关性的函数,是第k个属性相对于第m个属性的注意力权重,表示在中去掉的第k个属性的作文特征表示;将用于作文总体评分的特征表示和每个用于属性评分的特征表示分别送入激活函数为sigmoid的非线性回归层,预测评分值的方式还包括:预测第m个任务的评分值: 其中,和为评分任务预测层权重矩阵和偏置项参数;对作文数据评分的预测值和真实值,使用均方误差损失计算评分损失: ;在损失函数中引入掩码函数;对于第i个训练样本,属性标签集合为标签集合Y的一个子集,掩码函数为: 其中,表示第i篇作文的第m个属性掩码取值;总体的回归损失为: ;方法中,基于分类评分器将作文数据分为优、良、中和差四个等级;给定作文特征后,将作文特征与手工特征进行拼接,即[,将拼接后的特征通过特征变换层得到用于作文分类的特征表示: 将表示输入到作文分类器中,计算预测类别与真实类别标签之间的交叉熵损失;针对第p个源提示: 其中,F为分类评分器,和分别表示第p个源提示中第i个样本的预测标签和真实类别标签;总体分类损失为: ;S103:定义判别器,将判别器与特征提取器进行对抗性训练;设置四个类别判别器;将所有源提示的作文特征表示分别输入到相应的类别判别器来判别样本源,并通过特征提取器和判别器之间的对抗训练学到不同源提示之间的不变特征表示;其中,给定特征提取器输出的作文特征表示e,将作文特征表示e输入判别器,判别器为N分类器,计算判别器预测标签和真实标签的交叉熵损失,得到: 其中,表示所有源提示中的真实标签为第k个类别的作文数量,和分别表示第k个类别中第i个样本的预测标签和真实类别标签;对抗损失为: S104:将作文特征与手工特征进行拼接,并通过多个不同的非线性特征变换预测评分并计算评分损失;S105:使用回归损失、分类损失和对抗损失,对待评测作文的评分、等级预测以及泛化能力进行处理。
全文数据:
权利要求:
百度查询: 山东财经大学 一种基于类别对抗联合学习的跨提示自动作文评分方法、装置及电子设备
免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。