买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
申请/专利权人:华东理工大学
摘要:本发明公开了一种基于轻量前馈网络适配器的预训练语言模型微调方法。本发明包括以下步骤:确定基于Transformer架构的预训练语言模型;在每个Transformer编码器内的前馈神经网络层旁并联一个轻量前馈网络适配器;在模型微调训练时,将预训练语言模型的原始参数冻结,以保持其在预训练阶段学习到的特征表示稳定。通过使用特定下游任务的训练数据来更新轻量前馈网络适配器的参数,以学习特定下游任务的知识表示。本发明适用于各类自然语言理解下游任务,为模型带来了强大的性能提升,尤其是在小样本场景下,相比于其他层级适配器收敛速度更快更稳定。
主权项:1.一种基于轻量前馈网络适配器的预训练语言模型微调方法,其特征在于,具体步骤为:S1、确定预训练语言模型,所述预训练语言模型包括输入编码层、N个Transformer编码器以及1个全连接层,N为正整数,所述预训练语言模型的参数为预训练好的参数;S2、在每个Transformer编码器内的前馈神经网络层旁并联一个轻量前馈网络适配器,轻量前馈网络适配器用于学习特定下游任务的知识表示;S3、冻结预训练语言模型的原始参数,使用特定下游任务的训练集数据计算损失函数值并优化N个轻量前馈网络适配器的参数;S4、验证微调性能,使用特定下游任务的验证集数据来计算性能指标,保存性能最佳的模型参数;S5、重复执行S3和S4,直至达到预设的最大训练轮次E,E为正整数;S6、测试模型性能,使用特定下游任务的测试集数据基于所保存的性能最佳的模型参数来计算性能指标,以测试预训练语言模型微调后的性能。
全文数据:
权利要求:
百度查询: 华东理工大学 一种基于轻量前馈网络适配器的预训练语言模型微调方法
免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。