恭喜西安电子科技大学宋彬获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网恭喜西安电子科技大学申请的专利一种基于硬件感知的大规模预训练语言模型压缩方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN116822593B 。
龙图腾网通过国家知识产权局官网在2025-06-20发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202310642738.7,技术领域涉及:G06N3/0495;该发明授权一种基于硬件感知的大规模预训练语言模型压缩方法是由宋彬;周业设计研发完成,并于2023-06-01向国家知识产权局提交的专利申请。
本一种基于硬件感知的大规模预训练语言模型压缩方法在说明书摘要公布了:本发明公开了一种基于硬件感知的大规模预训练语言模型压缩方法,针对现有技术中模型压缩方法存在不足的问题。该发明含有以下步骤:加载训练完成的预训练语言模型并在下游任务上进行微调;选择裁剪粒度;根据所选的裁剪粒度构建代理数据集;设计延时预测网络,并使用代理数据集训练延时预测网络;设置期望延时,并将延时预测网络嵌入多混合粒度的裁剪框架中进行裁剪,裁剪的同时采用动态映射的知识蒸馏方法将教师模型的知识迁移到变化的裁剪模型中;使用裁剪得到的最佳裁剪掩码进行模型裁剪,并进行微调实现精度恢复,得到压缩模型。本发明解决了大量的多头注意力机制类架构网络模型高效简单的部署问题,具有良好的应用前景。
本发明授权一种基于硬件感知的大规模预训练语言模型压缩方法在权利要求书中公布了:1.一种基于硬件感知的大规模预训练语言模型压缩方法,其特征在于:含有以下步骤, 步骤1、加载训练完成后的预训练语言模型并在下游任务上进行微调; 步骤2、选择裁剪粒度; 步骤3、根据所选的裁剪粒度构建裁剪掩码-延时代理数据集,随机采样裁剪掩码,并根据采用的裁剪掩码对模型进行裁剪,并在指定硬件上测试其推理延时,形成以裁剪掩码-推理延时为一组数据的数据对; 步骤4、设计硬件感知性的延时预测网络,使用代理数据集训练延时预测网络; 步骤5、设置期望延时,将延时预测网络嵌入多混合粒度的剪枝框架中裁剪,采用动态映射的知识蒸馏方法将教师模型的知识迁移到变化的裁剪模型中,即可感知针对目标设备的延时信息,搜索到最佳的硬件友好型小模型; 步骤6、使用裁剪得到的最佳裁剪掩码进行模型裁剪,微调后恢复精度,得到压缩模型。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人西安电子科技大学,其通讯地址为:710071 陕西省西安市太白南路2号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。