恭喜齐鲁工业大学(山东省科学院);山东省计算中心(国家超级计算济南中心)王鑫获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网恭喜齐鲁工业大学(山东省科学院);山东省计算中心(国家超级计算济南中心)申请的专利一种基于模型分层优化的保隐私个性化联邦学习方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN119646885B 。
龙图腾网通过国家知识产权局官网在2025-05-06发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202510173637.9,技术领域涉及:G06F21/62;该发明授权一种基于模型分层优化的保隐私个性化联邦学习方法是由王鑫;王腾飞;杨明;吴晓明;唐勇伟;刘腾;陈振娅;刘臣胜;贺云鹏;穆超设计研发完成,并于2025-02-18向国家知识产权局提交的专利申请。
本一种基于模型分层优化的保隐私个性化联邦学习方法在说明书摘要公布了:本发明属于联邦学习的技术领域,更具体地,涉及一种基于模型分层优化的保隐私个性化联邦学习方法。所述方法包括每个客户端获取服务器端的全局模型,使用自端的训练数据集更新本地模型,然后对本地模型进行分层优化,确定每一个客户端待上传的部分模型参数;对每个客户端待上传的部分模型参数进行裁剪,并引入差分隐私噪声,然后发送至服务器端;服务器端按照每个客户端数据量的大小为各个客户端分配权重,然后将各个客户端上传的模型参数进行聚合得到新的全局模型并发送至各个客户端;重复S1~S3至达到设置的训练轮次或收敛。本发明解决了在保障用户隐私的同时提高联邦学习中异构性带来的模型性能影响和通信效率的问题。
本发明授权一种基于模型分层优化的保隐私个性化联邦学习方法在权利要求书中公布了:1.一种基于模型分层优化的保隐私个性化联邦学习方法,其特征在于,所述方法包括:S1:每个客户端获取服务器端的全局模型,使用自端的训练数据集更新本地模型,然后对本地模型进行分层优化,确定每一个客户端待上传的部分模型参数;S2:对每个客户端待上传的部分模型参数进行裁剪,并引入差分隐私噪声,然后发送至服务器端;S3:服务器端按照每个客户端数据量的大小为各个客户端分配权重,然后将各个客户端上传的模型参数进行聚合得到新的全局模型并发送至各个客户端;S4:重复S1~S3至达到设置的训练轮次或收敛,得到的联邦学习模型;所述S1具体包括:S11、客户端i从服务端下载全局模型,t为第t轮训练,在第一轮训练,即开始时,服务端初始化全局模型为;S12、客户端i在本地使用其自端的训练数据集进行训练,并通过随机梯度下降法将全局模型更新为客户端i的本地模型;S13、在第t轮中,将更新得到本地模型的参数进行分层,得到,,表示第i个客户端在第t轮中本地模型中的第l层的参数,其中,L表示本地模型一共的层数;对模型的第l层计算该层的更新的L2范数,并将该层的L2范数的大小保存到下一轮进行使用,计算t轮第l层更新的L2范数与t-1轮的L2范数大小的差值,公式如下所示: (1);公式(1)中,表示t轮该层更新的L2范数,表示t-1轮第l层更新的L2范数;S14、计算每一层的贡献度,然后对每一层的贡献度进行排名,取前K个层进行上传,第i个客户端在第t轮中第l层的贡献度的计算过程如下所示: (2);S15、在第t轮迭代中,客户端i根据计算出来的每一层的,确定上传的前K大的层,即一个客户端会上传K层,根据每一层的排名,得到一个大小为L的一维数组array,其中array[l]=1表示该层需要上传,array[l]=0表示不需要上传;S16、最后,根据每一层对应的数组array,得到每个客户端待上传的部分模型参数: (3);公式(3)中,表示第l层客户端上传的参数,再将每一层的参数合并得到客户端上传的参数。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人齐鲁工业大学(山东省科学院);山东省计算中心(国家超级计算济南中心),其通讯地址为:250000 山东省济南市长清区西部新城大学科技园;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。