恭喜南京邮电大学肖甫获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网恭喜南京邮电大学申请的专利一种基于联邦学习的神经网络协同过滤推荐方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN114510646B 。
龙图腾网通过国家知识产权局官网在2025-02-18发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202210108891.7,技术领域涉及:G06F16/9536;该发明授权一种基于联邦学习的神经网络协同过滤推荐方法是由肖甫;顾怡;金诚;程凡恺;陈小柏;周剑设计研发完成,并于2022-01-28向国家知识产权局提交的专利申请。
本一种基于联邦学习的神经网络协同过滤推荐方法在说明书摘要公布了:一种基于联邦学习的神经网络协同过滤推荐方法,无需集中收集用户的个人数据并且上传到受信的中心服务器来进行存储与训练模型,仅在本地进行数据训练,然后在中心服务器端协同多个本地模型进行优化,进而聚合多个本地模型的中间参数来得到服务端全局较优的模型,并下发到每个终端上。本地参与端训练中,本方法有别于传统的基于聚类、最近邻和矩阵分解等方法,按一定比例将数据集转换为隐式反馈数据集,构建神经协同过滤通用框架NCF,输入one‑hot编码用户和项目向量,输出预测结果,并对上传更新的权重进行差分隐私加噪。本方法在保证数据模型的隐私安全前提下,有效的提高了推荐效果。
本发明授权一种基于联邦学习的神经网络协同过滤推荐方法在权利要求书中公布了:1.一种基于联邦学习的神经网络协同过滤推荐方法,其特征在于:包含以下步骤:步骤1,中心服务器初始化神经网络模型的训练配置并启动训练计划,并发送给参与方P1,P2,…,PN;参与方将收到的训练配置中的全局参数w0作为本地神经网络协同过滤模型的第0轮模型参数;步骤2,中心服务器随机选择C个参与方作为训练参与方参与到第t轮训练中,并向它们发送当前的全局模型;步骤3,第t轮训练的各参与方使用本地训练数据集Dc以及本地步骤localepochs,来更新已有的本地神经网络协同过滤模型的第t-1轮全局模型参数得到本地神经网络协同过滤模型的第t轮各参与方的模型参数c∈C,C为训练参与方的个数,t为训练轮数;步骤4,第t轮训练中的各参与方将其在本地第t轮训练更新后的模型参数上传给服务器,并进行加入高斯噪声的差分隐私处理;步骤5,服务器基于FedAvg算法对步骤4各参与方上传的模型参数进行聚合,得到新的全局参数wt;步骤5中,FedAvg算法具体公式如下: 其中,c∈C,C是该轮训练中选定的参与方总数,nc是参与方的本地训练实例数,是该轮训练的总实例数,是参与方更新后的模型参数;步骤6,服务器将依据生成的新的全局参数wt,判断所有参与方的本地神经网络协同过滤模型是否已经收敛或达到预定的训练次数:如果是,则转至步骤7;否则,令训练轮数t加1,并返回步骤2;步骤7,各参与方使用本地训练好的神经网络协同过滤模型以及命中率@10评估协议,对本地测试数据的进行预测,生成一个前10个推荐项列表,从而对训练后的模型在推荐系统中的应用情况进行评估,并输出推荐结果。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人南京邮电大学,其通讯地址为:224008 江苏省盐城市盐南高新区大数据产业园创新大厦南楼15层;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。