买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
申请/专利权人:重庆邮电大学
摘要:本发明涉及联邦学习领域,特别涉及一种隐私保护下基于半监督联邦学习的数据增强方法,包括构建带辅助分类器的生成对抗网络ACGAN,将改进的Dropout加入ACGAN,将已标注的数据输入ACGAN进行数据增强;构建包括一个中心服务器和C个客户端的Cycle‑Fed模型,利用已标注样本和增强样本对Cycle‑Fed模型进行训练,并将未标注的样本的数据输入Cycle‑Fed模型预测得到伪标注样本;将伪标注样本输入ACGAN的鉴别器进行鉴别,得到具有双重置信度的伪标注样本,完成数据增强;本发明不仅能够大大减小客户端与服务器之间的通信代价,而且能够利用大量未标注数据进行半监督联邦学习。
主权项:1.隐私保护下基于半监督联邦学习的伪标注数据增强方法,其特征在于,在跨设备联邦学习中,参与者为单独的设备,设备中存储有无标记的数据,无标记的数据包括拍摄的照片、文本输入和可穿戴设备测量的生理指标,对设备中无标记的数据对应的伪标注数据进行数据增强,具体包括以下步骤:构建带辅助分类器的生成对抗网络ACGAN,将改进的Dropout加入ACGAN,将已标注的数据输入ACGAN进行数据增强;将改进的Uout-Dropout加入ACGAN的过程包括:改进Dropout层方差的计算,即令X=x1+r,r修改为位于中的均匀分布;将改进的改进Dropout层,即放到生成器的每一个BatchNormalization层、以及第一个卷积层之后;其中,X表示神经网络的输入,x1+r表示该输入通过标准正态分布计算后赋值给X,r为位于中的均匀分布,其中构建包括一个中心服务器和C个客户端的Cycle-Fed模型,利用已标注样本和增强样本对Cycle-Fed模型进行训练,并将未标注的样本的数据输入Cycle-Fed模型预测得到伪标注样本;Cycle-Fed模型在训练过程中的目标是最小化损失函数,损失函数表示为: 其中,Fcx是本地目标函数,为随机采样的已标注数据量,为随机采样的未标注数据量,L,是交叉熵损失函数,yi为已标注数据集Dl中第i个数据标签的one-hot编码,fix为已标注数据集Dl中第i个数据的输出单元,y′j为未标注集Dul中第j个数据伪标签的one-hot编码,fj′x为未标注集Dul中第j个数据伪标签的输出单元;αt是平衡系数,表示为: 其中,t表示随模型迭代周期变化的变量,T1、T2是确定性退火算法的模拟温度常数值,αmax表示αt的最大邻域值;T1、T2以及αmax是可根据具体环境设置的常数超参,一般在不进行预训练的情况下,参数设置为αmax=3,T1=100,T2=600;对Cycle-Fed模型的目标函数进行修正,即在目标函数中加入一个自适应参数μ,修正后的目标函数表示为: 其中,fcw;wt表示加入了μ的目标函数;w表示模型的初始权重参数;wt表示模型经过本地迭代轮次t后的更新权重参数;Fcw表示本地客户端c的初始目标函数;q表示本地训练循环次数的超参数;表示全局模型前一次第t-1迭代中的权重参数;表示当前第t次迭代中本地模型更新后的权重参数,表示为: 其中,βt为衡量全局模型权重梯度与局部模型权重梯度的向量相似性;将伪标注样本输入ACGAN的鉴别器进行鉴别,得到具有双重置信度的伪标注样本,完成数据增强。
全文数据:
权利要求:
百度查询: 重庆邮电大学 隐私保护下基于半监督联邦学习的数据增强方法
免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。