买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
申请/专利权人:中电信数智科技有限公司
摘要:本发明公开一种基于Transformer和联邦学习的流量预警方法,包括步骤:各基站ACS分别构建流量异常监测数据集;中央服务器将中央预警模型和初始化模型参数分别传输到各基站ACS中;各基站ACS利用流量异常监测数据集训练中央预警模型,并将得到的梯度参数回传到中央服务器中;中央服务器接收各基站ACS回传的梯度参数以更新中央预警模型的模型参数,并将更新后的模型参数分发到各基站ACS;各基站ACS将接收到的模型参数加载到中央预警模型中,继续进行模型训练并将得到的梯度参数回传到中央服务器中;重复上述训练更新过程,直至中央预警模型收敛;各基站ACS将最终的模型参数加载到各自的中央预警模型中,用于监测各CPE设备的网络性能。
主权项:1.一种基于Transformer和联邦学习的流量预警方法,其特征在于,包括以下步骤:S1、各基站ACS分别采集其管理范围内各CPE设备的历史网络参数,构建流量异常监测数据集并存储在基站ACS的监测数据库中;所述网络参数包括CPE设备各时刻的磁盘占用率、CPU占用率、GPU占用率和内存占用率;若某CPE设备发生流量异常,则将该CPE设备流量异常前一段时间内若干时刻的网络参数作为正样本保存至基站ACS的监测数据库中;将流量正常的CPE设备相同时间内若干时刻点的网络参数作为负样本保存至基站ACS的监测数据库中;若基站ACS获取的某CPE设备某时刻的某个网络参数缺失,则利用均值法或二次插值法根据该CPE设备三个相邻时刻的对应网络参数值计算缺失值;S2、在中央服务器中构建中央预警模型,并初始化模型参数;所述中央预警模型为Transformer网络,该网络包括若干并列的编码器Encoder和对应的解码器Decoder;所述Encoder包括依次连接的Multi-HeadAttention层和FeedForward层;所述Decoder包括依次连接的MaskedMulti-HeadAttention层、Multi-HeadAttention层和FeedForward层,Multi-HeadAttention层的输入包括对应Encoder的输出,MaskedMulti-HeadAttention层的输入为前一个Decoder的输出;S3、中央服务器将中央预警模型和初始化模型参数分别传输到各基站ACS中;S4、各基站ACS根据初始化模型参数,利用流量异常监测数据集训练中央预警模型,并将得到的用于模型更新的梯度参数回传到中央服务器中;将流量异常监测数据集中的样本数据输入中央预警模型中,每条样本数据包括n个时刻的网络参数,将其分别输入到Transformer网络的n个Encoder中,并根据对应的样本标签得到相应的梯度参数;S5、中央服务器接收并汇总各基站ACS回传的梯度参数以更新中央预警模型的模型参数,并将更新后的模型参数分发到各基站ACS;中央服务器对各基站ACS回传的梯度参数求平均,并根据所得结果更新中央预警模型的模型参数;S6、各基站ACS将接收到的更新后的模型参数加载到中央预警模型中,继续进行模型训练并将得到的梯度参数回传到中央服务器中;S7、重复步骤S5和S6,直至中央服务器中的中央预警模型收敛;S8、将中央服务器中最终的模型参数分发到各基站ACS,由各基站ACS加载到各自的中央预警模型中,用于监测各CPE设备的网络性能;基站ACS将中央服务器中最终的模型参数加载到中央预警模型中,将某CPE设备接下来n个时刻的网络参数输入到Transformer网络的n个Encoder中,得到n个Decoder的输出后求均值,若所得均值大于设定的判断阈值,则表明该CPE设备即将发生或已经发生流量异常。
全文数据:
权利要求:
百度查询: 中电信数智科技有限公司 基于Transformer和联邦学习的流量预警方法
免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。