恭喜北京元支点信息安全技术有限公司杨志卫获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网恭喜北京元支点信息安全技术有限公司申请的专利一种基于无监督预训练模型诱饵的制作方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN115396175B 。
龙图腾网通过国家知识产权局官网在2025-02-18发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202211011639.0,技术领域涉及:H04L9/40;该发明授权一种基于无监督预训练模型诱饵的制作方法是由杨志卫设计研发完成,并于2022-08-23向国家知识产权局提交的专利申请。
本一种基于无监督预训练模型诱饵的制作方法在说明书摘要公布了:本发明涉及网络安全技术应用技术领域,具体公开了一种基于无监督预训练模型诱饵的制作,包括如下步骤:S1、准备相关语料库;S2、数据预处理;S3、加载预训练生成模型GPT;S4、下游特定任务训练;S5、根据关键词和真实环境描述生成内容;S6、诱饵文件制作;S7、生成诱饵文件程序绑定word、pdf、web;S8、生成诱饵智能下发到终端。本发明依靠强大的无监督预训练模型GPT‑2生成出的诱饵内容,并结合进一步改造,文档中植入一个隐蔽的追踪溯源程序;无监督预训练+监督下游任务微调,而在NLP任务中,上游的无监督预训练任务多半采用语言模型来实现,下游的监督任务直接对上游的模型进行简单改造。
本发明授权一种基于无监督预训练模型诱饵的制作方法在权利要求书中公布了:1.一种基于无监督预训练模型诱饵的制作方法,其特征在于,包括如下步骤:S1、准备相关语料库;S2、数据预处理;S3、加载预训练生成模型GPT;S4、下游特定任务训练;S5、根据关键词和真实环境描述生成内容;S6、诱饵文件制作;S7、生成诱饵文件程序绑定word、pdf、web;S8、生成诱饵智能下发到终端;其中,在S3中,对于语料u=u1,.....un,GPT构建标准的语言模型: ;同时使用TransformerDecoder模块加上前馈神经网络,最后使用softmax输出目标词的分布;h0=UWe+Wp ;对于通过第一阶段的预训练得到的语言模型,对于特定的任务进行fine-tuning;对于一个监督数据集C,其中的数据为一个序列χ1,......,χm,和一个标签y;将序列输入预训练模型后得到输出向量hlm,接着使用一个线性层来预测标签; ;需极大化的似然函数为: 。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人北京元支点信息安全技术有限公司,其通讯地址为:100000 北京市东城区安乐林路69号3号楼203-A;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。