首页 专利交易 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

一种基于黑盒对抗样本的社交文本人格隐私保护方法 

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

申请/专利权人:北京工业大学;北京邮电大学

摘要:一种基于黑盒对抗样本的社交文本人格隐私保护方法属于社会工程学领域。本发明主要利用自然语言处理技术,使用Bert预处理模型和注意力机制为主的方法进行社交文本对抗样本的生成。通过使用Bert模型对文本进行预处理,并去除掉停用词,再通过注意力机制self‑attention寻找对每个文本中对语义贡献度大的单词进行词级替换操作,同时利用Bert模型自身生成的向量进行单词对标签贡献度的估算,选出对标签贡献度大的单词进行字符级替换操作。本发明通过同时对句子语义和标签生成两个方面进行量化,既保证了对抗样本与原文本的语义相似度,同时也保证了更大程度的造成已有分类器的误判。

主权项:1.一种生成人格分类的黑盒对抗样本的方法,其特征在于包括以下步骤:步骤1、对数据集进行预处理,输入到Bert模型,得到文本所对应的字符向量编码序列,并去除停用词;步骤2、对于每个文本样本,首先利用自注意力机制,计算其中每个单词的自注意力分数作为每个单词对句子的语义贡献度W1,并由低到高排序,按序依此标记前m个单词作为之后进行词级替换的单词;自注意力机制的Self-attention分数值决定了某个词对输入句子的其他部分的重要程度,也就是要计算的语义贡献度W1;这个分数的计算方法是: 其中A是Self-attention分数值,Q、K、V是上文提到的三个向量,d是向量的维度,矩阵相乘再与维数开根号的结果做除法,再做一个softmax操作,就是最终得到的Self-attention分数;步骤3、将原文本中,除已标记的m个单词以外的其他单词都依次用空格替代并输入到Bert模型,计算替换后的[CLS]标志与原句[CLS]标志的欧氏距离作为单词对标签的贡献度W2,并由大到小排序,按序依此标记前n个单词,等待进行字符级替换,对于一个样本x,若要计算其中某个单词xi对标签的贡献度W2i,就需要将xi用空格代替,得到新样本xi′,并重新送入Bert,计算xi′的[CLS]向量与x的[CLS]向量的欧氏距离,作为单词xi对标签的贡献度W2i;将句子中除步骤2标记的m个单词以外的其他单词都依次用空格替换并计算标签贡献度W2i,按照W2i的值进行从大到小排序,选择最大的前n个单词作为字符级替换的单词;1≤n≤5,m为1、2、3、4、5其中一个;步骤4、对已标记的m个单词通过在语料库中寻找该单词的近义词来进行词级替换,已标记的n个单词通过设置字符替换对应表对该单词进行字符级替换,从而生成对抗样本;设置了一个字符替换对应表,专门针对于形状类似的两个字符之间进行替换,对应每个字符都有一个确定的替换字符在字符替换对应表内,这样相当于单词出现了拼写错误,这种替换让人类能察觉到单词是错误的但是能知道他原本想表达的意思,而深度学习分类器则会错误判断当前拼写错误的单词。

全文数据:

权利要求:

百度查询: 北京工业大学 北京邮电大学 一种基于黑盒对抗样本的社交文本人格隐私保护方法

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。