首页 专利交易 科技果 科技人才 科技服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

基于汉字和拼音信息融合的情感分析方法 

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

申请/专利权人:南京邮电大学

摘要:本发明提供了一种基于汉字和拼音信息融合的情感分析方法,首先将BERT模型拓展为双通道,分为汉字通道和拼音通道,在拼音通道通过本发明的拼音编码方式替换原始BERT模型的词嵌入编码方式,同时获得汉字通道BERT模型输入词向量,然后将获得的两种词向量输入到双通道BERT模型中进行预训练,最后将BERT模型训练出的词向量输出到双层Bi‑GRU模型中完成情感极性的分类。本发明中的编码方式与传统的编码方式相比占用更少的存储空间,表达的信息与内容更加丰富,同时结合汉字和拼音的双通道BERT模型增强了BERT模型对谐音字的语义识别能力。

主权项:1.一种基于汉字和拼音信息融合的情感分析方法,其特征在于:所述情感分析方法主要包括:步骤1,文本数据处理:获取用户社交平台评论的行为数据,并对该行为数据进行数据预处理,得到去噪后的汉字数据集;步骤2,文本数据编码:根据去噪后的汉字数据集通过查询汉字编码的方式生成汉字词嵌入序列,同时通过汉字-拼音编码规则生成拼音编码序列,根据汉字的多音字表示规则生成汉字-拼音编码序列组合对;步骤3,预先训练词向量:将步骤1中的汉字-拼音编码数据集输入到双通道BERT模型中预先训练词向量;步骤4,双通道BRET输出词向量至双层Bi-GRU模型:将双通道BERT预训练模型训练好的汉字-拼音信息融合词向量输入到双层Bi-GRU模型中训练情感极性分类模型;步骤5,双层Bi-GRU模型输出情感极性:将步骤4训练好的双通道BERT预训练模型和双层Bi-GRU模型保存,预测时输入的文本数据也会根据多音字规则生成多个汉字-拼音编码序列对,并生成与序列对等数量的模型,将序列对分别输入模型中,最终预测结果取多个模型中预测概率最高的情感极性;所述双通道BERT包括12层Transformer-Encoder结构,且该12层Transformer-Encoder呈堆叠形式,12层所述Transformer-Encoder结构中,前8层所述Transformer-Encoder结构为双通道2D-Transformer-Encoder,第8层包括运算通道和传参通道,后4层为标准Transformer-Encoder结构。

全文数据:

权利要求:

百度查询: 南京邮电大学 基于汉字和拼音信息融合的情感分析方法

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。