首页 专利交易 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

一种基于深度学习的低复杂度置信度传播译码方法 

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

申请/专利权人:澳门理工大学

摘要:本发明公开了一种基于深度学习的低复杂度置信度传播译码方法,使用基于TR分解的压缩算法来压缩NBP译码算法中的参数和数学计算,其中,针对参数的压缩不仅压缩学习权重,还压缩变量节点和校验节点之间传递的消息,针对数学运算的压缩包括对NBP算法中的tanh函数、tanh函数的级联乘法和tanh‑1函数执行基于TR分解的压缩,以减少NBP算法的计算复杂度和所需的存储资源;同时提出NBP译码的联合压缩,将基于TR分解的压缩应用于CENBP译码算法的奇数层,CENBP译码算法原本利用循环码的移位不变特性对学习到的权重进行压缩,本发明在此基础上对奇数层中的消息进行基于TR分解的压缩,压缩后的CENBP算法保留了高性能的优势,降低了时间复杂度,进一步减少了所需的内存存储资源。

主权项:1.一种基于深度学习的低复杂度置信度传播译码方法,其特征在于,包括如下步骤:S1、基于深度学习的神经置信传播NBP译码算法,引入基于张量分解的压缩方法,进行NBP算法的压缩,降低NBP译码算法的复杂度;所述NBP算法的压缩包括:学习权值的压缩、消息的压缩、学习权重和消息的压缩;选择TR分解作为所述张量分解的算法,添加学习权重和消息参与校验节点更新过程的计算,将待压缩矩阵转换为高阶张量,并对所述高阶张量进行TR分解,得到TR格式的若干因子张量,所述TR分解为张量环分解,方法如下:将学习权重转置为四阶张量对得到的高阶张量进行TR分解如下: 其中,为经过TR分解后的三个因子张量,c为校验节点符号,v为变量节点符号,t为迭代次数;将消息转置为四阶张量对得到的高阶张量进行TR分解如下: 其中,为经过TR分解后的三个因子张量;使用Mc表示连接到校验节点c的变量节点集,v′是集合Mc中除了变量节点v之外的元素;所述学习权值的压缩,使用TRw-NBP算法,具体为:使用TR分解来减少学习权重的数量,从而降低时间复杂度和所需的内存存储资源;NBP算法是通过将BP算法展开为神经网络的形式,并对其进行参数化来获得,公式如下: 其中,为第t次迭代从校验节点c传递到变量节点v的消息;对上式中的学习权重进行TR分解如下: 其中,TR·代表TR分解运算,用于通过减少学习权重来降低NBP译码的复杂度;S2、使用张量分解的压缩方法,对NBP算法中数学运算进行压缩,用于降低NBP算法中与tanh函数相关的数学计算的复杂度;S3、使用基于张量分解的联合压缩方法,进一步降低NBP译码算法的复杂度,包括:利用张量分解联合循环码特性对NBP译码算法进行压缩,以及利用张量分解联合分段函数逼近对NBP译码算法进行压缩。

全文数据:

权利要求:

百度查询: 澳门理工大学 一种基于深度学习的低复杂度置信度传播译码方法

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。