Document
拖动滑块完成拼图
个人中心

预订订单
服务订单
发布专利 发布成果 人才入驻 发布商标 发布需求

在线咨询

联系我们

龙图腾公众号
首页 专利交易 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 恭喜中国电子科技集团公司第十四研究所陈子洋获国家专利权

恭喜中国电子科技集团公司第十四研究所陈子洋获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网恭喜中国电子科技集团公司第十四研究所申请的专利一种基于异构平台的卷积神经网络运算方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN113496272B

龙图腾网通过国家知识产权局官网在2025-05-02发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202110717674.3,技术领域涉及:G06N3/0464;该发明授权一种基于异构平台的卷积神经网络运算方法是由陈子洋;凌元设计研发完成,并于2021-06-28向国家知识产权局提交的专利申请。

一种基于异构平台的卷积神经网络运算方法在说明书摘要公布了:本发明公开了一种基于异构平台的卷积神经网络运算方法,采用CPU端和FPGA端组成异构平台,划分卷积神经网络的卷积层和全连接层,FPGA端设计运算阵列计算矩阵相乘,CPU端初始化FPGA端并重排数据,CPU端读取FPGA端的运算结果,将卷积神经网络运算转变为矩阵乘法运算,将规模较大的卷积或者全连接计算转换成多个小矩阵的循环迭代计算,只需根据当前层尺寸参数与矩阵参数设计,直接更改CPU代码,完成不同规模的卷积神经网络运算,相较传统的基于单一CPU或FPGA的开发方式,提升了效率与灵活性。

本发明授权一种基于异构平台的卷积神经网络运算方法在权利要求书中公布了:1.一种基于异构平台的卷积神经网络运算方法,其特征在于,包括:采用CPU端和FPGA端组成异构平台,划分卷积神经网络的卷积层和全连接层,FPGA端设计运算阵列计算矩阵相乘,CPU端初始化FPGA端并重排初始图像和中间结果的数据,CPU端读取FPGA端的运算结果,将卷积神经网络运算转变为矩阵乘法运算;所述划分卷积神经网络的卷积层和全连接层,包括:将卷积神经网络划分为卷积层conv1至convX、全连接层fc1至fcY,定义每个卷积层的对应参数Paraconv1~X,包括图像长H、图像宽W、通道数N、步长S、补零P、卷积核尺寸K、卷积核数M,定义每个全连接层的对应参数Parafc1~Y,包括单元数Q、神经元数R;所述FPGA端设计运算阵列计算矩阵相乘,包括:运算阵列采用矩阵乘法核函数GEMM-Kernel,输入两个矩阵数据,输出矩阵相乘的结果,定义静态参数BS1、BS2、BS3,单个GEMM-Kernel单次读内存的矩阵运算大小为[BS1,BS2]×[BS2,BS3],循环读取内存,完成两个矩阵相乘;所述运算阵列采用矩阵乘法核函数GEMM-Kernel,包括:FPGA端设计G1×G2个独立的GEMM单元,每个GEMM单元独立访问FPGA端的内存,分次将待处理矩阵的对应分块读取至本地存储,完成分块矩阵的乘法运算,累加循环读取的计算结果,写入FPGA端的内存;所述CPU端初始化FPGA端并重排初始图像和中间结果的数据,包括:CPU端根据当前卷积神经网络的尺寸参数和FPGA端运算阵列的设计参数,配置GEMM-Kernel函数的BS1、BS2、BS3,根据当前层的参数设置将待处理数据重排为满足矩阵乘法的格式,通过DMA按顺序写入FPGA端的内存,启动FPGA端的运算阵列供GEMM单元读取。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人中国电子科技集团公司第十四研究所,其通讯地址为:210039 江苏省南京市雨花台区国睿路8号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。