恭喜中国科学院深圳先进技术研究院周贞宁获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网恭喜中国科学院深圳先进技术研究院申请的专利一种多模态触觉数据联合感知方法及相关设备获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN116352735B 。
龙图腾网通过国家知识产权局官网在2025-05-16发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202310245173.9,技术领域涉及:B25J13/08;该发明授权一种多模态触觉数据联合感知方法及相关设备是由周贞宁;易正琨;吴新宇;方森林;李晓宇;黄滨华设计研发完成,并于2023-03-06向国家知识产权局提交的专利申请。
本一种多模态触觉数据联合感知方法及相关设备在说明书摘要公布了:本发明公开了一种多模态触觉数据联合感知方法及相关设备,所述方法包括:获取触觉阵列数据集和触觉彩色图像数据集,并按预设比例划分为训练集、验证集和测试集;搭建针对触觉阵列数据集的卷积循环自编码器网络和针对触觉彩色图像数据集的双向循环自编码器网络,通过联合损失将两个网络联合搭建得到肿瘤深度识别模型;使用训练接和验证集对肿瘤深度识别模型进行训练,使用测试集验证训练后的肿瘤深度识别模型的有效性,所述有效性的评价指标为肿瘤深度分类准确率。本发明旨在挖掘利用特征差异大的多模态触觉数据集潜在相关信息,改进传统分类任务存在的难以有效利用特征差异大的触觉数据问题。
本发明授权一种多模态触觉数据联合感知方法及相关设备在权利要求书中公布了:1.一种多模态触觉数据联合感知方法,其特征在于,所述多模态触觉数据联合感知方法包括:获取触觉阵列数据集和触觉彩色图像数据集,所述触觉阵列数据集基于电容传感器采集并经过预处理后得到,所述触觉彩色图像数据集基于Digit传感器采集并经过预处理后得到,并将所述触觉阵列数据集和所述触觉彩色图像数据集按预设比例划分为训练集、验证集和测试集;搭建针对所述触觉阵列数据集的卷积循环自编码器网络和针对所述触觉彩色图像数据集的双向循环自编码器网络,通过联合损失将所述卷积循环自编码器网络和所述双向循环自编码器网络联合搭建得到肿瘤深度识别模型;使用所述训练集和所述验证集对所述肿瘤深度识别模型进行训练,使用所述测试集验证训练后的所述肿瘤深度识别模型的有效性,所述有效性的评价指标为肿瘤深度分类准确率;所述卷积循环自编码器网络对触觉阵列数据集的分类损失使用交叉熵损失,重构损失函数使用均方误差,分类损失函数和重构损失函数如下: 其中,N表示触觉阵列数据集的数量,C表示类别数,表示指示函数,yi表示第i样本的标签,xi表示第i个样本数据,表示第i个样本经过所述卷积循环自编码器网络的输出数据,表示样本数据Xi经过softmax函数后的预测向量;所述双向循环自编码器网络对触觉彩色图像数据集的分类损失使用交叉熵损失,重构损失函数使用均方误差,分类损失和重构损失如下: 其中,M表示触觉彩色图像数据集的数量,C表示类别数,表示指示函数,yj表示第j样本的标签,Xj表示第j个样本数据,表示第j个样本经过所述双向循环自编码器网络的输出数据,表示样本数据Xj的预测向量;基于所述卷积循环自编码器网络获取所述触觉阵列数据集的潜在向量,基于所述双向循环自编码器网络获取所述触觉彩色图像数据集的潜在向量,联合多模态触觉数据高维特征的方法将维度大于预设阈值的潜在向量进行主成分分析处理,降维成维度低于预设阈值的潜在向量相同维度,计算两者的均方误差得到联合损失,将联合损失加入网络的总损失函数中,如下: 其中,L表示总损失,wr表示重构损失的权重,wc表示分类损失的权重,wz表示联合损失的权重,z1代表维度大于z2的触觉数据集的潜在向量,z2代表维度小于z1的触觉数据集的潜在向量,z1′代表z1经过主成分分析处理后的潜在向量,所述触觉数据集包括所述触觉阵列数据集和所述触觉彩色图像数据集。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人中国科学院深圳先进技术研究院,其通讯地址为:518055 广东省深圳市南山区西丽深圳大学城学苑大道1068号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。