恭喜华南理工大学胡广华获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网恭喜华南理工大学申请的专利一种面向无序分拣场景的工件位姿估计方法及装置获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN115359119B 。
龙图腾网通过国家知识产权局官网在2025-05-30发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202210824877.7,技术领域涉及:G06T7/73;该发明授权一种面向无序分拣场景的工件位姿估计方法及装置是由胡广华;欧美彤;李浩勤设计研发完成,并于2022-07-14向国家知识产权局提交的专利申请。
本一种面向无序分拣场景的工件位姿估计方法及装置在说明书摘要公布了:本发明公开了一种面向无序分拣场景的工件位姿估计方法及装置,其中方法包括:获取场景工件的RGB‑D图像;将RGB图输入到目标检测模块中,获得坐标信息;根据坐标信息对所述RGB图像、深度图像进行裁剪,并输入位姿估计模型,获得RGB‑点云融合特征;根据RGB‑点云融合特征获取相机坐标系下的关键点、中心点坐标;对关键点、中心点坐标进行约束;将约束后的关键点、中心点坐标,与预设的模型坐标系下对应的关键点坐标和中心点坐标进行配准,输出目标工件的最终姿态。本发明在模型中引入目标对象的几何特征约束,如预测的关键点和中心点的约束,能够提高预测结果的准确性。本发明可广泛应用于位姿识别技术领域。
本发明授权一种面向无序分拣场景的工件位姿估计方法及装置在权利要求书中公布了:1.一种面向无序分拣场景的工件位姿估计方法,其特征在于,包括以下步骤:获取场景工件的RGB-D图像,其中RGB-D图像包括RGB图像和深度图像;将RGB图像输入到目标检测模块中,获得目标工件的包围框的坐标信息;根据获得的坐标信息对所述RGB图像、深度图像进行裁剪,将裁剪后的深度图像转换成点云,将点云和裁剪后的RGB图像输入位姿估计模型,获得RGB-点云融合特征;根据RGB-点云融合特征获取相机坐标系下的关键点坐标和中心点坐标;对获得的关键点坐标与关键点坐标的真值进行约束,对中心点坐标与中心点坐标的真值进行约束,对关键点坐标与中心点坐标之间的边进行几何约束;通过3D-3D映射关系,将约束后的关键点坐标和中心点坐标,与预设的模型坐标系下对应的关键点坐标和中心点坐标进行配准,输出目标工件的最终姿态;所述位姿估计模型通过以下方式训练获得:获取渲染数据,获取真实数据并进行标注,根据渲染数据获取训练集和验证集;将训练集中的RGB-D图像,输入目标检测模块中,获得目标的矩形框信息;根据矩形框信息对RGB-D图像中的RGB图像、深度图像进行裁剪,并将裁剪后的RGB图像、深度图像输入位姿估计模型;利用可反向传播的投票机制,得到关键点坐标、中心点坐标,以及得到位姿结果;利用增加的几何约束训练位姿估计模型;利用迁移学习,根据真实数据对位姿估计模型进行微调;采用验证集对训练后的位姿估计模型进行验证;所述渲染数据、真实带标注数据通过以下方式获得:采用blenderproc的渲染数据制作工具箱获取渲染数据集;所述渲染数据集的组成包含两部分,第一部分为对象生成斐波那契圆均匀采样视点,同时在每个采样视点采用均匀的相机自旋角度;第二部分为堆叠数据,相机以垂直角度,随机自旋采样数据,场景以随机背景随机灯光进行变换;对真实数据进行标注,包括:将相机固定于机械臂末端,通过眼在手上的手眼标定程序,获得相机相对于机械臂基坐标姿态;其中,通过以下公式获取真实数据的相机姿态: 式中,是物体j在第i帧下物体相对于相机的姿态,是第0帧物体j在相机坐标系下的姿态,是第i帧相机姿态的逆矩阵。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人华南理工大学,其通讯地址为:510641 广东省广州市天河区五山路381号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。