Document
拖动滑块完成拼图
首页 专利交易 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

一种基于视触觉学习抓取状态分类的方法 

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

摘要:本发明公开了一种基于视触觉学习抓取状态分类的方法,搭建该方法的实验场景,用配备平行夹持器的6自由度机器人手臂进行了抓取实验,平行夹持器的两端各装有一个视触觉传感器,用于捕获物体微小滑动趋势;构建可变形物体在过稳定、完全稳定和不稳定三种状态下的光流数据集OFB‑6;利用公开的数据集进行基准测试;通过加入光流前后Transformer模型在识别准确率的提升,验证所提出的光流指导Transformer模型学习的有效性。本发明的光流法可以提前检测到这些微小变化,从而及时调整抓取策略。能够更准确地捕捉到触觉图像中的动态变化。通过融合视觉和触觉信息,模型能够更全面地理解抓取过程中的物理变化,提高整体抓取性能。

主权项:1.一种基于视触觉学习抓取状态分类的方法,搭建该方法的实验场景,用配备平行夹持器的6自由度机器人手臂进行了抓取实验,平行夹持器的两端各装有一个视触觉传感器,用于捕获物体微小滑动趋势;其特征在于,包括如下步骤:1构建可变形物体在过稳定、完全稳定和不稳定三种状态下的光流数据集OFB-6;过稳定指夹持中物体发生轻微或明显变形;完全稳定指物体无明显形变,且能够稳定的抓握物体,没有滑落的迹象;不稳定指物体有滑落的趋势或完全脱离夹爪;2利用公开的数据集进行基准测试,通过实验对比Transformer模型和卷积递归神经网络CNN+LSTM在三种模态下的识别准确率来验证引入Transformer模型处理多模态信息的有效性;3通过加入光流前后Transformer模型在识别准确率的提升,验证所提出的光流指导Transformer模型学习的有效性。

全文数据:

权利要求:

百度查询: 北京工业大学 一种基于视触觉学习抓取状态分类的方法

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

相关技术
相关技术
相关技术