恭喜浙江工业大学洪榛获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网恭喜浙江工业大学申请的专利一种基于人工势场法与实例分割的机器人智能避障方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN114637295B 。
龙图腾网通过国家知识产权局官网在2025-05-16发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202210259535.5,技术领域涉及:G05D1/43;该发明授权一种基于人工势场法与实例分割的机器人智能避障方法是由洪榛;周磊强;温震宇;李雄设计研发完成,并于2022-03-16向国家知识产权局提交的专利申请。
本一种基于人工势场法与实例分割的机器人智能避障方法在说明书摘要公布了:一种基于人工势场法与实例分割算法融合的智能避障方法,包括:通过采集现实场景障碍物图片数据,使用Python脚本制作实例分割数据集;将数据集导入至Yolact算法进行训练,并制作ROS包;利用ZED2相机提取障碍物的深度信息,将实例分割的结果融合深度信息便可得到障碍物的世界坐标、类别CLASS以及MASK遮罩,将上述三个结果融合至改进的人工势场法中,定义目标点世界坐标,便可以实现在抢险救灾场景中有选择性的避障。本发明解决在抢险救灾场景中遇到障碍物耽误最佳抢险时间的问题,使之最快到达救援点。
本发明授权一种基于人工势场法与实例分割的机器人智能避障方法在权利要求书中公布了:1.一种基于人工势场法与实例分割的机器人智能避障方法,其特征在于,包括以下步骤:步骤1:采集实验所需的障碍物各个视角的RGB信息,并通过剪裁、旋转进行数据增强,对数据集进行预处理:步骤1-1:采集室内障碍物样本图像数据并进行标注;步骤1-2:对标注后的样本数据集进行特征增强,获得COCO数据集;步骤1-3:构建Yolact模型;步骤1-4:利用COCO数据集对所述的Yolact模型进行训练,得到障碍物样本的目标参数与目标权重,并将所述的目标参数和目标权重作为训练好的Yolact模型的参数和权重;步骤1-5:使用训练好的Yolact模型对经标准化处理的障碍物样本图像进行检测,输出对应障碍物样本的类别Class与MASK矩阵Mw×h,w,h代表RGB图片的输入维度,定义Classsafe为安全类别,Classdanger为危险类别;步骤2:通过ZED2相机获取障碍物的深度信息矩阵Dw×h,并通过相机的旋转矩阵R3×3与平移矩阵T3×1获取障碍物相对于相机的3D位姿信息,并建立小车世界坐标系base_link与相机的世界坐标系zed2_link之间的转换关系矩阵H3×1:步骤2-1:根据等距采样算法,获取障碍物样本各个区域像素位置的深度值z以及对应的像素坐标u,v;步骤2-3:通过相机标定获取其内参矩阵Q,Q可以由如下公式表示: 其中,fx、fy分别代表相机坐标系中x,y坐标轴方向上的焦距,u0、v0分别代表像素坐标系中u轴、v轴的像素中心;步骤2-4:通过障碍物的像素坐标u,v以及其对应的深度值z将其转换为相机的世界坐标Xω,Yω,Zω,其转换公式如下: 其中R,T分别为旋转矩阵与平移矩阵;步骤2-5:基于步骤2给出的小车世界坐标系base_link与相机世界坐标系zed2_link的转换关系矩阵H3×1可以得到,障碍物在小车世界坐标系的坐标由如下公式给出: 其中,Xoffset,Yoffset,Zoffset分别代表空间中相机与小车之间的相对位移;步骤3:确定目标点的坐标,基于人工势场法建立模型,基于步骤1与步骤2,得到障碍物相对于小车之间的世界坐标以及其对应的类别Xcar,Ycar,Zcar,Class,不考虑Zcar坐标,根据救援点方向确定一个目标点坐标Xg,Yg,以此来建立势场模型:步骤3-1:建立人工势场,将小车周围环境中的运动抽象成在引力场中的运动,目标对小车产生引力,障碍物对小车产生斥力,根据叠加原理计算出合力方向,即为小车运动方向;步骤3-2:定义目标点处的引力公式: 其中,α是引力增益,dq,qgoal是小车当前位置与目标点qgoalXg,Yg之间的距离;步骤3-3:实例分割算法Yolact将会实时计算障碍物类别Class,当障碍物类别属于步骤1-5中的Classdanger时,该类别障碍物处存在斥力,当障碍物类别属于Classsafe时,忽略斥力,因此斥力公式分配如下: 其中,dq,qobs是小车当前点与障碍物之间的距离,β是斥力增益,Q是障碍物作用的距离阈值,当前点与障碍物距离大于此阈值时,障碍物对小车不会产生斥力;步骤3-4:根据步骤3-2、3-3便可计算出小车在任意位置处的引力与斥力,其中引力由如下公式给出: 斥力由如下公式给出: 则小车当前的合力大小为:Fq=Fattq+Frepq#8步骤3-5:根据里程计确定小车的实时转向角θtime;步骤3-6:根据3-4给出的Fattq、Frepq便可以得到合力Fcom以及相对于世界坐标系的夹角θexpect,根据小车质量M以及加速度公式得到其期望速度vexpect,根据采样时间t得到期望坐标xexpect,yexpect,其中vexpect、xexpect、yexpect由如下公式给出: xexpect=x0+vexpect·t·cosθexpect#10yexpect=y0+vexpect·t·sinθexpect#11其中,x0,y0代表小车的初始坐标;步骤4:将相对位姿转换为速度模型:步骤4-1:给定线速度v与角速度ω的控制系数kv,kω以及速度初值v0,ω0,根据步骤3所给出的θexpect、xexpect、yexpect以及小车当前的位姿信息θtime、xtime、ytime建立速度转换模型,则其误差矩阵Erobot、平移矩阵Trobot可由如下公式给出: 则速度控制矩阵Crobot=Trobot·Erobot;步骤4-2:计算小车实时的速度,我们定义步骤4-1中的速度控制矩阵为: 则小车目标线速度vgoal、目标角速度ωgoal可由如下公式给出:vgoal=kv·c1+v0·cosc3#15ωgoal=kω·sinc3+v0·c2+ω0#16。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人浙江工业大学,其通讯地址为:310014 浙江省杭州市拱墅区潮王路18号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。