恭喜北京理工大学王涌天获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网恭喜北京理工大学申请的专利单目内窥镜无监督深度和运动估计的方法及装置获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN114399527B 。
龙图腾网通过国家知识产权局官网在2025-03-25发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202210014288.2,技术领域涉及:G06T7/207;该发明授权单目内窥镜无监督深度和运动估计的方法及装置是由王涌天;刘诗源;艾丹妮;宋登攀;杨健设计研发完成,并于2022-01-04向国家知识产权局提交的专利申请。
本单目内窥镜无监督深度和运动估计的方法及装置在说明书摘要公布了:单目内窥镜无监督深度和运动估计的方法及装置,方法包括:1获取密集描述符图:对输入源‑目标图像对进行特征匹配,获得稀疏匹配点对;通过特征学习网络获取输入图像对应的密集描述符图;利用稀疏匹配点对和描述符图建立相对响应损失;2进行深度、位姿估计:对特征提取获得的密集描述符图执行密集特征匹配,获得N对密集匹配点对深度估计网络和位姿估计网络分别获得输入图像的深度图和相对位姿;为了给深度和位姿估计网络提供监督信号,描述符图和密集匹配点对分别被用于构建特征一致性损失和对极几何一致性损失。
本发明授权单目内窥镜无监督深度和运动估计的方法及装置在权利要求书中公布了:1.单目内窥镜无监督深度和运动估计的方法,其特征在于:该方法包括以下步骤:1获取密集描述符图:对输入源-目标图像对进行特征匹配,获得稀疏匹配点对;通过特征学习网络获取输入图像对应的密集描述符图;利用稀疏匹配点对和密集描述符图建立相对响应损失;2进行深度、位姿估计:对特征提取获得的密集描述符图执行密集特征匹配,获得N对密集匹配点对深度估计网络和位姿估计网络分别获得输入图像的深度图和相对位姿;为了给深度和位姿估计网络提供监督信号,描述符图和密集匹配点对分别被用于构建特征一致性损失和对极几何一致性损失;所述步骤1中,采用端到端的特征学习网络,从源-目标输入内窥镜图像获得其对应的描述符图;特征学习网络FeatNet由两个权值共享的分支构成,网络的每一个分支采用残差块进行设计,其中编码器由一个卷积层和9个ResNet-v2块组成,从输入图像3×H×W经过两次平均池化层下采样,最终提取特征图C×H4×W4,其中H和W是输入图像的高度和宽度,C是提取特征图的通道数;解码器网络由三个卷积层组成,经过两次双线性上采样,最终获得L×H×W的密集特征描述符图,其中L是密集特征描述符的维数,L=32;所述步骤1中,采用内窥镜图像特征匹配方法获得相邻帧之间的稀疏匹配点对这些稀疏匹配点对被用于构建相对响应损失监督网络训练,对于输入的一对源图像Is和目标图像It,特征描述符学习网络将会生成其对应的密集特征描述符图Fs和Ft,输入图像和密集描述符图大小分别为3×H×W和L×H×W,相对响应损失在数学上定义为: 其中Rt是响应图,表示Fsxs与Ft上每个位置的相似度,计算两个描述符之间的欧氏距离平方作为其相似度评价指标,由于每个描述符已经被归一化为单位向量,描述符之间的欧式距离平方的计算简化为dist2=2-2cosf1,f2,其中f1∈Fs,f2∈Ft,为了避免距离范围过大,采用将其归一化到[0,1],然后对响应图进行softmax操作,同时,比例因子σ扩大了Rt的值域范围,使网络在学习的过程中更加关注相似度较大的区域,降低除真实位置的响应外的其他较大响应,并在一定程度上忽略已经存在较大差异的描述符;所述步骤2中,对于输入的源-目标图像对Is,It,通过两个权值共享的分支网络分别预测出其深度图Ds,Dt,其中每个分支由编码器-解码器组成,编码器采用ResNet34,预测层的激活函数表示为: 其中z是预测层sigmoid激活函数的输出值,a=1dmin-1dmax,b=1dmax,dmin和dmax分别表示内窥镜图像的最小和最大深度,y是当前帧的预测深度;利用没有遮罩预测分支的相对位姿估计网络PoseNet估计出输入图像对Is,It的6DoF相对位姿Tt→s=[Rt→s|tt→s]∈SE3,PoseNet由七个卷积层组成,网络的输出值乘以比例系数ρ用于限制输出值范围;所述步骤2中,对于目标视图It中任一像素坐标pt,假定在源视图中是可见的,则源视图中对应的像素坐标ps由公式6确定 其中~表示齐次坐标相等,Ks和Kt是源视图和目标视图对应相机的内参矩阵,Dtpt是目标视图中坐标点pt处的深度;所述步骤2中,通过公式6获得目标视图和源视图的坐标对应关系,对于特征描述符学习网络获得的源描述符图Fs和目标描述符图Ft,通过上述坐标对应关系利用双线性采样方法,从源描述符图Fs生成合成目标描述符图然后,通过公式7最小化原始目标描述符图Ft和合成目标描述符图之间的误差 其中M是二进制掩码,表示目标视图中的坐标点通过扭曲变换后是否落入源视图中的有效区域,可以通过扭曲变换确定;然后,使用边缘感知的平滑度函数对深度图进行平滑度约束 其中和分别求x和y方向的导数,是用于避免深度收缩的平均归一化逆深度;在上述扭曲变换过程中对目标深度图进行变换合成源深度图利用扭曲变换获得的坐标对应关系对原始源深度图Ds进行采样获得采样源深度图D′s,计算合成源深度图和采样源深度图D′s之间的一致性 Mdiff=1-Ddiff10 对于源和目标输入图像之间的特征匹配点集应该满足对极几何约束p′TFp=0,其中F=K-T[t]×RK-1是基本矩阵,[·]×表示叉乘运算,因此,将网络估计的相对位姿Tt→s=[Rt→s|tt→s]∈SE3,结合特征匹配点集建立对极损失函数如下: 其中dist·,·表示求点到直线的距离,Fp是对极线;对于目标视图和源视图的特征匹配点集建立S与重投影坐标点的误差函数,其中重投影坐标通过扭曲变换获得,重投影损失如下
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人北京理工大学,其通讯地址为:100081 北京市海淀区中关村南大街5号北京理工大学;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。