恭喜国科大杭州高等研究院何欣获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网恭喜国科大杭州高等研究院申请的专利一种面向增强现实的动态同步定位与建图方法及系统获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN119251319B 。
龙图腾网通过国家知识产权局官网在2025-03-18发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202411786825.0,技术领域涉及:G06T7/80;该发明授权一种面向增强现实的动态同步定位与建图方法及系统是由何欣;曹易农;刘世界;冯骏驰;普成宇;王柄涛;吴开乐;郭瑜设计研发完成,并于2024-12-06向国家知识产权局提交的专利申请。
本一种面向增强现实的动态同步定位与建图方法及系统在说明书摘要公布了:本发明属于增强现实技术领域,公开了一种面向增强现实的动态同步定位与建图方法及系统,本发明融合双目事件相机、双目灰度相机及惯性传感器数据,提升定位与建图的实时性与精度,通过事件噪声剔除与分块运动补偿,解决传统相机在高速运动或复杂光照条件下的模糊问题,创新性地提出基于动态权重调整的特征融合策略,将事件时间表面与灰度图像进行融合,系统通过变尺度联合优化算法,有效处理不同尺度下的运动信息,并动态调整关键帧及优化窗口,提高系统在增强现实场景中的鲁棒性,该系统计算负荷低、精度高,适用于实时环境下的增强现实应用。
本发明授权一种面向增强现实的动态同步定位与建图方法及系统在权利要求书中公布了:1.一种面向增强现实的动态同步定位与建图方法,其特征在于,包括以下步骤:步骤1,对双目事件相机与双目灰度相机标定内参和外参,并进行图像畸变校正;步骤2,同时使用双目事件相机与双目灰度相机采集数据,获取图像帧和事件流,并进行时间同步以确保数据一致性,双目灰度相机保存灰度图像;步骤3,利用惯性传感器采集角速度和线速度;步骤4,对惯性传感器获得的角速度和加速度数据预积分,获得头戴式设备的运动的姿态、速度和位置信息;步骤5,剔除事件流的背景与热点噪声;步骤6,利用惯性传感器提供的角速度和线速度进行分块运动补偿,校正事件流畸变;步骤7,将事件流转换为时间表面表示,提取边缘特征并生成边缘映射图像;步骤8,分别从灰度图像和边缘映射图像中提取特征点,并进行匹配;步骤9,利用动态权重模型融合事件相机与灰度相机的特征点数据,构建关键帧的特征点集合,包括以下步骤:步骤9.1,根据步骤2得到的事件流的数据计算光强变化率: 公式(3)其中,L表示光强变化率,N表示事件总数,Si表示第i个事件的极性值,△t表示事件发生的时间跨度;步骤9.2,使用非线性函数处理光强变化率、线速度和角速度,结果分别记为L’、V’、A’;步骤9.3,由以下式子分别计算双目事件相机权重We和双目灰度相机的权重Wg: 公式(4) 公式(5)其中,α、β、γ、δ、和ζ是影响系数,用于平衡不同变量的影响;步骤9.4,归一化双目事件相机权重和双目灰度相机的权重,结果分别记为We’和Wg’,过程如下: 公式(6) 公式(7)步骤9.5,使用事件表面上的特征点对关键帧的特征点进行位置修正;对不匹配的特征点,使用双目事件相机特征点进行补充;对于匹配的特征点,由公式(8)计算融合后的坐标: 公式(8)其中,双目事件相机特征点坐标为Pe,灰度图像特征点坐标为Pg,融合后的特征点位置为Pf;步骤9.6,对融合后的图像特征点提取关键帧;步骤10,利用KLT光流跟踪算法,追踪关键帧的特征点的运动轨迹;利用EPnP算法估计头戴式设备的初步位姿,为后续的位姿优化提供初步信息;步骤11,结合预积分数据和初步位姿数据,进行变尺度的联合优化,构建局部地图;步骤12,输出全局位姿和全局地图。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人国科大杭州高等研究院,其通讯地址为:310024 浙江省杭州市西湖区象山支弄1号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。