恭喜北京航空航天大学袁丁获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网恭喜北京航空航天大学申请的专利一种基于NeRF的可泛化性场景渲染方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN117058302B 。
龙图腾网通过国家知识产权局官网在2025-03-14发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202311095029.8,技术领域涉及:G06T15/20;该发明授权一种基于NeRF的可泛化性场景渲染方法是由袁丁;张思哲;张弘;杨一帆设计研发完成,并于2023-08-29向国家知识产权局提交的专利申请。
本一种基于NeRF的可泛化性场景渲染方法在说明书摘要公布了:本发明公开了一种基于NeRF的可泛化性场景渲染方法,采用图像外观信息编码器、图像几何信息编码器、低频前向推理模块、高频前向推理模块,在目标视角下沿光线在空间进行采样,为了减轻采样过程中容易导致的频谱混叠问题,将每个采样点参数成一个某种尺度下各向同性的高斯分布,并将采样点投影到其他已知视角下,利用上述模块,可得到对应点的颜色值和密度值,在得到辐射场和密度场后,沿着整条光线,用体渲染技术得到对应像素点的像素值。相比于现有技术,本发明提出的新视角合成方法,可在输入少量带有相机内参、外参的图片下,获得较好的新视角合成效果;同时具有较好的跨场景渲染能力。
本发明授权一种基于NeRF的可泛化性场景渲染方法在权利要求书中公布了:1.一种基于NeRF的可泛化性场景渲染方法,其特征在于,包括如下步骤:步骤1:获取相机稀疏采集的含有相机内外参的彩色图像,随机选其中一张图像作为目标图像,剩下的作为源图像;步骤2:将各个源图像通过一个具有共享参数的外观信息编码器和几何信息编码器,得到和源图像像素对齐的外观特征图和几何特征图;步骤3:从目标视角发出光线,沿光线在空间先进行粗采样,即均匀采样,得到采样点的方向d、位置坐标x和距离目标相机光心的距离;采样过程中每条光线上的采样点会随模型训练不断地被重采样,使采样点逐渐集中在物体表面;步骤4:将粗采样点用三维各向同性高斯分布参数化后,把它投影到各个源图像的外观特征图和几何特征图上,得到特征查询范围,该范围上的特征的权重分布服从二维高斯分布,其均值就是采样点投影到特征图上的位置坐标,其方差为,其中是一个超参数,是采样点距离源相机的距离,是世界坐标系下像素的实际宽度,利用该权重对特征查询范围内的特征进行加权求期望,得到该采样点对应在各个源图像下的外观特征信息和几何特征信息;步骤5:将粗采样点的位置坐标x参数化成一个各向同性的三维高斯分布,对采样点的方向和位置坐标进行傅里叶编码得到方向编码和位置编码,将粗采样点对应在各个源图像上的几何特征信息做平均池化,得到合成几何特征,连同方向标码和位置编码一起送入低频前向推理模块,得到粗采样点的密度值;步骤6:根据粗采样点的密度值和采样点之间的间隔,可算出每个采样点对应的体渲染时颜色值前的权重,将粗采样点的颜色值前的权重除以颜色值前的权重和进行归一化得到分段常数式的概率密度函数;再根据这个概率密度函数,进行接下来的细采样,将细采样点进行步骤5中同样的傅里叶编码后得到细采样点的方向编码和位置编码,然后再按步骤4的方式,得到细采样点对应在各个源图像的外观特征图上的外观特征信息,做平均池化得到合成外观特征,连同细采样点的方向编码和位置编码一起送入高频前向推理模块,得到细采样点的密度值和颜色值;步骤7:将光线上所有细采样点的密度值和颜色值,通过体渲染得到预测像素值,最后将预测像素值与目标视角下的目标图像真值计算损失函数;步骤8:同步骤6算出沿着光线上所有细采样点的权重分布,即概率密度函数,设置损失函数,其作用是利用细采样点的权重分布引导更新粗采样点的权重分布,将两个损失函数和相加作为最终损失函数,对模型参数应用反向传播算法进行优化,直到收敛。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人北京航空航天大学,其通讯地址为:100191 北京市海淀区学院路37号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。