恭喜深圳金三立视频科技股份有限公司张宇获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网恭喜深圳金三立视频科技股份有限公司申请的专利一种低照度视频增强方法、系统及存储介质获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN115619674B 。
龙图腾网通过国家知识产权局官网在2025-03-21发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202211303587.4,技术领域涉及:G06T5/70;该发明授权一种低照度视频增强方法、系统及存储介质是由张宇;杨伟强;吴庆耀;曹沂文;刘东剑设计研发完成,并于2022-10-24向国家知识产权局提交的专利申请。
本一种低照度视频增强方法、系统及存储介质在说明书摘要公布了:本发明公开了一种低照度视频增强方法、系统及存储介质,包括:将训练集视频分离成帧,构建训练帧图像对;构建无监督去噪网络模型,生成带噪‑去噪图像对,训练基于U‑Net网络结构的去噪网络模型;构建无参考低照度增强网络模型,将训练帧图像对输入双输入孪生曲线估计网络得到增强参数图对,将增强参数图对输入增强曲线进行迭代增强,计算低照度增强无参考损失函数、自注意过曝正则损失函数和帧间一致性正则损失函数,训练低照度增强网络模型;利用去噪网络模型和低照度增强网络模型对测试视频进行低照度增强。本发明解决了传统夜间低照度视频增强对训练数据对的依赖,约束了复杂光照场景下的局部过曝问题,保证了低照度视频增强的稳定性。
本发明授权一种低照度视频增强方法、系统及存储介质在权利要求书中公布了:1.一种低照度视频增强方法,其特征在于,包括下述步骤:将训练集视频分离成帧,构建训练帧图像对;构建无监督去噪网络模型,分场景生成带噪-去噪图像对,训练基于U-Net网络结构的去噪网络模型并保存;构建无参考低照度增强网络模型,将所述训练帧图像对输入共享权重的双输入孪生曲线估计网络得到增强参数图对,将所述增强参数图对输入预设计的增强曲线对所述训练帧图像对进行迭代增强,计算低照度增强无参考损失函数、自注意过曝正则损失函数和帧间一致性正则损失函数,训练低照度增强网络模型并保存;利用训练好的所述去噪网络模型和所述低照度增强网络模型对测试集视频进行低照度增强;所述训练帧图像对是指将所述训练集视频V中白天正常光视频和夜间低照度视频拆分成帧{v1,v2,…,vi,…},并按帧顺序构建的图像对;所述训练帧图像对表示为{v1,v2,v2,v3,…,vi,vi+1,…},其中vi为第i帧视频帧;所述无监督去噪网络模型在视频帧基础上构建带噪-去噪图像对,训练基于U-Net结构的去噪网络模型,其中:所述带噪-去噪图像对以无监督方法获得,以所述训练集视频为基础,对于训练集中夜间低照度高噪声的视频帧{vn’1,vn’2,…,vn’i,…},通过BM3D传统降噪算法得到夜间去噪视频帧{vn1,vn2,…,vni,…},对于训练集中白天正常光低噪声的视频帧{vd1,vd2,…,vdi,…},基于OpenCV随机生成高斯噪声和泊松噪声并添加到视频帧{vd1,vd2,…,vdi,…}中得到白天带噪视频帧{vd’1,vd’2,…,Vd’i,…};将所述夜间去噪视频帧与所述白天带噪视频帧进行整合,得到所述带噪-去噪图像对{vn1,vn’1,vn2,vn’2,…,vni,vn’i,…,vd1,vd’1,vd2,vd’2,…,vdi,vd’i,…};所述去噪网络模型基于U-Net网络结构,并在网络末端加入2个1×1卷积细化输出,训练所述去噪网络模型时,将所述带噪-去噪图像对中的带噪图像作为输入、去噪图像作为监督信号计算与所述去噪网络模型输出的预测去噪图像之间的L2loss,所述L2loss为均方误差损失函数。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人深圳金三立视频科技股份有限公司,其通讯地址为:518000 广东省深圳市龙华区龙华街道清湖社区雪岗北路306号胜立工业园J栋101-5层整栋;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。