Document
拖动滑块完成拼图
首页 专利交易 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

一种能够感知结构与细节的喉部图像增强方法 

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

申请/专利权人:西安邮电大学

摘要:本发明为一种能够感知结构与细节的喉部图像增强方法,其克服了现有技术中存在的传统的图像增强方法,往往需要人工设计规则和参数,建模难度大的问题。本发明将喉部白光图像的增强建模为无监督条件下的图像转换问题,在保留喉部结构不变的同时,凸显图中的血管信息,并且得到质量较好的图像。本发明包括以下步骤:1准备喉部白光图像与窄带图像数据集;2构建改进后的循环一致性网络架构;3提出基于上述架构的PISDGAN方法;4在方法中引入组合多项损失的优化函数。

主权项:1.一种能够感知结构与细节的喉部图像增强方法,其特征在于:包括以下步骤:1准备喉部白光图像与窄带图像数据集;2构建改进后的循环一致性网络架构;3提出基于上述架构的PISDGAN方法;4在方法中引入组合多项损失的优化函数;步骤3包括以下步骤:3.1:数据预处理:将数据集中的图像分辨率统一为256×256,通过随机翻转,固定角度旋转实现数据增强,最终拆分成R、G、B通道,送入到网络架构中进行训练;3.2:在生成器G、F中嵌入跨层自适应模块,具体为:3.2.1:设计跨层自适应模块CLA,融合深层特征的语义信息与浅层特征的空间信息,表示为: 其中,xs表示网络的浅层特征,xd表示网络的深层特征,σ,μ表示特征的均值与标准差;3.2.2:嵌入跨层自适应模块,具体为:在编解码阶段的同尺度残差块之间,以横向连接的方式嵌入跨层自适应模块CLA,其输入为编码阶段相邻的残差块的输出,其输出与解码阶段的相应尺度残差块的输入进行加操作;3.3:在生成器中引入特征降噪模块FD,具体为:3.3.1:引入特征降噪模块FD,具体为:降噪模块采用Non-local形式,计算全局任意两个特征点之间的关系,通过残差链接和1×1卷积实现特征组合,表示为: 其中,fxi,xj是计算特征依赖关系的加权函数,Cx是标准化函数;3.3.2:嵌入特征降噪模块,具体为:在生成器中最深层的跨层自适应模块之后,嵌入特征降噪模块,消除特征融合带来的噪声信号;步骤4包括以下步骤:4.1:对抗损失,生成器和鉴别器采用对抗博弈的方式,通过分别训练的方式,提升生成器的特征提取能力和鉴别器的判别能力,最终使生成器达到满意的转换效果,表示为:minGmaxDLadvG,D=Ey∈NBI[logDy]+Ex∈WLI[log1-DGx]其中,G为生成器,D为鉴别器,x为网络输入的图像,y为生成器的转换结果;4.2:循环一致性损失,约束经生成器转换得到的图像经过反向生成器得到的重建图像与原始的输入图像尽可能一致,来确保输入X域图像能够映射到Y域特定的图像,其定义为: 其中,G为实现增强效果的生成器,F为相反方向的生成器;4.3:本体映射损失,确保目标域图像在经过生成器转换后,得到的仍然是图像本身,不会产生额外的偏移,其定义为: 4.4:结构差异损失,保证输入图像和增强图像之间的结构一致性,其定义为: 其中,w表示单幅图像块的总数,σxi表示图像x的第i个图像块的标准差,σGxi表示经G转换后图像对应块的标准差,σxi,Gxi表示两幅图像块之间的协方差,C是为了避免分母为0引入的常数项;4.5:设计并引入优化函数,具体为:综合上述对抗损失、循环一致性损失、本体映射损失以及结构差异损失,并为不同的损失赋以不同的权重,在训练时,作为本方法的优化函数,其表示为: 步骤2包括以下步骤:2.1:构建改进后的循环一致性网络架构,具体为:2.1.1:该架构包含有成对生成器G、F和鉴别器D;生成器G、F分别学习白光图像到窄带图像的映射关系和窄带图像到白光图像的映射关系;鉴别器D参考真实的窄带图像判别增强后的白光图像的真实性;2.2:生成器部分采用U型残差网络结构,其编解码阶段均采用残差块连接的方式,并在其中应用横向连接的方式,将编码阶段得到的不同尺度特征,传递至相应的解码阶段,获得多层次的空间语义特征;2.2.1:生成器的残差块由两层的InstanceNormlization层、ReLu层、以及padding=1的Conv层组成,并与该残差块的输入相加,以充分保留原始图像的特征;2.3:鉴别器部分由5个卷积层构成,前4个卷积层完成提取特征,最后一个卷积层实现图像真假的判断。

全文数据:

权利要求:

百度查询: 西安邮电大学 一种能够感知结构与细节的喉部图像增强方法

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。