买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
申请/专利权人:武汉科技大学
摘要:本发明公开了一种基于在线学习的OL‑YoloV5船舶检测方法,包括步骤:S1、获取目标船舶数据并对获取到的目标船舶数据的基类样本数据集进行预处理;S2、基于应用环境预设船舶检测模型的训练参数;S3、基于步骤S2预设的船舶检测模型的训练参数,对步骤S1处理后的基类样本数据集进行训练,创建YoloV5船舶检测模型;S4、通过在线学习方法对步骤S3建立的YoloV5船舶检测模型进行修改,不断地学习新船舶样本特征,得到OL‑YoloV5船舶检测模型。本发明解决了只需采集少量的新船舶样本数据集,就能对新旧船舶数据集有着很好的检测效果,有效的缓解了难以采集海上船舶数据集的难点问题。
主权项:1.一种基于在线学习的OL-YoloV5船舶检测方法,其特征在于,包括步骤:S1、获取目标船舶数据并对获取到的目标船舶数据的基类样本数据集进行预处理;步骤S1具体包括:S11、实地采集船舶数据,通过多机位拍摄图像和视频,得到实地船舶数据集;S12、筛选网络上公开的船舶数据集,得到网络船舶数据集;S13、分别从实地船舶数据集和网络船舶数据集中筛选出部分数据集,按照M:N的比例混合,其中,M<N;S14、对步骤S13混合的数据集进行数据增强;S2、基于应用环境预设船舶检测模型的训练参数;S3、基于步骤S2预设的船舶检测模型的训练参数,对步骤S1处理后的基类样本数据集进行训练,创建YoloV5船舶检测模型;具体包括:S31、基于YoloV5目标检测算法建立YoloV5船舶检测模型;S32、将YoloV5船舶检测模型的多尺度特征融合方法PANeT结构改为BiFPN结构;S33、在YoloV5目标检测算法中添加CA注意力机制模块;步骤S31中,YoloV5船舶检测模型包括Backbone结构、Neck结构和Head结构,输入图像经过图像增强后进入到Backbone结构中,所述Backbone结构和Neck结构用于对图像不断的进行卷积操作以提取图像特征,得到的图像特征再进入到Head结构中进行分类预测;所述Backbone结构包括Conv模块、C3模块和SPPF模块,所述Conv模块用于进行卷积操作以提取图像特征,Conv模块的k=6,s=2,p=2,所述C3模块为具有3次卷积的CSPBottleneck模块,用于增强算法的学习能力并且在保持算法检测精度的同时实现轻量化,所述SPPF模块用于提高图像的尺度不变性、增加主干特征的接收范围;所述Neck结构采用FPN和PAN结合的结构,所述FPN用于实现语义信息从深层特征图到浅层特征图的传递,PAN用于实现定位信息从浅层特征层到深层特征层的传递,FPN与PAN的结合用于从不同的主干层对不同的检测层进行参数聚合从而加强网络的特征;所述Head结构包括三个Detect,Head结构的边界框回归损失函数采用CIOU_Loss,Detect采用Sigmoid激活函数;步骤S32中,BiFPN结构针对融合的各个尺度特征增加一个权重,调节每个尺度的贡献度,对权重进行融合,融合使用的方法为快速归一化融合方法,表达式为: 式中,mi和mj是学习的权重,用于表示标量、向量或多维张量,其中,2i8,2j8;Ii是每一层网络输入的参数;∈=0.0001是避免数值不稳定的小数值;多尺度特征融合用于对不同分辨率下的特征进行聚合,BiFPN结构的计算表达式为: 式中,Resize表示下采样或上采样操作;mi是每层学习到的权重参数,用于区分特征融合过程中不同特征的重要程度;是自上而下路径上第4级的中间特征,共有两个输入,分别是和其中,和分别为自下而上路径上第4级和第5级的输入特征;是自下而上路径上第4级的输出特征,共有三个输入,分别是和其中,是自下而上路径上第3级的输出特征;步骤S33中,在YoloV5目标检测算法中添加CA注意力机制模块具体包括:S331、在YoloV5船舶检测模型的Head结构中的三个Detect结构与Neck结构之间添加三个CA注意力机制模块,其中,三个Detect结构分别对图中的小尺寸、中尺寸和大尺寸进行提取特征;S332、Neck结构的Conv层输出的中间张量为O=[o1,o2,…,oc]∈RC×H×W,作为CA注意力机制模块的输入,其中,Conv层的k=1、s=1,o1,o2,…,oc为每层网络的参数,C、H、W分别为图像的通道数、高度、宽度;S333、在输入图像时,对输入的中间张量O,先使用尺寸H,1和1,W的池化核沿水平坐标方向和竖直坐标方向对每个通道进行编码,故,高度为H的第c个通道的输出表述如下: 同理,宽度为W的第c个通道的输出表述如下: S334、通过步骤S333中沿水平坐标方向和竖直坐标方向两个空间方向进行特征聚合,返回一对方向感知注意力图;S335、级联步骤S334中生成的一对方向感知注意力图,然后使用一个共享的1×1卷积进行变换F1,表述如式6,生成的f∈RCr×H+W是对空间信息在水平方向和竖直方向的中间特征图,这里的r表示下采样比例;F=δF1[zH,zW]6接着沿着空间维度将f切分为两个单独的张量,即fh∈RCr×H和fw∈RCr×W,fh和fw分别为沿着H和W方向的张量,再利用两个1×1卷积Fh和Fw将特征图fh和fw使用激活函数σ变换到与输入图像同样的通道数,其中Fh和Fw分别为沿着H和W两个方向的卷积变换,得到下式的结果;gh=σFhfh7gw=σFwfw8最后,对gh和gw进行拓展作为注意力权重,其中gh和gw分别为fh和fw经过卷积变换再经过激活后的结果,CA注意力机制模块的最终输出表述如下式: 式中,ocv,n表示输入图像在c通道沿着水平坐标方向和竖直坐标方向进行编码,和表示为在c通道对ocv,n产生的结果沿着H和W方向进行卷积变换再经过激活函数,ycv,n为中间张量O经过上述变换转换后的结果;S4、通过在线学习方法对步骤S3建立的YoloV5船舶检测模型进行修改,不断地学习新船舶样本特征,得到OL-YoloV5船舶检测模型;步骤S4具体包括:S41、在第一阶段中,向YoloV5船舶检测模型中输入数据,经过训练后得到YoloV5船舶检测模型的权重;S42、将第一阶段的YoloV5船舶检测模型中的特征提取层冻结,再将步骤S41得到的YoloV5船舶检测模型的权重对第二阶段的YoloV5船舶检测模型进行初始化,得到OL-YoloV5船舶检测模型。
全文数据:
权利要求:
百度查询: 武汉科技大学 一种基于在线学习的OL-YoloV5船舶检测方法
免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。