首页 > 专利 > 杭州电子科技大学 > 一种密集子区域切割的遥感图像旋转舰船目标检测方法专利详情

一种密集子区域切割的遥感图像旋转舰船目标检测方法   0    0

有效专利 查看PDF
专利申请流程有哪些步骤?
专利申请流程图
申请
申请号:指国家知识产权局受理一件专利申请时给予该专利申请的一个标示号码。唯一性原则。
申请日:提出专利申请之日。
2019-08-30
申请公布
申请公布指发明专利申请经初步审查合格后,自申请日(或优先权日)起18个月期满时的公布或根据申请人的请求提前进行的公布。
申请公布号:专利申请过程中,在尚未取得专利授权之前,国家专利局《专利公报》公开专利时的编号。
申请公布日:申请公开的日期,即在专利公报上予以公开的日期。
2020-02-11
授权
授权指对发明专利申请经实质审查没有发现驳回理由,授予发明专利权;或对实用新型或外观设计专利申请经初步审查没有发现驳回理由,授予实用新型专利权或外观设计专利权。
2021-12-07
预估到期
发明专利权的期限为二十年,实用新型专利权期限为十年,外观设计专利权期限为十五年,均自申请日起计算。专利届满后法律终止保护。
2039-08-30
基本信息
有效性 有效专利 专利类型 发明专利
申请号 CN201910816272.1 申请日 2019-08-30
公开/公告号 CN110674698B 公开/公告日 2021-12-07
授权日 2021-12-07 预估到期日 2039-08-30
申请年 2019年 公开/公告年 2021年
缴费截止日
分类号 G06K9/00G06K9/34G06K9/62G06N3/04G06N3/08 主分类号 G06K9/00
是否联合申请 独立申请 文献类型号 B
独权数量 1 从权数量 0
权利要求数量 1 非专利引证数量 1
引用专利数量 1 被引证专利数量 0
非专利引证 1、2017.12.07张刚等.基于区域特征分割的密集匹配点云渐进形态学滤波《.地球信息科学学报》.2019,第21卷(第4期),第615-622页. Mingchen Gao等.Segmentation labelpropagation using deep convolutionalneural networks and dense conditionalrandom field《.IEEE》.2016,第1265-1268页.;
引用专利 US2017353670A 被引证专利
专利权维持 3 专利申请国编码 CN
专利事件 事务标签 公开、实质审查、授权
申请人信息
申请人 第一申请人
专利权人 杭州电子科技大学 当前专利权人 杭州电子科技大学
发明人 陈华杰、吴栋、侯新雨、韦玉谭 第一发明人 陈华杰
地址 浙江省杭州市下沙高教园区2号大街 邮编 310018
申请人数量 1 发明人数量 4
申请人所在省 浙江省 申请人所在市 浙江省杭州市
代理人信息
代理机构
专利代理机构是经省专利管理局审核,国家知识产权局批准设立,可以接受委托人的委托,在委托权限范围内以委托人的名义办理专利申请或其他专利事务的服务机构。
杭州君度专利代理事务所 代理人
专利代理师是代理他人进行专利申请和办理其他专利事务,取得一定资格的人。
杨舟涛
摘要
本发明公开了一种密集子区域切割的遥感图像旋转舰船目标检测方法,在于对训练集目标进行预处理,根据图像标注工具获取的训练集目标信息,将目标切割成密集的子区域,获取到子目标信息,经YOLO V3训练后获取训练权重文件,并根据权重文件预测目标的密集子区域的中心点,宽和高的信息。通过对密集子区域中心点坐标数据的拟合得到函数关系并计算出预测目标的中心点坐标和角度,在结合密集子目标的宽和高的信息计算出预测目标的宽度和高度,完成对密集子区域的信息的后处理,提取到预测目标的中心点、宽、高、角度的信息,完成对具有角度等特殊目标的检测。
  • 摘要附图
    一种密集子区域切割的遥感图像旋转舰船目标检测方法
  • 说明书附图:图1
    一种密集子区域切割的遥感图像旋转舰船目标检测方法
法律状态
序号 法律状态公告日 法律状态 法律状态信息
1 2021-12-07 授权
2 2020-02-11 实质审查的生效 IPC(主分类): G06K 9/00 专利申请号: 201910816272.1 申请日: 2019.08.30
3 2020-01-10 公开
权利要求
权利要求书是申请文件最核心的部分,是申请人向国家申请保护他的发明创造及划定保护范围的文件。
1.一种密集子区域切割的遥感图像旋转舰船目标检测方法,其特征在于,该方法具体包括以下步骤:
步骤(1)、训练集数据预处理;
利用图像标注工具对图像中待检测的目标进行标注,获取到图像中目标的中心点坐标(x,y)、目标的宽w和高h,目标的角度信息angle;根据设置的切割步长step和目标的高度h,确定目标切割为子目标的个数n;根据目标的中心点坐标和目标的宽及高计算出目标的四个顶点的坐标(xR,yH),(xL,yH),(xL,yL),(xR,yL);根据子目标的个数n得到相邻子目标的间隔(dcx,dcy);根据间隔大小和顶点位置得到第i个子目标的中心点坐标(xi,yi),其中0其中:n=h/step+1
h_vec=[h·cos(angle)/2,h·sin(angle)/2]
w_vec=[w/2·cos(3π/2+angle),w/2·sin(3π/2+angle)]
dcx=(xL‑xR)/n
dcy=(yL‑yH)/n
xi=xR+dcx·(0.5+i)
yi=yH+dcx·(0.5+i)
步骤(2)、使用YOLO V3算法对预处理后的训练集进行训练;
根据密集子目标的标注框的高度和宽度,利用K‑近邻聚类方法对子目标的标注框进行聚类后分为9类,获取9类框的大小,以此来设置YOLO V3锚点框参数;提取密集子目标的中心点信息、高度、宽度,放入YOLO V3进行训练,训练直到损失函数不再降低,获取权重文件;
步骤(3)、使用YOLO V3对测试集进行预测;
利用步骤(2)中得到的权重文件,对测试集图像进行测试;对于每一张图片进行预测后,获取所有预测的子目标的中心点坐标(xc*,yc*),高度h*,宽度w*;
步骤(4)、预测子目标数据的后处理;
根据步骤(3)中每一幅图片中所有预测的子目标的中心点进行多项式拟合,得到中心点坐标的函数关系,由函数获取到拟合直线的角度angle_θ;根据所有预测的子目标的中心点坐标取最大坐标(xc*max,yc*max)最小坐标(xc*min,yc*min)和的平均值为预测目标的中心点坐标(xc,yc);根据所有预测的子目标的中心点坐标取最大坐标(xc*max,yc*max)最小坐标(xc*min,yc*min)利用勾股定理计算出预测目标的高度;根据获取到的所有预测的子目标的宽度w*的平均值w*mean,利用角度angle_θ,并根据三角函数求出目标宽度wc;由此获得预测目标的中心点(xc,yc),高度hc,宽度wc,角度angle_θ信息,根据信息在预测图片中画出预测框完成预测;
其中:xc=(xc*max+xc*min)/2
yc=(yc*max+yc*min)/2
wc=max(w*meangcos(angle_θ),w*meangsin(angle_θ))。
说明书

技术领域

[0001] 本发明属于深度学习领域,涉及一种密集子区域切割的遥感图像旋转舰船目标检测方法一种密集子区域切割的图像检测方法。

背景技术

[0002] 目前,目标检测已被广泛应用于军事和民用等领域中。深度卷积神经网络可以利用目标数据集对要检测的目标进行自主学习,并完善自己的模型。YOLO V3是一种单步目标检测算法,此算法不需要使用区域候选网络(RPN)来提取候选目标信息,而是直接通过网络来产生目标的位置和类别信息,是一种端到端的目标检测算法。因此,单步目标检测算法具有更快的检测速度。
[0003] YOLO V3模型是采用分网格直接回归目标坐标和分类目标的方法进行目标检测,主要利用水平矩形边界框定义目标位置,通过边界框参数的回归对目标进行定位。这种方法对于目标对象是人,车等目标是足够准确的,而对于目标对象是文本,舰船,道路等具有角度或弧度等特殊目标是不适合的。

发明内容

[0004] 本发明针对现有技术的不足,提供了一种基于YOLO V3的密集子区域切割目标的检测方法,该方法通过对训练集目标进行密集子区域切割的方法来获取到密集的子目标,使用YOLO V3算法训练集进行训练,在测试集中获取到所有子目标的中心位置和宽高,对所有获得到的中心点坐标进行拟合,完成待测图像的目标检测。
[0005] 步骤(1)、训练集数据预处理。
[0006] 利用图像标注工具对图像中待检测的目标进行标注,获取到图像中目标的中心点坐标(x,y)、目标的宽w和高h,目标的角度信息angle。根据设置的切割步长step和目标的高度h,确定目标切割为子目标的个数n;根据目标的中心点坐标和目标的宽及高计算出目标的四个顶点的坐标(x1,y1),(x2,y2),(x3,y3),(x4,y4);根据子目标的个数n得到相邻子目标的间隔(dcx,dcy);根据间隔大小和顶点位置得到第i个子目标的中心点坐标(xi,yi),其中0<i<n;根据子目标的中心点坐标,并以目标的宽度w作为子目标的宽度来确定切割的子目标的位置信息;根据子目标的位置信息对目标进行切割,获取密集子目标。
[0007] 其中:n=h/step+1
[0008] h_vec=[h·cos(angle)/2,h·sin(angle)/2]
[0009] w_vec=[w/2·cos(3π/2+angle),w/2·sin(3π/2+angle)]
[0010]
[0011] dcx=(x3‑x1)/n
[0012] dcy=(y3‑y1)/n
[0013] xi=x1+dcx·(0.5+i)
[0014] yi=x1+dcx·(0.5+i)
[0015] 步骤(2)、使用YOLO V3算法对预处理后的训练集进行训练。
[0016] 根据密集子目标的标注框的高度和宽度,利用K‑近邻聚类方法对子目标的标注框进行聚类后分为9类,获取9类框的大小,以此来设置YOLO V3锚点框参数。提取密集子目标的中心点信息、高度、宽度,放入YOLO V3进行训练,训练直到损失函数不再降低,获取权重文件。
[0017] 步骤(3)、使用YOLO V3对测试集进行预测。
[0018] 利用步骤(2)中得到的权重文件,对测试集图像进行测试。对于每一张图片进行预测后,获取所有预测的子目标的中心点坐标(xc*,yc*),高度h*,宽度w*。
[0019] 步骤(4)、预测子目标数据的后处理。
[0020] 根据步骤(3)中每一幅图片中所有预测的子目标的中心点进行多项式拟合,得到中心点坐标的函数关系,由函数获取到拟合直线的角度angle_θ;根据所有预测的子目标的中心点坐标取最大坐标(xc*max,yc*max)最小坐标(xc*min,yc*min)和的平均值为预测目标的中心点坐标(xc,yc);根据所有预测的子目标的中心点坐标取最大坐标(xc*max,yc*max)最小坐标(xc*min,yc*min)利用勾股定理计算出预测目标的高度;根据获取到的所有预测的子目标的宽度w*的平均值w*mean,利用角度angle_θ,并根据三角函数求出目标宽度wc。由此获得预测目标的中心点(xc,yc),高度hc,宽度wc,角度angle_θ信息,根据信息在预测图片中画出预测框完成预测。
[0021] 其中:xc=(xc*max+xc*min)/2
[0022] yc=(yc*max+yc*min)/2
[0023]
[0024] wc=max(w*meangcos(angle_θ),w*meangsin(angle_θ))。
[0025] 本发明的有益效果如下:本发明的关键在于对训练集目标进行预处理,将一个目标切割成密集的子区域,经YOLO V3训练后获取预测目标的密集子区域的中心点,宽和高的信息。通过对密集子区域的信息的后处理,提取到预测目标的中心点、宽、高、角度的信息,完成对具有角度等特殊目标的检测。

实施方案

[0027] 下面结合具体实施例对本发明做进一步的分析。
[0028] 本实验将一组采集的舰船目标图像划分为训练集和测试集。如图1所示,在基于YOLO V3的旋转目标检测任务中的具体步骤如下:
[0029] 步骤(1)、训练集数据预处理。
[0030] 利用图像标注工具对图像中待检测的目标进行标注,获取到图像中目标的中心点坐标(x,y)、目标的宽w和高h,目标的角度信息angle。根据设置的切割步长step和目标的高度h,确定目标切割为子目标的个数n;根据目标的中心点坐标和目标的宽及高计算出目标的四个顶点的坐标(x1,y1),(x2,y2),(x3,y3),(x4,y4);根据子目标的个数n得到相邻子目标的间隔(dcx,dcy);根据间隔大小和顶点位置得到第i个子目标的中心点坐标(xi,yi),其中0<i<n;根据子目标的中心点坐标,并以目标的宽度w作为子目标的宽度来确定切割的子目标的位置信息;根据子目标的位置信息对目标进行切割,获取密集子目标。
[0031] 其中:n=h/step+1
[0032] h_vec=[h·cos(angle)/2,h·sin(angle)/2]
[0033] w_vec=[w/2·cos(3π/2+angle),w/2·sin(3π/2+angle)]
[0034]
[0035] dcx=(x3‑x1)/n
[0036] dcy=(y3‑y1)/n
[0037] xi=x1+dcx·(0.5+i)
[0038] yi=x1+dcx·(0.5+i)
[0039] 步骤(2)、使用YOLO V3算法对预处理后的训练集进行训练。
[0040] 根据密集子目标的标注框的高度和宽度,利用K‑近邻聚类方法对子目标的标注框进行聚类后分为9类,获取9类框的大小,以此来设置YOLO V3锚点框参数。提取密集子目标的中心点信息、高度、宽度,放入YOLO V3进行训练,训练直到损失函数不再降低,获取权重文件。
[0041] 步骤(3)、使用YOLO V3对测试集进行预测。
[0042] 利用步骤(2)中得到的权重文件,对测试集图像进行测试。对于每一张图片进行预测后,获取所有预测的子目标的中心点坐标(xc*,yc*),高度h*,宽度w*。
[0043] 步骤(4)、预测子目标数据的后处理。
[0044] 根据步骤(3)中每一幅图片中所有预测的子目标的中心点进行多项式拟合,得到中心点坐标的函数关系,由函数获取到拟合直线的角度angle_θ;根据所有预测的子目标的中心点坐标取最大坐标(xc*max,yc*max)最小坐标(xc*min,yc*min)和的平均值为预测目标的中心点坐标(xc,yc);根据所有预测的子目标的中心点坐标取最大坐标(xc*max,yc*max)最小坐标(xc*min,yc*min)利用勾股定理计算出预测目标的高度;根据获取到的所有预测的子目标的宽度w*的平均值w*mean,利用角度angle_θ,并根据三角函数求出目标宽度wc。由此获得预测目标的中心点(xc,yc),高度hc,宽度wc,角度angle_θ信息,根据信息在预测图片中画出预测框完成预测。
[0045] 其中:xc=(xc*max+xc*min)/2
[0046] yc=(yc*max+yc*min)/2
[0047]
[0048] wc=max(w*meangcos(angle_θ),w*meangsin(angle_θ))。
[0049] 上述实施例并非是对于本发明的限制,本发明并非仅限于上述实施例,只要符合本发明要求,均属于本发明的保护范围。

附图说明

[0026] 图1为本发明的流程图。
版权所有:盲专网 ©2023 zlpt.xyz  蜀ICP备2023003576号