首页 > 专利 > 杭州电子科技大学 > 一种基于深度学习的集装箱角件识别方法专利详情

一种基于深度学习的集装箱角件识别方法   0    0

有效专利 查看PDF
专利申请流程有哪些步骤?
专利申请流程图
申请
申请号:指国家知识产权局受理一件专利申请时给予该专利申请的一个标示号码。唯一性原则。
申请日:提出专利申请之日。
2019-05-05
申请公布
申请公布指发明专利申请经初步审查合格后,自申请日(或优先权日)起18个月期满时的公布或根据申请人的请求提前进行的公布。
申请公布号:专利申请过程中,在尚未取得专利授权之前,国家专利局《专利公报》公开专利时的编号。
申请公布日:申请公开的日期,即在专利公报上予以公开的日期。
2019-10-22
授权
授权指对发明专利申请经实质审查没有发现驳回理由,授予发明专利权;或对实用新型或外观设计专利申请经初步审查没有发现驳回理由,授予实用新型专利权或外观设计专利权。
2021-05-07
预估到期
发明专利权的期限为二十年,实用新型专利权期限为十年,外观设计专利权期限为十五年,均自申请日起计算。专利届满后法律终止保护。
2039-05-05
基本信息
有效性 有效专利 专利类型 发明专利
申请号 CN201910367932.2 申请日 2019-05-05
公开/公告号 CN110276371B 公开/公告日 2021-05-07
授权日 2021-05-07 预估到期日 2039-05-05
申请年 2019年 公开/公告年 2021年
缴费截止日
分类号 G06K9/62G06N3/04G06F30/20G06K9/00 主分类号 G06K9/62
是否联合申请 独立申请 文献类型号 B
独权数量 1 从权数量 0
权利要求数量 1 非专利引证数量 0
引用专利数量 7 被引证专利数量 0
非专利引证
引用专利 CN106949848A、CN108564620A、CN107832767A、CN107680092A、US2017214901A1、CN109165541A、CN107687953A 被引证专利
专利权维持 3 专利申请国编码 CN
专利事件 事务标签 公开、实质审查、授权
申请人信息
申请人 第一申请人
专利权人 杭州电子科技大学 当前专利权人 杭州电子科技大学
发明人 高明煜、叶健、杨宇翔、黄继业、何志伟 第一发明人 高明煜
地址 浙江省杭州市下沙高教园区2号大街 邮编 310018
申请人数量 1 发明人数量 5
申请人所在省 浙江省 申请人所在市 浙江省杭州市
代理人信息
代理机构
专利代理机构是经省专利管理局审核,国家知识产权局批准设立,可以接受委托人的委托,在委托权限范围内以委托人的名义办理专利申请或其他专利事务的服务机构。
杭州君度专利代理事务所 代理人
专利代理师是代理他人进行专利申请和办理其他专利事务,取得一定资格的人。
杨舟涛
摘要
本发明涉及一种基于深度学习的集装箱角件识别方法。实际工业环境中需要利用叉车对集装箱角件进行固定,需要首先获得角件的空间位置信息。彩色相机与深度相机相结合的系统部署方便快捷,精度高,所以利用视觉信息来进行角件检测最广泛。利用传统的视觉算法来进行集装箱检测难以提取出有效的特征,精度较低,速度较慢。本发明通过YOLO神经网络进行特征提取,提出了一种利用神经网络与特征匹配算法进行集装箱角件检测的方法,能在不同的工作场合下得到集装箱角件坐标及集装箱角件平面与相机平面的偏移角度。
  • 摘要附图
    一种基于深度学习的集装箱角件识别方法
  • 说明书附图:[0012]
    一种基于深度学习的集装箱角件识别方法
  • 说明书附图:[0017]
    一种基于深度学习的集装箱角件识别方法
  • 说明书附图:[0029]
    一种基于深度学习的集装箱角件识别方法
  • 说明书附图:[0038]
    一种基于深度学习的集装箱角件识别方法
  • 说明书附图:[0043]
    一种基于深度学习的集装箱角件识别方法
  • 说明书附图:[0056]
    一种基于深度学习的集装箱角件识别方法
法律状态
序号 法律状态公告日 法律状态 法律状态信息
1 2021-05-07 授权
2 2019-10-22 实质审查的生效 IPC(主分类): G06K 9/62 专利申请号: 201910367932.2 申请日: 2019.05.05
3 2019-09-24 公开
权利要求
权利要求书是申请文件最核心的部分,是申请人向国家申请保护他的发明创造及划定保护范围的文件。
1.一种基于深度学习的集装箱角件识别方法,其特征在于,该方法的具体步骤是:
步骤(1)使用彩色相机获取一张集装箱所在区域的高分辨率彩色图像记为C,使用深度相机获取集装箱所在区域内的深度图记为D、强度图记为I;
步骤(2)使用YOLO‑v3神经网络检测彩色图片中的集装箱与角件;具体如下:
①将彩色图像输入训练好的YOLO‑v3神经网络中;神经网络会自动对输入图像进行特征提取,然后利用提取出的特征对目标物体在彩色图像中的坐标进行预测,最后经过对多个可能的坐标进行筛选,输出可能性最大的坐标,精确到像素;其中YOLO‑v3的检测目标为集装箱和角件,最后会输出三个结果,分别是集装箱与两个角件;
②判断网络输出是否有效;通过对两个角件的坐标是否位于集装箱坐标内来判断网络结果的正确性,只有正确才进入下一步;具体方式如下:
其中,flag表示结果是否有效,xbox_min,xbox_max,ybox_min,ybox_max分别是集装箱在彩色图中的横纵坐标范围,i,j分别是角件的横纵坐标;
步骤(3)将步骤(2)中确定的彩色图片中集装箱所在区域转换为灰度图,记为G;使用SURF算子检测灰度图G与强度图I中的关键点,并用FLANN算法匹配两张图片的描述算子,并且计算两者关键点之间的距离;根据距离的值域选择阈值,小于阈值则作为匹配的关键点;
对匹配的关键点进行透视变换,得到变换矩阵H,并在强度图中框出所有的匹配点,将这个区域认定为深度相机中集装箱的坐标,并将位于G中角件位置的关键点在I中对应的关键点作为角件的坐标;
步骤(4)根据集装箱在深度图中的位置,提取出集装箱平面的三维坐标数据;因为上一步的集装箱的深度区域并不只是角件所在平面,所以,需要对集装箱角件平面所在区域进行筛选;具体筛选步骤如下:
设两个角件的深度图坐标分别为(x1,y1)和(x2,y2),则区域内的点(m,n)应符合以下条件:
对满足以上条件的点进行建模,来获得集装箱角件平面与相机平面的夹角;具体步骤如下:
对平面建立平面模型:
Ax+By+Cz+D=0
其中A、B、C、D为平面的参数,x、y、z为平面上点的坐标值;
根据深度相机的置信度图,将每个三维坐标对应的置信度与阈值进行比较,当置信度达到要求,才将其计入计算点集中,反之则丢弃;
利用主成分分析算法求解平面法向量的参数,计算方法如下:
(a)求解平面上所有点的协方差矩阵;公式为:
T T
Σ=E(hh)‑E(h)E(hh)
(b)求解协方差矩阵的特征向量与特征值,其中最小特征值对应的特征向量就是平面对应的法向量,也就是平面方程中的参数A、B、C;
(c)将集装箱平面的三维坐标数据中的所有有效数据代入方程,求得多个D值,对D值求平均,得到一个较为准确的D;
(d)在获得了角件平面在深度相机坐标系的方程后,利用立体几何中的方法,计算出深度相机所在垂直平面与角件平面的夹角;使用公式如下:
其中,θ为两平面之间的夹角,和 分别为相机垂直于地面平面的法向量与角件平面的法向量;
利用步骤(1)‑(4),获得角件所在平面与相机平面的夹角与角件的三维坐标。
说明书

技术领域

[0001] 本发明属于计算机视觉领域,具体涉及一种基于深度学习的集装箱角件识别方法。

背景技术

[0002] 通过视觉信息进行目标物体的检测,获取目标物体在图片中的位置是计算机视觉的一个重要课题。在集装箱角件的识别当中,首要的就是识别出集装箱在图片中的位置,然后再根据集装箱在空间中的坐标,判断集装箱正面与相机平面的偏移角度,并在此基础上判断集装箱角件在空间中的坐标,所以目标检测的准确性对后续步骤有极大的影响。目前,目标检测的方法主要有:1)基于传统方法的目标检测;2)基于学习的目标检测方法。
[0003] 传统的目标检测方法都是在保证提取丰富、准确特征的前提下,快速地进行特征计算与预测。但是传统方法提取的特征基本上都是低层次、人工选择的特征。这些特征相对较为直观,容易被人类理解,但是不能很好的表达大量、多类目标,且准确率较低。
[0004] 基于学习的目标检测方法,是指利用深度学习,从数据集中学习目标物体的高层特征,这些特征具有更好的表达能力。这些方法通常是提取整张图片中的信息,不单单使用物体的一部分特征,所以相对于传统方法,基于学习的目标检测方法不仅使目标检测的精度与速度都得到很大的提升,而且具有更好的抗干扰特性,也就是鲁棒性更强。

发明内容

[0005] 本发明针对现有技术的不足,提出了一种基于深度学习的集装箱角件识别方法。
[0006] 本发明结合同场景下彩色相机的高分辨率彩色图片与深度相机采集到的深度图、强度图,利用YOLO‑v3神经网络和主成分分析法检测出集装箱角件在现实世界中的坐标,以及角件所在平面与相机所在平面的夹角。具体步骤是:
[0007] 步骤(1)使用彩色相机获取一张集装箱所在区域的高分辨率彩色图像记为C,使用深度相机获取集装箱所在区域内的深度图记为D、强度图记为I;
[0008] 步骤(2)使用YOLO‑v3神经网络检测彩色图片中的集装箱与角件;具体如下:
[0009] ①将彩色图像输入训练好的YOLO‑v3神经网络中;神经网络会自动对输入图像进行特征提取,然后利用提取出的特征对目标物体在彩色图像中的坐标进行预测,最后经过对多个可能的坐标进行筛选,输出可能性最大的坐标,精确到像素;其中YOLO‑v3的检测目标为集装箱和角件,最后会输出三个结果,分别是集装箱与两个角件;
[0010] ②判断网络输出是否有效;通过对两个角件的坐标是否位于集装箱坐标内来判断网络结果的正确性,只有正确才进入下一步;具体方式如下:
[0011]
[0012] 其中,flag表示结果是否有效,xbox_min,xbox_max,ybox_min,ybox_max分别是集装箱在彩色图中的横纵坐标范围,i,j分别是角件的横纵坐标;
[0013] 步骤(3)将彩色图片中集装箱所在区域转换为灰度图,记为G;使用SURF算子检测灰度图G与强度图I中的关键点,并用FLANN算法匹配两张图片的描述算子,并且计算两者关键点之间的距离;根据距离的值域选择阈值,小于阈值则作为匹配的关键点;对匹配的关键点进行透视变换,得到变换矩阵H,并在强度图中框出所有的匹配点,将这个区域认定为深度相机中集装箱的坐标,并将位于G中角件位置的关键点在I中对应的关键点作为角件的坐标;
[0014] 步骤(4)根据集装箱在深度图中的位置,提取出集装箱平面的三维坐标数据;因为上一步的集装箱的深度区域并不只是角件所在平面,所以,需要对集装箱角件平面所在区域进行筛选;具体筛选步骤如下:
[0015] 设两个角件的深度图坐标分别为(x1,y1)和(x2,y2),则区域内的点(m,n)应符合以下条件:
[0016]
[0017] 对满足以上条件的点进行建模,来获得集装箱角件平面与相机平面的夹角;具体步骤如下:
[0018] 对平面建立平面模型:
[0019] Ax+By+Cz+D=0
[0020] 其中A、B、C、D为平面的参数,x、y、z为平面上点的坐标值;
[0021] 根据深度相机的置信度图,将每个三维坐标对应的置信度与阈值进行比较,当置信度达到要求,才将其计入计算点集中,反之则丢弃;
[0022] 利用主成分分析算法求解平面法向量的参数,计算方法如下:
[0023] (a)求解平面上所有点的协方差矩阵;公式为:
[0024] Σ=E(hhT)‑E(h)E(hhT)
[0025] (b)求解协方差矩阵的特征向量与特征值,其中最小特征值对应的特征向量就是平面对应的法向量,也就是平面方程中的参数A、B、C;
[0026] (c)将集装箱平面的三维坐标数据中的所有有效数据代入方程,求得多个D值,对D值求平均,得到一个较为准确的D;
[0027] (d)在获得了角件平面在深度相机坐标系的方程后,利用立体几何中的方法,计算出深度相机所在垂直平面与角件平面的夹角;使用公式如下:
[0028]
[0029] 其中,θ为两平面之间的夹角, 和 分别为相机垂直于地面平面的法向量与角件平面的法向量;
[0030] 利用步骤(1)‑(4),获得角件所在平面与相机平面的夹角与角件的三维坐标。
[0031] 本发明的有益效果:本发明方法利用了神经网络强大的拟合能力,检测出目标物体在图像中的具体位置,再将目标物体的彩色图片作为样本,来找到深度图中物体的对应位置,避免了深度相机与彩色相机繁琐的转换过程,得到的集装箱角件位置准确,平面夹角估计准确。
[0032] 具体实施步骤
[0033] 步骤(1)使用彩色相机获取一张高分辨率彩色图像记为C,使用深度相机获取集装箱所在区域内的深度图记为D、强度图记为I。
[0034] 步骤(2)使用YOLO‑v3神经网络检测彩色图片中的集装箱与角件。具体如下:
[0035] ①将彩色图像输入训练好的YOLO神经网络中。神经网络会自动对输入图像进行特征提取,然后利用提取出的特征对目标物体在彩色图像中的坐标进行预测,最后经过对多个可能的坐标进行筛选,输出可能性最大的坐标,精确到像素。本发明中,YOLO的检测目标为集装箱和角件,最后会输出三个结果(分别是集装箱与两个角件)。
[0036] ②判断网络输出是否有效。通过对两个角件的坐标是否位于集装箱坐标内来判断网络结果的正确性,只有正确才进入下一步。具体方式如下:
[0037]
[0038] 其中,flag表示结果是否有效,xbox_min,xbox_max,ybox_min,ybox_max分别是集装箱在彩色图中的横纵坐标范围,i,j分别是角件的横纵坐标。
[0039] 步骤(3)将彩色图片中集装箱所在区域转换为灰度图,记为G。使用SURF算子检测灰度图G与强度图I中的关键点,并用FLANN算法匹配两张图片的描述算子,并且计算两者关键点之间的距离。根据距离的值域选择合适的阈值,阈值用来筛选匹配的关键点。对关键点进行透视变换,得到变换矩阵H,并在强度图中框中所有的匹配点,将这个区域认定为深度相机中集装箱的坐标,并将位于G中角件位置的关键点在I中对应的关键点作为角件的坐标。
[0040] 步骤(4)根据集装箱在深度图中的位置,提取出集装箱平面的三维坐标数据(点云)。因为上一步的集装箱的深度区域并不只是角件所在平面,所以,需要对集装箱角件平面所在区域进行筛选。具体筛选步骤如下:
[0041] 设两个角件的深度图坐标分别为(x1,y1)和(x2,y2),则区域内的点(m,n)应符合以下条件:
[0042]
[0043] 对满足以上条件的点进行建模,来获得集装箱角件平面与相机平面的夹角。具体步骤如下:
[0044] 对平面建立平面模型:
[0045] Ax+By+Cz+D=0
[0046] 其中A、B、C、D为平面的参数,x、y、z为平面上点的坐标值。
[0047] 利用主成分分析算法求解平面法向量的参数,计算方法如下:
[0048] (a)求解平面上所有点的协方差矩阵。公式为:
[0049] Σ=E(xxT)‑E(x)E(xT)
[0050] (b)求解协方差矩阵的特征向量与特征值,其中最小特征值对应的特征向量就是平面对应的法向量,也就是平面方程中的参数A、B、C。
[0051] (c)将点云中的所有有效数据代入方程,求得多个D值,对D值求平均,得到一个较为准确的D。
[0052] 通过主成分分析算法,可以得到一个较为准确的平面方程,但是,因为深度相机采集到的数据存在大量噪声,对平面方程准确性存在较大影响,需要对原始数据进行预处理。具体方法为:
[0053] 根据深度相机的置信度图,将每个三维坐标对应的置信度与阈值进行比较,当置信度达到要求,才将其计入计算点集中,反之则丢弃。
[0054] (d)在获得了平面在深度相机坐标系的方程后,利用立体几何中的方法,计算出深度相机所在垂直平面与角件平面的夹角。使用公式如下:
[0055]
[0056] 其中,θ为两平面之间的夹角,和 分别为相机垂直于地面平面的法向量与角件平面的法向量。
[0057] 利用以上4个步骤,可以获得角件所在平面与相机平面的夹角与角件的三维坐标。
专利联系人(活跃度排行)
版权所有:盲专网 ©2023 zlpt.xyz  蜀ICP备2023003576号