首页 > 专利 > 杭州电子科技大学 > 一种基于双目多维感知特性的立体视频显著性检测方法专利详情

一种基于双目多维感知特性的立体视频显著性检测方法   0    0

有效专利 查看PDF
专利申请流程有哪些步骤?
专利申请流程图
申请
申请号:指国家知识产权局受理一件专利申请时给予该专利申请的一个标示号码。唯一性原则。
申请日:提出专利申请之日。
2016-05-26
申请公布
申请公布指发明专利申请经初步审查合格后,自申请日(或优先权日)起18个月期满时的公布或根据申请人的请求提前进行的公布。
申请公布号:专利申请过程中,在尚未取得专利授权之前,国家专利局《专利公报》公开专利时的编号。
申请公布日:申请公开的日期,即在专利公报上予以公开的日期。
2016-09-21
授权
授权指对发明专利申请经实质审查没有发现驳回理由,授予发明专利权;或对实用新型或外观设计专利申请经初步审查没有发现驳回理由,授予实用新型专利权或外观设计专利权。
2017-10-27
预估到期
发明专利权的期限为二十年,实用新型专利权期限为十年,外观设计专利权期限为十五年,均自申请日起计算。专利届满后法律终止保护。
2036-05-26
基本信息
有效性 有效专利 专利类型 发明专利
申请号 CN201610363021.9 申请日 2016-05-26
公开/公告号 CN105898278B 公开/公告日 2017-10-27
授权日 2017-10-27 预估到期日 2036-05-26
申请年 2016年 公开/公告年 2017年
缴费截止日
分类号 H04N13/00H04N13/04H04N17/00 主分类号 H04N13/00
是否联合申请 独立申请 文献类型号 B
独权数量 1 从权数量 0
权利要求数量 1 非专利引证数量 1
引用专利数量 3 被引证专利数量 0
非专利引证 1、全文. 钱晓亮 等.视觉显著性检测:一种融合长期和短期特征的信息论算法《.电子与信息学报》.2013,全文. 张颖颖.融合对比度和分布特性的图像显著性区域检测《.光学精密工程》.2014,全文.;
引用专利 CN104243956A、CN104463890A、CN105488812A 被引证专利
专利权维持 2 专利申请国编码 CN
专利事件 事务标签 公开、实质审查、授权
申请人信息
申请人 第一申请人
专利权人 杭州电子科技大学 当前专利权人 杭州电子科技大学
发明人 周洋、何永健、唐杰、张嵩 第一发明人 周洋
地址 浙江省杭州市下沙高教园区2号大街 邮编
申请人数量 1 发明人数量 4
申请人所在省 浙江省 申请人所在市 浙江省杭州市
代理人信息
代理机构
专利代理机构是经省专利管理局审核,国家知识产权局批准设立,可以接受委托人的委托,在委托权限范围内以委托人的名义办理专利申请或其他专利事务的服务机构。
杭州君度专利代理事务所 代理人
专利代理师是代理他人进行专利申请和办理其他专利事务,取得一定资格的人。
杜军
摘要
本发明涉及一种基于双目多维感知特性的立体视频显著性检测方法。传统模型方法无法有效的检测出立体视频的显著区域。本发明方法包括显著特征提取和显著特征融合。显著特征提取是从立体视频的空间、深度以及运动三个不同维度的视图信息分别进行显著性计算,包括二维静态显著区域检测、深度显著区域检测、运动显著区域检测。显著特征融合是将已获取的三种不同维度的显著特征图采取全局非线性归一化的融合策略进行融合,进而获取立体视频显著区域。本发明方法计算复杂度低,获取的立体视频显著图质量高,可以直接应用在3D视频压缩,3D质量评估以及物体识别和追踪等工程领域中。
  • 摘要附图
    一种基于双目多维感知特性的立体视频显著性检测方法
  • 说明书附图:图1
    一种基于双目多维感知特性的立体视频显著性检测方法
  • 说明书附图:图2
    一种基于双目多维感知特性的立体视频显著性检测方法
  • 说明书附图:图3
    一种基于双目多维感知特性的立体视频显著性检测方法
  • 说明书附图:图4
    一种基于双目多维感知特性的立体视频显著性检测方法
  • 说明书附图:图5
    一种基于双目多维感知特性的立体视频显著性检测方法
  • 说明书附图:图6
    一种基于双目多维感知特性的立体视频显著性检测方法
  • 说明书附图:图7
    一种基于双目多维感知特性的立体视频显著性检测方法
  • 说明书附图:图8
    一种基于双目多维感知特性的立体视频显著性检测方法
  • 说明书附图:图9
    一种基于双目多维感知特性的立体视频显著性检测方法
  • 说明书附图:图10
    一种基于双目多维感知特性的立体视频显著性检测方法
  • 说明书附图:图11
    一种基于双目多维感知特性的立体视频显著性检测方法
  • 说明书附图:图12
    一种基于双目多维感知特性的立体视频显著性检测方法
  • 说明书附图:图13
    一种基于双目多维感知特性的立体视频显著性检测方法
法律状态
序号 法律状态公告日 法律状态 法律状态信息
1 2017-10-27 授权
2 2016-09-21 实质审查的生效 IPC(主分类): H04N 13/00 专利申请号: 201610363021.9 申请日: 2016.05.26
3 2016-08-24 公开
权利要求
权利要求书是申请文件最核心的部分,是申请人向国家申请保护他的发明创造及划定保护范围的文件。
1.一种基于双目多维感知特性的立体视频显著性检测方法,包括显著特征提取和显著特征融合,其特征在于:
所述的显著特征提取是从立体视频的空间、深度以及运动三个不同维度的视图信息分别进行显著性计算,具体包括三部分:二维静态显著区域检测、深度显著区域检测、运动显著区域检测;其中:
二维静态显著区域检测:根据Bayesian模型计算单张彩色图像的空间特征的显著性,检测出彩色图像的二维静态显著区域,具体是:
通过计算单点的感兴趣概率的方法来估计物体的显著程度SZ:
式中z表示图像中的某个像素点,p表示相应的概率值,随机变量F表示一个点像素的视觉特征值,随机变量L表示一个像素点的坐标位置;二元随机变量C表示该点像素是否为目标像素,C=1表示为目标像素,C≠1表示不是目标像素;fz和lz分别表示注视在z点时的视觉特征值以及相应的像素坐标位置;假设在C=1的情况下,该点的视觉特征与空间位置是相互独立的,即有:
为了在一张图像中方便比较该点的显著概率,将上式进行对数化:
logsz=-logp(F=fz)+logp(F=fz|C=1)+logp(C=1|L=lz);
式中第一项-logp(F=fz)表示该像素点特征的自信息量,只依赖于z的视觉特征,独立于任何先验信息;第二项logp(F=fz|C=1)表示对数似然函数项,用来表示目标的先验信息;第三项logp(C=1|L=lz)表示独立于视觉特性,反映目标可能出现位置的先验信息;将上式简化为:logSz=-logp(F=fz),通过计算图像各像素点的显著程度SZ获取二维静态显著图SMimage;
深度显著区域检测的具体步骤是:
①采用DERS软件根据输入的第k帧左视点图和右视点图计算出该帧的视差图,其中视差值d∈[0,255];
②根据视差图中的最大视差值dmax和最小视差值dmin将视差值归一化到[0,1]区间;如果某像素点的视差值接近dmax则赋予大的视差值,相反接近dmin则赋予小的视差值,给前景物体与背景物体赋予不同的显著性得到深度前景图Dforeground,其中前景物体相对于背景物体更为显著;
③利用高斯差分滤波器提取重要的深度感知特征—深度对比度DoG(x,y),实现公式下:
其中(x,y)代表滤波器位置,σ和K分别用来控制滤波器的尺度和高斯核的半径比,将经DoG滤波后的深度图作为深度对比度图Dconstrast;
④将获取的深度前景图Dforeground和深度对比度图Dconstrast进行线性加权融合,获取深度显著图SMdepth:
SMdepth=ω1Dforeground+ω2Dconstrast;
其中:ω1和ω2分别为Dforeground和Dconstrast的权重;
运动显著区域检测:根据当前帧的二维静态显著图SMimage和深度显著图SMdepth中的显著区域采用光流法提取相邻帧间运动矢量,获取运动显著图SMmotion,具体步骤是:
a.对二维静态显著图SMimage和深度显著图SMdepth进行二值化:
式中,Timage和Tdepth分别为SMimage和SMdepth的二值化处理的门限值,最佳门限值通过大津算法获取,SM′image和SM′depth为经过二值化处理后的显著图,其中显著区域的像素值为1,不显著区域的像素值为0;然后将SM′image和SM′depth代入下式中来确定当前帧图像的光流计算区域S′(x,y):
式中S(x,y)表示当前帧原视图中像素点(x,y)处的灰度值;
b.根据划分的显著区域利用Lucas-Kanade微分光流算法计算相邻帧的运动;假设连续时间内像素点的灰度值恒定不变,特征点邻域内做相似运动,对显著区域所有像素求解基本光流方程:
IxVx+IyVy=-It;
式中Vx,Vy分别表示光流矢量沿x,y两个方向分量,Ix,Iy,It分别表示像素点沿x,y,t三个方向的偏导数,矢量形式表达式为:
式中 是该点的梯度方向,符号T代表转置, 为该点的光流,联立n
个光流方程采用最小二乘法求解x,y方向的速度:
得到: j=1,2,…,n;
通过上述方程计算显著区域的光流进而获取运动显著图SMmotion;
所述的显著特征融合是将已获取的三种不同维度的显著特征图SMimage、SMdepth、SMmotion采取全局非线性归一化的融合策略进行融合,进而获取立体视频显著区域;具体步骤是:
(1)将已获取的各种不同维度的显著图归一化到一个相同的0到1区间的动态范围内;
(2)计算每张显著图的全局最大值Mi以及局部极大值mi的平均值 i为image、depth或motion,其中Mi通过计算视差直方图可获取, 是先通过matlab中的差分函数计算出局部极大值,然后再取其平均值;
(3)将归一化后的各维显著图进行加权融合,计算公式如下:
i为image、depth或motion;
式中N(SMi)表示归一化操作,即把不同的显著图都归一化到[0,1]区间,其中权重通过计算各维显著图的全局最大值Mi与局部极大值的平均值 的差值获得,当二者差值很大时,表明该显著图中的显著特征更为明显,赋予大的权重;当差值很小的时候,表明该显著图的显著特征更为均匀,赋予较小的权重进行抑制,取(Mi-mi)2作为每张显著图的权重值;
通过临近相似特征相互抑制的方式来近似模拟生物神经抑制机制,融合三个不同维度的显著特征来获取立体视频的显著区域。
说明书

技术领域

[0001] 本发明属于视频图像处理技术领域,具体涉及一种基于双目多维感知特性的立体视频显著性检测方法。

背景技术

[0002] 三维(Three-Dimension,3D)视频由于其左右视点图像之间存在视差,能带给观众身临其境的体验感和更高的逼真度,是目前正在着重发展的新一代视频服务技术。但是人类视觉研究表明,由于眼球的聚焦功能,人眼不能同时感知3D视频中的近处物体和远处物体,必须聚焦于某一区域,导致人类的3D视觉选择性比2D视觉选择性更强,表现在3D视频上其区域显著性更突出。3D视频显著性计算模型对于场景中物体的计算与识别,立体图像/视频压缩,立体图像/视频的质量评估,以及视觉导航等研究领域都具有重要的指导意义。
[0003] 传统的显著性检测模型大部分是基于图像的颜色,亮度,方向,纹理等空间特性而采用不同的算法进行显著性检测,但这些传统模型方法无法有效的检测出立体视频的显著区域,一方面由于大部分的传统检测模型没有计算时域上的显著特性,而相邻帧之间的运动是影响着人眼视觉注意力的重要特征之一,而运动特征的检测常用的方法有帧差法、背景建模法以及光流法等。帧差法较为简单,但准确率较低,背景建模法受背景模型的影响较大会导致检测不稳定,而光流法的算法复杂度高;另一方面,传统的检测模型没有计算深度信息对立体视频的显著特性的影响,检测不够准确,因为深度信息是反映物体距离人眼的远近,是立体视频的重要感知特征之一。
[0004] 鉴于上述现状,需要对传统的显著性模型检测进行改进,采取简单有效的方法对立体视频的空间、深度以及运动三个不同维度的视图信息进行显著性计算,并且准确的检测出立体视频的显著区域。

发明内容

[0005] 本发明的目的就是提供一种基于双目多维感知特性的立体视频显著性检测方法。
[0006] 本发明方法包括显著特征提取和显著特征融合。
[0007] 所述的显著特征提取是从立体视频的空间、深度以及运动三个不同维度的视图信息分别进行显著性计算,具体包括三部分:二维静态显著区域检测、深度显著区域检测、运动显著区域检测。其中:
[0008] 二维静态显著区域检测:根据Bayesian模型计算单张彩色图像的空间特征的显著性,检测出彩色图像的二维静态显著区域,具体是:
[0009] 通过计算单点的感兴趣概率的方法来估计物体的显著程度SZ:
[0010]
[0011] 式中z表示图像中的某个像素点,p表示相应的概率值,随机变量F表示一个点像素的视觉特征值,随机变量L表示一个像素点的坐标位置;二元随机变量C表示该点像素是否为目标像素,C=1表示为目标像素,C≠1表示不是目标像素;fz和lz分别表示注视在z点时的视觉特征值以及相应的像素坐标位置;假设在C=1的情况下,该点的视觉特征与空间位置是相互独立的,即有:
[0012]
[0013] 为了在一张图像中方便比较该点的显著概率,将上式进行对数化:
[0014] logsz=-logp(F=fz)+logp(F=fz|C=1)+logp(C=1|L=lz);
[0015] 式中第一项-logp(F=fz)表示该像素点特征的自信息量,只依赖于z的视觉特征,独立于任何先验信息;第二项logp(F=fz|C=1)表示对数似然函数项,用来表示目标的先验信息,因为该项更多的取决于人体的主观因素无法准确的计算,所以一般计算中可以忽略;第三项logp(C=1|L=lz)表示独立于视觉特性,反映目标可能出现位置的先验信息,一般情况下,我们并不知道目标位置的先验信息,则也可以忽略。因此,上式简化为:logSz=-logp(F=fz),即计算二维静态的整体显著性只需要考虑单点像素的自信量,通过计算图像各像素点的显著程度SZ从而获取二维静态显著图SMimage。
[0016] 深度显著区域检测的具体步骤是:
[0017] ①采用DERS(depth estimation reference software)软件根据输入的第k帧左视点图和右视点图计算出该帧的视差图,其中视差值d∈[0,255];
[0018] ②根据视差图中的最大视差值dmax和最小视差值dmin将视差值归一化到[0,1]区间;如果某像素点的视差值接近dmax则赋予大的视差值,相反接近dmin则赋予小的视差值,这样能够给前景物体与背景物体赋予不同的显著性得到深度前景图Dforeground,其中前景物体相对于背景物体更为显著;
[0019] ③利用高斯差分滤波器提取重要的深度感知特征—深度对比度DoG(x,y),实现公式下:
[0020]
[0021] 其中(x,y)代表滤波器位置,σ和K分别用来控制滤波器的尺度和高斯核的半径比。通过高斯差分滤波器DoG可以去除高频信号中的随机噪声,降低模糊灰度图像的模糊度,增加灰度图像的边缘细节可见性,将经DoG滤波后的深度图作为深度对比度图Dconstrast;
[0022] ④将获取的深度前景图Dforeground和深度对比度图Dconstrast进行线性加权融合,获取深度显著图SMdepth:
[0023] SMdepth=ω1Dforeground+ω2Dconstrast;
[0024] 其中:ω1和ω2分别为Dforeground和Dconstrast的权重。
[0025] 运动显著区域检测:根据当前帧的二维静态显著图SMimage和深度显著图SMdepth中的显著区域采用光流法提取相邻帧间运动矢量,获取运动显著图SMmotion,具体步骤是:
[0026] a.对二维静态显著图SMimage和深度显著图SMdepth进行二值化:
[0027]
[0028]
[0029] 式中,Timage和Tdepth分别为SMimage和SMdepth的二值化处理的门限值,最佳门限值通过大津算法获取,SM′image和SM′depth为经过二值化处理后的显著图,其中显著区域的像素值为1,不显著区域的像素值为0;然后将SM′image和SM′depth代入下式中来确定当前帧图像的光流计算区域S′(x,y):
[0030]
[0031] 式中S(x,y)表示当前帧原视图中像素点(x,y)处的灰度值;
[0032] b.根据划分的显著区域利用Lucas-Kanade微分光流算法计算相邻帧的运动;该算法假设连续时间内像素点的灰度值恒定不变,特征点邻域内做相似运动,就可对显著区域所有像素求解基本光流方程:
[0033] IxVx+IyVy=-It;
[0034] 式中Vx,Vy分别表示光流矢量沿x,y两个方向分量,Ix,Iy,It分别表示像素点沿x,y,t三个方向的偏导数,矢量形式表达式为:
[0035]
[0036] 式中▽IT=(Ix,Iy)T是该点的梯度方向,符号T代表转置, 为该点的光流,联立n个光流方程采用最小二乘法求解x,y方向的速度:
[0037]
[0038] 得到:
[0039] 通过上述方程计算显著区域的光流进而获取运动显著图SMmotion。
[0040] 所述的显著特征融合是将已获取的三种不同维度的显著特征图SMimage、SMdepth、SMmotion采取全局非线性归一化的融合策略进行融合,进而获取立体视频显著区域。为了有效融合三种不同维度的显著图,采取全局非线性归一化的融合策略将二维静态显著图、深度显著图以及运动显著图进行融合,具体步骤是:
[0041] (1)为了避免由于不同方法生成不同维度显著图而产生的幅值差异,先将已获取的各种不同维度的显著图归一化到一个相同的动态范围内(0到1区间);
[0042] (2)计算每张显著图的全局最大值Mi(i为image、depth或motion)以及局部极大值mi的平均值 其中Mi通过计算视差直方图可获取, 是先通过matlab中的差分函数计算出局部极大值,然后再取其平均值;
[0043] (3)将归一化后的各维显著图进行加权融合,计算公式如下:
[0044] i为image、depth或motion;
[0045] 式中N(SMi)表示归一化操作,即把不同的显著图都归一化到[0,1]区间,其中权重通过计算各维显著图的全局最大值Mi与局部极大值mi的平均值 的差值获得,当二者差值很大时,表明该显著图中的显著特征更为明显,应赋予大的权重;相反当差值很小的时候,表明该显著图的显著特征更为均匀,应赋予较小的权重进行抑制,这里取(Mi-mi)2作为每张显著图的权重值。通过临近相似特征相互抑制的方式来近似模拟生物神经抑制机制,融合三个不同维度的显著特征来获取立体视频的显著区域。
[0046] 本申请在视频图像处理研究领域中提出了一种新颖的立体视频显著性检测技术,尽可能的去模拟人眼视觉注意力机制。该检测技术主要分为显著特征检测与显著特征融合两大部分,其中显著特征检测分别利用空间,时间以及立体三个不同维度的立体视图信息进行显著性检测:在空间上,基于Bayesian计算模型简单有效的完成单张彩色图像的二维静态显著区域检测;在立体上,基于视差特征和通过使用高斯差分滤波器来获取纹理细节清晰的深度显著区域;在时域上,基于以上两个维度的显著区域采用局部光流法提取运动显著区域,有效的降低了计算复杂度;而显著特征融合方面为了获取高质量的立体视频显著图,采取近似神经抑制机制的融合策略将三个不同维度的显著特征进行融合进而得到立体视频显著区域。该立体显著性模型可以直接应用在3D视频压缩,3D质量评估以及物体识别和追踪等工程领域中。

实施方案

[0060] 如图1所示,一种基于双目多维感知特性的立体视频显著性检测方法包括显著特征提取和显著特征融合。
[0061] 显著特征提取是从立体视频的空间、深度以及运动三个不同维度的视图信息分别进行显著性计算,具体包括三部分:二维静态显著区域检测、深度显著区域检测、运动显著区域检测。其中:
[0062] 二维静态显著区域检测:根据Bayesian模型计算单张彩色图像的空间特征的显著性,检测出彩色图像的二维静态显著区域,具体是:
[0063] 通过计算单点的感兴趣概率的方法来估计物体的显著程度SZ:
[0064]
[0065] 式中z表示图像中的某个像素点,p表示相应的概率值,随机变量F表示一个点像素的视觉特征值,随机变量L表示一个像素点的坐标位置;二元随机变量C表示该点像素是否为目标像素,C=1表示为目标像素,C≠1表示不是目标像素;fz和lz分别表示注视在z点时的视觉特征值以及相应的像素坐标位置;假设在C=1的情况下,该点的视觉特征与空间位置是相互独立的,即有:
[0066]
[0067] 为了在一张图像中方便比较该点的显著概率,将上式进行对数化:
[0068] logsz=-logp(F=fz)+logp(F=fz|C=1)+logp(C=1|L=lz);
[0069] 式中第一项-logp(F=fz)表示该像素点特征的自信息量,只依赖于z的视觉特征,独立于任何先验信息;第二项logp(F=fz|C=1)表示对数似然函数项,用来表示目标的先验信息,因为该项更多的取决于人体的主观因素无法准确的计算,所以一般计算中可以忽略;第三项logp(C=1|L=lz)表示独立于视觉特性,反映目标可能出现位置的先验信息,一般情况下,我们并不知道目标位置的先验信息,则也可以忽略。因此,上式简化为:logSz=-logp(F=fz),即计算二维静态的整体显著性只需要考虑单点像素的自信量,通过计算图像各像素点的显著程度SZ从而获取二维静态显著图SMimage,如图2、3、4所示。
[0070] 深度显著区域检测的具体步骤是:
[0071] ①采用DERS(depth estimation reference software)软件根据输入的第k帧左视点图和右视点图计算出该帧的视差图,其中视差值d∈[0,255],如图5所示;
[0072] ②根据视差图中的最大视差值dmax和最小视差值dmin将视差值归一化到[0,1]区间;如果某像素点的视差值接近dmax则赋予大的视差值,相反接近dmin则赋予小的视差值,这样能够给前景物体与背景物体赋予不同的显著性得到深度前景图Dforeground,其中前景物体相对于背景物体更为显著,如图6所示;
[0073] ③利用高斯差分滤波器提取重要的深度感知特征—深度对比度DoG(x,y),实现公式下:
[0074]
[0075] 其中(x,y)代表滤波器位置,σ和K分别用来控制滤波器的尺度和高斯核的半径比;为实现高效DoG滤波,这里取σ=32,K=1.6(近似于高斯拉普拉斯算子)。通过高斯差分滤波器DoG可以去除高频信号中的随机噪声,降低模糊灰度图像的模糊度,增加灰度图像的边缘细节可见性,将经DoG滤波后的深度图作为深度对比度图Dconstrast,如图7所示;
[0076] ④将获取的深度前景图Dforeground和深度对比度图Dconstrast进行线性加权融合,获取深度显著图SMdepth:
[0077] SMdepth=ω1Dforeground+ω2Dconstrast;
[0078] 其中:ω1和ω2分别为Dforeground和Dconstrast的权重,ω1=ω2=0.5,检测结果如图8所示。
[0079] 运动显著区域检测:根据当前帧的二维静态显著图SMimage和深度显著图SMdepth中的显著区域采用光流法提取相邻帧间运动矢量,获取运动显著图SMmotion,具体步骤是:
[0080] a.对二维静态显著图SMimage和深度显著图SMdepth进行二值化:
[0081]
[0082]
[0083] 式中,Timage和Tdepth分别为SMimage和SMdepth的二值化处理的门限值,最佳门限值通过大津算法获取,SM′image和SM′depth为经过二值化处理后的显著图,其中显著区域的像素值为1,不显著区域的像素值为0;然后将SM′image和SM′depth代入下式中来确定当前帧图像的光流计算区域S′(x,y):
[0084]
[0085] 式中S(x,y)表示当前帧原视图中像素点(x,y)处的灰度值,结果如图9和图10所示;
[0086] b.根据划分的显著区域利用Lucas-Kanade微分光流算法计算相邻帧的运动;该算法假设连续时间内像素点的灰度值恒定不变,特征点邻域内做相似运动,就可对显著区域所有像素求解基本光流方程:
[0087] IxVx+IyVy=-It;
[0088] 式中Vx,Vy分别表示光流矢量沿x,y两个方向分量,Ix,Iy,It分别表示像素点沿x,y,t三个方向的偏导数,矢量形式表达式为:
[0089]
[0090] 式中▽IT=(Ix,Iy)T是该点的梯度方向,符号T代表转置, 为该点的光流,联立n个光流方程采用最小二乘法求解x,y方向的速度:
[0091]
[0092] 得到: 检测结果如图11所示。
[0093] 通过上述方程计算显著区域的光流进而获取运动显著图SMmotion。
[0094] 所述的显著特征融合是将已获取的三种不同维度的显著特征图SMimage、SMdepth、SMmotion采取全局非线性归一化的融合策略进行融合,进而获取立体视频显著区域。为了有效融合三种不同维度的显著图,采取全局非线性归一化的融合策略将二维静态显著图、深度显著图以及运动显著图进行融合,具体步骤是:
[0095] (1)为了避免由于不同方法生成不同维度显著图而产生的幅值差异,先将已获取的各种不同维度的显著图归一化到一个相同的动态范围内(0到1区间);
[0096] (2)计算每张显著图的全局最大值Mi(i为image、depth或motion)以及局部极大值mi的平均值 其中Mi通过计算视差直方图可获取, 是先通过matlab中的差分函数计算出局部极大值,然后再取其平均值;
[0097] (3)将归一化后的各维显著图进行加权融合,计算公式如下:
[0098] i为image、depth或motion;
[0099] 式中N(SMi)表示归一化操作,即把不同的显著图都归一化到[0,1]区间,其中权重通过计算各维显著图的全局最大值Mi与局部极大值的平均值 的差值获得,当二者差值很大时,表明该显著图中的显著特征更为明显,应赋予大的权重;相反当差值很小的时候,表明该显著图的显著特征更为均匀,应赋予较小的权重进行抑制,这里取(Mi-mi)2作为每张显著图的权重值。通过临近相似特征相互抑制的方式来近似模拟生物神经抑制机制,融合三个不同维度的显著特征来获取立体视频的显著区域,最后的检测结果如图12所示。
[0100] 由于考虑到不同场景下本发明的检测结果,还选取5组不同场景下的3D视频测试序列进行实验使用本发明的立体视频显著性检测方法进行检测,检测的结果如图13所示。从实验结果验证了本发明能够有效的检测出立体视频的显著区域。
[0101] 本发明的保护内容不局限于以上实例。在不背离发明构思的精神和范围下,本领域技术人员能够想到的变化和优点都被包括在本发明中,并且以所附的权利要求书为保护范围。

附图说明

[0047] 图1是本发明方法的流程图;
[0048] 图2是立体视频一帧左视图;
[0049] 图3是立体视频一帧右视图;
[0050] 图4是立体视频一帧左视图的二维静态显著区域检测图;
[0051] 图5是立体视频一帧左视图和右视图的视差图;
[0052] 图6是立体视频一帧视差图的前景显著图;
[0053] 图7是立体视频一帧视差图的深度对比度图;
[0054] 图8是立体视频一帧视差图的深度显著区域检测图;
[0055] 图9是立体视频一帧划分显著区域的左视图;
[0056] 图10是立体视频一帧划分显著区域的右视图;
[0057] 图11是立体视频相邻帧的运动显著区域检测图;
[0058] 图12是立体视频的显著区域检测图;
[0059] 图13是不同的立体视频序列的检测结果图。
版权所有:盲专网 ©2023 zlpt.xyz  蜀ICP备2023003576号