首页 > 专利 > 杭州电子科技大学 > 一种基于多尺度空间视差信息的立体视频舒适度预测方法专利详情

一种基于多尺度空间视差信息的立体视频舒适度预测方法   0    0

有效专利 查看PDF
专利申请流程有哪些步骤?
专利申请流程图
申请
申请号:指国家知识产权局受理一件专利申请时给予该专利申请的一个标示号码。唯一性原则。
申请日:提出专利申请之日。
2019-11-25
申请公布
申请公布指发明专利申请经初步审查合格后,自申请日(或优先权日)起18个月期满时的公布或根据申请人的请求提前进行的公布。
申请公布号:专利申请过程中,在尚未取得专利授权之前,国家专利局《专利公报》公开专利时的编号。
申请公布日:申请公开的日期,即在专利公报上予以公开的日期。
2020-09-04
授权
授权指对发明专利申请经实质审查没有发现驳回理由,授予发明专利权;或对实用新型或外观设计专利申请经初步审查没有发现驳回理由,授予实用新型专利权或外观设计专利权。
2021-08-20
预估到期
发明专利权的期限为二十年,实用新型专利权期限为十年,外观设计专利权期限为十五年,均自申请日起计算。专利届满后法律终止保护。
2039-11-25
基本信息
有效性 有效专利 专利类型 发明专利
申请号 CN201911165762.6 申请日 2019-11-25
公开/公告号 CN111526354B 公开/公告日 2021-08-20
授权日 2021-08-20 预估到期日 2039-11-25
申请年 2019年 公开/公告年 2021年
缴费截止日
分类号 H04N17/00H04N13/106G06K9/62 主分类号 H04N17/00
是否联合申请 独立申请 文献类型号 B
独权数量 1 从权数量 5
权利要求数量 6 非专利引证数量 0
引用专利数量 0 被引证专利数量 0
非专利引证
引用专利 被引证专利
专利权维持 3 专利申请国编码 CN
专利事件 事务标签 公开、实质审查、授权
申请人信息
申请人 第一申请人
专利权人 杭州电子科技大学 当前专利权人 杭州电子科技大学
发明人 周洋、梁文青、崔金鹏、张博文 第一发明人 周洋
地址 浙江省杭州市江干区下沙高教园区 邮编 310018
申请人数量 1 发明人数量 4
申请人所在省 浙江省 申请人所在市 浙江省杭州市
代理人信息
代理机构
专利代理机构是经省专利管理局审核,国家知识产权局批准设立,可以接受委托人的委托,在委托权限范围内以委托人的名义办理专利申请或其他专利事务的服务机构。
杭州杭诚专利事务所有限公司 代理人
专利代理师是代理他人进行专利申请和办理其他专利事务,取得一定资格的人。
尉伟敏
摘要
本发明公开了一种基于多尺度空间视差信息的立体视频舒适度预测方法,包括以下步骤:从立体视频每帧的不同尺度视差信息提取尺度空间域特征与尺度空间流特征;建立尺度空间域特征与尺度空间流特征权重关系得到立体视频每帧输入特征;利用SVR进行单帧舒适度预测并采用时间中值池化策略得到立体视频舒适度得分。上述方法在不同尺度空间提取特征,并将不同尺度空间特征进行融合,建立不同特征的权重关系,有效体现每个尺度的时间流视差特征对舒适度预测的贡献,有效体现每个尺度的时间流视差特征对舒适度预测的贡献,对立体视频视觉舒适度进行更准确的预测。
  • 摘要附图
    一种基于多尺度空间视差信息的立体视频舒适度预测方法
  • 说明书附图:其中,
    一种基于多尺度空间视差信息的立体视频舒适度预测方法
  • 说明书附图:其中,-1
    一种基于多尺度空间视差信息的立体视频舒适度预测方法
  • 说明书附图:得到尺度空间域特征
    一种基于多尺度空间视差信息的立体视频舒适度预测方法
  • 说明书附图:得到尺度空间流特征
    一种基于多尺度空间视差信息的立体视频舒适度预测方法
  • 说明书附图:[0013]
    一种基于多尺度空间视差信息的立体视频舒适度预测方法
  • 说明书附图:[0015]
    一种基于多尺度空间视差信息的立体视频舒适度预测方法
  • 说明书附图:[0018]
    一种基于多尺度空间视差信息的立体视频舒适度预测方法
  • 说明书附图:[0020]
    一种基于多尺度空间视差信息的立体视频舒适度预测方法
  • 说明书附图:5
    一种基于多尺度空间视差信息的立体视频舒适度预测方法
  • 说明书附图:[0026]
    一种基于多尺度空间视差信息的立体视频舒适度预测方法
  • 说明书附图:[0028]
    一种基于多尺度空间视差信息的立体视频舒适度预测方法
  • 说明书附图:[0032]
    一种基于多尺度空间视差信息的立体视频舒适度预测方法
  • 说明书附图:[0034]
    一种基于多尺度空间视差信息的立体视频舒适度预测方法
  • 说明书附图:[0036]
    一种基于多尺度空间视差信息的立体视频舒适度预测方法
  • 说明书附图:[0038]
    一种基于多尺度空间视差信息的立体视频舒适度预测方法
  • 说明书附图:[0040]
    一种基于多尺度空间视差信息的立体视频舒适度预测方法
  • 说明书附图:[0050]
    一种基于多尺度空间视差信息的立体视频舒适度预测方法
  • 说明书附图:[0052]
    一种基于多尺度空间视差信息的立体视频舒适度预测方法
  • 说明书附图:[0055]
    一种基于多尺度空间视差信息的立体视频舒适度预测方法
  • 说明书附图:[0058]
    一种基于多尺度空间视差信息的立体视频舒适度预测方法
  • 说明书附图:[0062]
    一种基于多尺度空间视差信息的立体视频舒适度预测方法
  • 说明书附图:[0065]
    一种基于多尺度空间视差信息的立体视频舒适度预测方法
  • 说明书附图:[0067]
    一种基于多尺度空间视差信息的立体视频舒适度预测方法
  • 说明书附图:[0070]
    一种基于多尺度空间视差信息的立体视频舒适度预测方法
  • 说明书附图:[0072]
    一种基于多尺度空间视差信息的立体视频舒适度预测方法
  • 说明书附图:[0075]
    一种基于多尺度空间视差信息的立体视频舒适度预测方法
  • 说明书附图:[0077]
    一种基于多尺度空间视差信息的立体视频舒适度预测方法
  • 说明书附图:[0080]
    一种基于多尺度空间视差信息的立体视频舒适度预测方法
法律状态
序号 法律状态公告日 法律状态 法律状态信息
1 2021-08-20 授权
2 2020-09-04 实质审查的生效 IPC(主分类): H04N 17/00 专利申请号: 201911165762.6 申请日: 2019.11.25
3 2020-08-11 公开
权利要求
权利要求书是申请文件最核心的部分,是申请人向国家申请保护他的发明创造及划定保护范围的文件。
1.一种基于多尺度空间视差信息的立体视频舒适度预测方法,其特征在于,包括以下步骤:
(1)从立体视频每帧的不同尺度视差信息提取特征,特征包括尺度空间域特征和尺度空间流特征,尺度空间域特征提取的过程为:获得立体视频的帧视差图进行变换后的图像,即
当前帧通过变换后在同一尺度将每帧视差最大值与平均值之差的平方加上最小值与平均值之差的平方,即
其中, 为第l尺度输入的当前帧最大视差值, 为第l尺度输入的
当前帧最小视差值, 为第l尺度输入的当前帧平均视差值;
将不同尺度空间的空间域视差特征融合,得到尺度空间域特征,即
尺度空间流特征提取的过程为:将当前帧与前后帧的视差图变换后在同一尺度对应相减,得到五个不同尺度下的时间流视差特征,即
其中, 为当前尺度当前视差帧, 为当前尺度前一视差帧, 为当前尺度下一视差帧,P为每帧总像素数;
将不同尺度空间的时间流视差特征融合,得到尺度空间流特征,即
(2)建立尺度空间域特征与尺度空间流特征权重关系得到立体视频每帧输入特征;
(3)利用SVR进行单帧舒适度预测并采用时间中值池化策略得到立体视频舒适度得分。

2.根据权利要求1所述的一种基于多尺度空间视差信息的立体视频舒适度预测方法,其特征在于,所述步骤(1)包含获得每个尺度空间的空间域视差特征与时间流视差特征,对于某一尺度空间的空间域视差特征,计算此尺度的空间域方差,即
对于某一尺度空间的时间流视差特征,计算此尺度的时间流方差,即
其中,l为尺度等级,t为立体视频当前帧,N为立体视频总帧数。

3.根据权利要求2所述的一种基于多尺度空间视差信息的立体视频舒适度预测方法,其特征在于,所述步骤(1)包含将各尺度空间域视差特征进行线性加权,加权权重为得到尺度空间域特征
将各尺度时间流视差特征进行线性加权,加权权重为
得到尺度空间流特征

4.根据权利要求1所述的一种基于多尺度空间视差信息的立体视频舒适度预测方法,其特征在于,所述步骤(2)将尺度空间域特征与尺度空间流特征融合,公式如下:
SSD SSF SSD
其中,w 为尺度空间域特征权重因子,w 为尺度空间流特征权重因子,当w =0.8,SSF
w =0.2将不同尺度空间下的时间流特征与空间域特征相结合,获得输入特征。

5.根据权利要求1所述的一种基于多尺度空间视差信息的立体视频舒适度预测方法,其特征在于,所述步骤(3)采用SVR,将建立权重后的特征作为输入值,对应的MOS值作为输出进行训练和测试,训练集与测试集比例为9:1,将进行若干次训练测试结果的平均值作为最终该条件下的结果。

6.根据权利要求5所述的一种基于多尺度空间视差信息的立体视频舒适度预测方法,其特征在于,所述步骤(3)利用时间中值池化策略,取立体视频所有帧预测值的中值作为该立体视频的舒适度预测值。
说明书

技术领域

[0001] 本发明涉及立体视频舒适度技术领域,尤其涉及一种基于多尺度空间视差信息的立体视频舒适度预测方法。

背景技术

[0002] 伴随着3D电影以及虚拟现实的发展,立体视频和图像在现实生活中的应用越来越多。相较于二维图像和视频,立体图像和视频能给用户带来更多的视觉信息和更逼真的视觉体验,但同时由于运动过快或视差过大等,会给观众带来视觉不适,降低视觉体验。有资料显示,观看者观看立体视频时可能会产生头晕、眼疲劳、恶心和肩颈疼痛等不适感。为给用户带来更多有益的视觉信息,需要探索立体视频舒适度预测方法。
[0003] 立体图像和视频由左序列与右序列合成。有研究利用左右视图提取熵信息和纹理特征作为预测特征,将舒适度预测与显著性相结合,采用了通过立体显著区域提取不适因子进行舒适度预测。还有研究将主要视觉皮层的神经活动机制运用在立体视频舒适度预测中。还有针对具有多个显着物体的立体图像不舒适性评估问题,提出了与视觉不舒适感潜在相关的4种视觉特征。视差图在立体视觉有重要作用,给观看者带来距离信息,产生立体感,但过小会降低立体感知,过大会导致视觉不舒适。因此有研究开发了视差信息结合神经元模型的立体视觉不适预测器,或者提取深度信息探究不适因子与立体视觉舒适度的关系。有的提出视觉舒适度随着视差大小和运动速度的增加而降低。也有利用水平视差与垂直视差进行立体视觉舒适度预测。
[0004] 中国专利文献CN103096122A公开了一种“基于感兴趣区域内运动特征的立体视觉舒适度评价方法”。采用了:首先,制定计算立体视频感兴趣区域内运动特征向量策略;然后,通过主观测试建立表征立体视频运动特征和立体视觉舒适度之间非线性关系的立体视觉模型。最后,基于立体视频感兴趣区域内运动特征向量和非线性立体视觉模型,选择空间域均值策略、最小值整合策略和时域中值策略,制定立体视觉舒适度评价方法。该方法没有在不同尺度空间下对视差信息提取与融合各特征,预测不够准确。

发明内容

[0005] 本发明主要解决原有的缺少在不同尺度空间下对视差信息提取与融合的技术问题,提供一种基于多尺度空间视差信息的立体视频舒适度预测方法,在不同尺度空间提取特征,并将不同尺度空间特征进行融合,建立不同特征的权重关系,有效体现每个尺度的时间流视差特征对舒适度预测的贡献,有效体现每个尺度的时间流视差特征对舒适度预测的贡献,对立体视频视觉舒适度进行更准确的预测。
[0006] 本发明的上述技术问题主要是通过下述技术方案得以解决的:本发明包括以下步骤:
[0007] (1)从立体视频每帧的不同尺度视差信息提取特征;将立体视频视差图输入多尺度变换获得不通尺度空间下的视差图,所有尺度空间下的空间域视差信息融合为尺度空间域特征,所有尺度空间下的时间流视差特征融为尺度空间流特征。
[0008] (2)建立尺度空间域特征与尺度空间流特征权重关系得到立体视频每帧输入特征;确定尺度空间域特征与尺度空间流特征权重因子后将尺度空间域特征与尺度空间流特征融合计算。
[0009] (3)利用SVR进行单帧舒适度预测并采用时间中值池化策略得到立体视频舒适度得分。将建立权重后的特征作为输入值,对应的MOS值作为输出进行训练和测试,训练集与测试集比例为9:1,将进行2000次训练测试结果的平均值作为最终该条件下的结果。
[0010] 作为优选,所述的步骤(1)中提取的特征包括尺度空间域特征和尺度空间流特征。
[0011] 作为优选,所述的步骤(1)中尺度空间域特征提取的过程为:获得立体视频的帧视差图I,即
[0012]
[0013] 当前帧通过变换后在同一尺度将每帧视差最大值与平均值之差的平方加上最小值与平均值之差的平方,即
[0014]
[0015] 其中, 为第l尺度输入的当前帧最大视差值, 为第l尺度输入的当前帧最小视差值, 为第l尺度输入的当前帧平均视差值;
[0016] 将不同尺度空间的空间域视差特征融合,得到尺度空间域特征,即[0017]
[0018] 作为优选,所述的步骤(1)中尺度空间流特征提取的过程为:将当前帧与前后帧的视差图变换后在同一尺度对应相减,得到五个不同尺度下的时间流视差特征,即[0019]
[0020]
[0021] 其中, 为当前尺度当前视差帧, 为当前尺度前一视差帧, 为当前尺度下一视差帧,P为每帧总像素数;
[0022] 将不同尺度空间的时间流视差特征融合,得到尺度空间流特征,即[0023]
[0024] 作为优选,所述的步骤(1)包含获得每个尺度空间的空间域视差特征与时间流视差特征,对于某一尺度空间的空间域视差特征,计算此尺度的空间域方差,即[0025]
[0026] 对于某一尺度空间的时间流视差特征,计算此尺度的时间流方差,即[0027]
[0028] 其中,l为尺度等级,t为立体视频当前帧,N为立体视频总帧数。
[0029] 计算方差前为避免不同尺度空间下的空间域视差特征与时间流视差特征存在幅值差异,将它们先进行归一化。
[0030] 作为优选,所述的步骤(1)包含将各尺度时间流视差特征进行线性加权,加权权重为
[0031]
[0032] 得到尺度空间域特征
[0033]
[0034] 将各尺度时间流视差特征进行线性加权,加权权重为
[0035]
[0036] 得到尺度空间流特征
[0037]
[0038] 作为优选,所述的步骤(2)将尺度空间域特征与尺度空间流特征融合,公式如下:
[0039]
[0040] 其中,wSSD为尺度空间域特征权重因子,wSSF为尺度空间流特征权重因子。当wSSD=SSF0.8,w =0.2将不同尺度空间下的时间流特征与空间域特征相结合,获得输入特征。
[0041] 作为优选,所述的步骤(3)采用SVR,将建立权重后的特征作为输入值,对应的MOS值作为输出进行训练和测试,训练集与测试集比例为9:1,将进行若干次训练测试结果的平均值作为最终该条件下的结果。
[0042] 作为优选,所述的步骤(3)利用时间中值池化策略,取立体视频所有帧预测值的中值作为该立体视频的舒适度预测值。
[0043] 本发明的有益效果是:在不同尺度空间提取特征,并将不同尺度空间特征进行融合,建立不同特征的权重关系,有效体现每个尺度的时间流视差特征对舒适度预测的贡献,有效体现每个尺度的时间流视差特征对舒适度预测的贡献,对立体视频视觉舒适度进行更准确的预测。

实施方案

[0044] 下面通过实施例对本发明的技术方案作进一步具体的说明。
[0045] 实施例:本实施例的一种基于多尺度空间视差信息的立体视频舒适度预测方法,包括以下步骤:
[0046] (1)从立体视频每帧的不同尺度视差信息提取尺度空间域特征和尺度空间流特征。
[0047] (1.1)尺度空间域特征提取的过程为:
[0048] 获得立体视频的帧视差图I,即
[0049]
[0050] 当前帧通过变换后在同一尺度将每帧视差最大值与平均值之差的平方加上最小值与平均值之差的平方,即
[0051]
[0052] 其中, 为第l尺度输入的当前帧最大视差值, 为第l尺度输入的当前帧最小视差值, 为第l尺度输入的当前帧平均视差值;
[0053] 将不同尺度空间的空间域视差特征融合,得到尺度空间域特征,即[0054]
[0055] (1.2)尺度空间流特征提取的过程为:
[0056] 将当前帧与前后帧的视差图变换后在同一尺度对应相减,得到五个不同尺度下的时间流视差特征,即
[0057]
[0058]
[0059] 其中, 为当前尺度当前视差帧, 为当前尺度前一视差帧, 为当前尺度下一视差帧,P为每帧总像素数;
[0060] 将不同尺度空间的时间流视差特征融合,得到尺度空间流特征,即[0061]
[0062] (1.3)获得每个尺度空间的空间域视差特征与时间流视差特征后,为避免不同尺度空间下的空间域视差特征与时间流视差特征存在幅值差异将它们先进行归一化。
[0063] (1.4)对于某一尺度空间的空间域视差特征,计算此尺度的空间域方差,即[0064]
[0065] 对于某一尺度空间的时间流视差特征,计算此尺度的时间流方差,即[0066]
[0067] 其中,l为尺度等级,t为立体视频当前帧,N为立体视频总帧数。
[0068] (1.5)将各尺度时间流视差特征进行线性加权,加权权重为
[0069]
[0070] 得到尺度空间域特征
[0071]
[0072] 获得多尺度空间下包含五个尺度空间的尺度空间域特征。
[0073] 将各尺度时间流视差特征进行线性加权,加权权重为
[0074]
[0075] 得到尺度空间流特征
[0076]
[0077] 获得多尺度空间下包含五个尺度空间的尺度空间流特征。
[0078] (2)建立尺度空间域特征与尺度空间流特征权重关系得到立体视频每帧输入特征,将尺度空间域特征与尺度空间流特征融合,公式如下:
[0079]
[0080] 其中,wSSD为尺度空间域特征权重因子,wSSF为尺度空间流特征权重因子。当wSSD=SSF0.8,w =0.2将不同尺度空间下的时间流特征与空间域特征相结合,获得输入特征。
[0081] (3)采用SVR,将建立权重后的特征作为输入值,对应的MOS值作为输出进行训练和测试,训练集与测试集比例为9:1,将进行2000次训练测试结果的平均值作为最终该条件下的结果。然后利用时间中值池化策略,取立体视频所有帧预测值的中值作为该立体视频的舒适度预测值。
版权所有:盲专网 ©2023 zlpt.xyz  蜀ICP备2023003576号