首页 > 专利 > 杭州电子科技大学 > 基于K-means模型的双视点立体视频融合方法专利详情

基于K-means模型的双视点立体视频融合方法   0    0

有效专利 查看PDF
专利申请流程有哪些步骤?
专利申请流程图
申请
申请号:指国家知识产权局受理一件专利申请时给予该专利申请的一个标示号码。唯一性原则。
申请日:提出专利申请之日。
2021-03-19
申请公布
申请公布指发明专利申请经初步审查合格后,自申请日(或优先权日)起18个月期满时的公布或根据申请人的请求提前进行的公布。
申请公布号:专利申请过程中,在尚未取得专利授权之前,国家专利局《专利公报》公开专利时的编号。
申请公布日:申请公开的日期,即在专利公报上予以公开的日期。
2021-08-13
授权
授权指对发明专利申请经实质审查没有发现驳回理由,授予发明专利权;或对实用新型或外观设计专利申请经初步审查没有发现驳回理由,授予实用新型专利权或外观设计专利权。
2022-11-11
预估到期
发明专利权的期限为二十年,实用新型专利权期限为十年,外观设计专利权期限为十五年,均自申请日起计算。专利届满后法律终止保护。
2041-03-19
基本信息
有效性 有效专利 专利类型 发明专利
申请号 CN202110295931.9 申请日 2021-03-19
公开/公告号 CN113179396B 公开/公告日 2022-11-11
授权日 2022-11-11 预估到期日 2041-03-19
申请年 2021年 公开/公告年 2022年
缴费截止日
分类号 H04N13/279H04N13/106H04N13/156H04N13/15G06T7/194G06T5/50G06T5/00G06V10/762 主分类号 H04N13/279
是否联合申请 独立申请 文献类型号 B
独权数量 1 从权数量 0
权利要求数量 1 非专利引证数量 0
引用专利数量 2 被引证专利数量 0
非专利引证
引用专利 CN102055982A、CN105141940A 被引证专利
专利权维持 1 专利申请国编码 CN
专利事件 事务标签 公开、实质审查、授权
申请人信息
申请人 第一申请人
专利权人 杭州电子科技大学 当前专利权人 杭州电子科技大学
发明人 周洋、张博文、崔金鹏、梁文青、殷海兵、陆宇、黄晓峰 第一发明人 周洋
地址 浙江省杭州市下沙高教园区2号大街 邮编 310018
申请人数量 1 发明人数量 7
申请人所在省 浙江省 申请人所在市 浙江省杭州市
代理人信息
代理机构
专利代理机构是经省专利管理局审核,国家知识产权局批准设立,可以接受委托人的委托,在委托权限范围内以委托人的名义办理专利申请或其他专利事务的服务机构。
杭州君度专利代理事务所 代理人
专利代理师是代理他人进行专利申请和办理其他专利事务,取得一定资格的人。
朱亚冠
摘要
本发明方法公开了基于K‑means模型的双视点立体视频融合方法。本发明方法首先对左、右视点深度图进行预处理,得到左、右视点深度图像;然后分别对左、右视点深度图像运用K‑means方法进行分割,对分割后的前景和背景区域深度图像进行三维投射运算,得到左、右视点的前景和背景绘制图像;以前景绘制图像为蓝本,用背景绘制图像填充前景绘制图像的空缺区域,将填充后的左、右视点绘制图像进行图像融合,获得虚拟视点绘制图像;最后将虚拟视点绘制图像的空洞区域根据空洞周围的像素信息进行加权填充,获得最终输出图像。本发明方法采用像素级别的操作,对空洞区域进行精准处理,使绘制效果在视觉效果上更加优质,更加协和。
  • 摘要附图
    基于K-means模型的双视点立体视频融合方法
法律状态
序号 法律状态公告日 法律状态 法律状态信息
1 2022-11-11 授权
2 2021-08-13 实质审查的生效 IPC(主分类): H04N 13/279 专利申请号: 202110295931.9 申请日: 2021.03.19
3 2021-07-27 公开
权利要求
权利要求书是申请文件最核心的部分,是申请人向国家申请保护他的发明创造及划定保护范围的文件。
1.基于K‑means模型的双视点立体视频融合方法,其特征在于,该方法步骤是:
步骤(1)对左视点深度图和右视点深度图进行预处理,得到左视点深度图像和右视点深度图像;所述的预处理包括噪声去除处理和图像平滑处理;其中,噪声去除处理是选取残差神经网络进行处理,图像平滑处理是对噪声去除处理后图像进行开运算处理;
步骤(2)分别对左视点深度图像和右视点深度图像运用K‑means方法进行分割,分为前景区域深度图像和背景区域深度图像,分别对前景区域深度图像和背景区域深度图像进行三维投射运算,得到左视点的前景绘制图像和背景绘制图像、右视点的前景绘制图像和背景绘制图像;具体是:
通过K‑means方法对输入的左视点深度图像进行聚类运算并进行分割,方法是:
输入深度图像的像素点像素值分布概率为{p0,p1,…,p255},pi为像素值为i的像素点的分布概率,i=0,1,…,255;
设置k个阈值{τ1,τ2,…,τk}输入到K‑means运算中,计算每个像素值与每个阈值间的最小欧式距离 最小欧式距离对应的阈值作为第一
次填充值;同时输出新的k个阈值{τ′1,τ′2,…,τ′k}作为下一次迭代运算的输入;
每经过一次迭代,选取的阈值τj发生改变;将τj调整为集合Cj内所有元素的统计平均值,Cj为在τj至τj+1之间的像素集合: x为Cj中的像素;
前景区域掩模图 前景区域深度图像FG=Depth×MODFG;
背景区域掩模图 背景区域深度图像BG=Depth×MODBG;K
(i,j)表示填充结果像素值,对应的像素坐标为(i,j),Depth表示深度图像;
对前景区域深度图像和背景区域深度图像分别进行三维投射运算,获得前景区域绘制深度图像和背景区域绘制深度图像;
分别将前景区域绘制深度图像和背景区域绘制深度图像与原视点的彩色图像分别进行三维投射运算,获得左视点的前景绘制图像和背景绘制图像;三维投射运算方法是:
其中Mv和M分别表示虚拟视点和原视点的坐标
向量;Iv和I分别表示虚拟视点和原视点的相机内部参数矩阵,只与相机的内部性能相关;Rv和R分别表示虚拟视点和原视点的相机外部旋转矩阵,大小为3×3,表示相机在三维空间中旋转角度;Tv和T分别表示虚拟视点和原视点的相机平移向量,大小为3×1,表示相机在三维空间中的平移量;
对右视点深度图像进行相同操作,获得右视点的前景绘制图像和背景绘制图像;
步骤(3)分别将左视点和右视点的前景绘制图像和背景绘制图像进行融合:以前景绘制图像为蓝本,用背景绘制图像填充前景绘制图像的空缺区域;得到左视点绘制图像和右视点绘制图像;将填充后左视点绘制图像和右视点绘制图像进行图像融合,得到虚拟视点绘制图像 ,图像中坐标为 (x ,y)的像素点的像素值Iblend (x ,y) 为:
其中,l(x,y)∈⊙和r(x,y)
∈⊙分别表示左视点和右视点在坐标(x,y)处为空洞区域,l(x,y)和 分别表示左视点和右视点在坐标(x,y)处不是空洞区域;IL(x,y)和IR(x,y)分别表示左视点绘制图像和右视点绘制图像在坐标(x,y)处的像素值;
左视点权重 右视点权重 RL和RR分别为左视
点和右视点的空间旋转矩阵,TL和TR分别为左视点和右视点的空间平移向量;
步骤(4)将虚拟视点绘制图像的空洞区域根据空洞周围的像素信息进行加权填充,获得最终输出图像;
空洞区域由所有Iblend(x,y)=0的像素构成,以每个Iblend(x,y)=0的像素的坐标(x,y)为中心5×5大小的区域作为填充区域Ω,填充区域Ω内除(x,y)外的其他24个像素点分为四组,每组六个像素;
最终输出图像坐标为(x,y)的像素点的像素值
第m组内非空洞像素均值 其中,H(x,y)表示坐标(x,
y)处是否为空洞区域,如果是空洞区域则H(x,y)=0,如果不是空洞区域则H(x,y)=1;
加权像素总和 Y(x,y)为坐标(x,y)的优先级,
W为优先级权重, t为优先级Y(x,y)简写。
说明书

技术领域

[0001] 本发明属于立体视频编解码技术领域,涉及一种基于K‑means模型的双视点立体视频融合方法,是针对双视点图像融合过程的改进。

背景技术

[0002] 目前基于深度图像的绘制方法(Depth Image Based Rendering,DIBR)是绘制不同视角观察图像的主要方法。根据现有的图像将另一视角的图像进行绘制,从而得到在不同视角下所观察到的图像。该绘制方法中最关键的部分是进行3D‑WARPING过程。该过程是将一幅图像先恢复至三维模型,然后在另外一处目标视点附近将该三维模型重新投影到目标平面得到虚拟视点处的图像。在恢复三维模型和投影到平面的的过程中,图像的深度信息是非常关键的。每一个像素的深度信息都是非常关键的,两个视图深度信息之间的倍数会直接影响到绘制后的结果。
[0003] DIBR技术中最关键的部分为3D图像变换(3D Image Wraping)它是一种针对图像像素进行变化的操作。通过三维变换将参考图像像素点映射到目标视图中,从而形成和参考图像相对应的原始目标视图。
[0004] 整个虚拟视点绘制过程可分为两部分,首先通过输入深度图像进行投射运算可以得到虚拟视点所对应的深度图。为了得到虚拟视点处的深度图像,最便捷的方法是通过三维投射运算过程(3d‑warping)完成。此过程将一幅图像先反向投射至三维空间中形成立体模型,然后在虚拟视点将该立体模型重新投影到目标平面得到虚拟视点图像。

发明内容

[0005] 本发明的目的是提供一种基于K‑means模型的双视点立体视频融合方法。
[0006] 本发明方法步骤是:
[0007] 步骤(1)对左视点深度图和右视点深度图进行预处理,得到左视点深度图像和右视点深度图像;
[0008] 步骤(2)分别对左视点深度图像和右视点深度图像运用K‑means方法进行分割,分为前景区域深度图像和背景区域深度图像,分别对前景区域深度图像和背景区域深度图像进行三维投射运算,得到左视点的前景绘制图像和背景绘制图像、右视点的前景绘制图像和背景绘制图像;
[0009] 步骤(3)分别将左视点和右视点的前景绘制图像和背景绘制图像进行融合:以前景绘制图像为蓝本,用背景绘制图像填充前景绘制图像的空缺区域;得到左视点绘制图像和右视点绘制图像;将填充后的左视点绘制图像和右视点绘制图像进行图像融合,获得虚拟视点绘制图像;
[0010] 步骤(4)将虚拟视点绘制图像的空洞区域根据空洞周围的像素信息进行加权填充,获得最终输出图像。
[0011] 进一步,步骤(1)中所述的预处理包括噪声去除处理和图像平滑处理;其中,噪声去除处理是选取残差神经网络进行处理,图像平滑处理是对噪声去除处理后图像进行开运算处理。
[0012] 进一步,步骤(2)具体是:
[0013] 通过K‑means方法对输入的左视点深度图像进行聚类运算并进行分割,方法是:
[0014] 输入深度图像的像素点像素值分布概率为{p0,p1,…,p255},pi为像素值为i的像素点的分布概率,i=0,1,…,255;
[0015] 设置k个阈值{τ1,τ2,…,τk}输入到K‑means运算中,计算每个像素值与每个阈值间的最小欧式距离 最小欧式距离对应的阈值作为第一次填充值;同时输出新的k个阈值{τ′1,τ′2,…,τ′k}作为下一次迭代运算的输入;
[0016] 每经过一次迭代,选取的阈值τj发生改变;将τj调整为集合Cj内所有元素的统计平均值,Cj为在τj至τj+1之间的像素集合: x为Cj中的像素;
[0017] 前景区域掩模图 前景区域深度图像FG=Depth×MODFG;
[0018] 背景区域掩模图 背景区域深度图像BG=Depth×MODBG;K(i,j)表示填充结果像素值,对应的像素坐标为(i,j),Depth表示深度图像;
[0019] 对前景区域深度图像和背景区域深度图像分别进行三维投射运算,获得前景区域绘制深度图像和背景区域绘制深度图像;
[0020] 分别将前景区域绘制深度图像和背景区域绘制深度图像与原视点的彩色图像分别进行三维投射运算,获得左视点的前景绘制图像和背景绘制图像;
[0021] 对右视点深度图像进行相同操作,获得右视点的前景绘制图像和背景绘制图像。
[0022] 又进一步,步骤(3)中将填充后左视点绘制图像和右视点绘制图像进行图像融合,得到虚拟视点绘制图像,图像中坐标为(x,y)的像素点的像素值Iblend(x,y)为:
[0023] 其中,l(x,y)∈⊙和r(x,y)∈⊙分别表示左视点和右视点在坐标(x,y)处为空洞区域,l(x,y)和分别表示左视点和右视点在坐标(x,y)处不是空洞区域;IL(x,y)和IR(x,y)分别表示左视点绘制图像和右视点绘制图像在坐标(x,y)处的像素值;
[0024] 左视点权重 右视点权重 RL和RR分别为左视点和右视点的空间旋转矩阵,TL和TR分别为左视点和右视点的空间平移向量。
[0025] 更进一步,步骤(4)中空洞区域由所有Iblend(x,y)=0的像素构成,以每个Iblend(x,y)=0的像素的坐标(x,y)为中心5×5大小的区域作为填充区域Ω,填充区域Ω内除(x,y)外的其他24个像素点分为四组,每组六个像素;
[0026] 最终输出图像坐标为(x,y)的像素点的像素值
[0027] 第m组内非空洞像素均值 其中,H(x,y)表示坐标(x,y)处是否为空洞区域,如果是空洞区域则H(x,y)=0,如果不是空洞区域则H(x,y)=1;
[0028] 加权像素总和 Y(x,y)为坐标(x,y)的优先级,W为优先级权重, t为优先级Y(x,y)简写。
[0029] 本发明方法运用噪声去除网络和平滑滤波方法对深度图像进行预处理,有效降低虚拟视点绘制过程中深度图像可能产生的绘制问题,对绘制彩色图像的提升过程也存在积极的影响。该方法将双视点图像进行融合并使用基于几何距离的加权滤波器对融合图像进行优化处理。打破以往通过寻找最佳匹配块的方法,采用像素级别的操作,对空洞区域进行精准处理,使绘制效果在视觉效果上更加优质,更加协和。

实施方案

[0030] 基于K‑means模型的双视点立体视频融合方法,具体是:
[0031] 步骤(1)对左视点深度图和右视点深度图进行预处理,得到左视点深度图像和右视点深度图像;预处理包括噪声去除处理和图像平滑处理;其中,噪声去除处理是选取残差神经网络进行处理,图像平滑处理是对噪声去除处理后图像进行开运算处理。
[0032] 步骤(2)分别对左视点深度图像和右视点深度图像运用K‑means方法进行分割,分为前景区域深度图像和背景区域深度图像,分别对前景区域深度图像和背景区域深度图像进行三维投射运算(3d‑warping),得到左视点的前景绘制图像和背景绘制图像、右视点的前景绘制图像和背景绘制图像;具体是:
[0033] 通过K‑means方法对输入的左视点深度图像进行聚类运算并进行分割,K‑means方法为基于数据统计的聚类方法,将一组数据中相似度较高的数据聚集成一类,然后将数据分为k组集群,使集群之间的距离尽可能达到最大,方法是:
[0034] 输入深度图像的像素点像素值分布概率为{p0,p1,…,p255},pi为像素值为i的像素点的分布概率,i=0,1,…,255;
[0035] 设置k个阈值{τ1,τ2,…,τk}输入到K‑means运算中,计算每个像素值与每个阈值间的最小欧式距离 最小欧式距离对应的阈值作为第一次填充值;同时输出新的k个阈值{τ1′,τ2′,…,τk′}作为下一次迭代运算的输入;
[0036] 每经过一次迭代,选取的阈值τj发生改变;将τj调整为集合Cj内所有元素的统计平均值,Cj为在τj至τj+1之间的像素集合: x为Cj中的像素;
[0037] 前景区域掩模图 前景区域深度图像FG=Depth×MODFG;
[0038] 背景区域掩模图 背景区域深度图像BG=Depth×MODBG;
[0039] K(i,j)表示填充结果像素值,对应的像素坐标为(i,j),Depth表示深度图像。
[0040] 对前景区域深度图像和背景区域深度图像分别进行三维投射运算,获得前景区域绘制深度图像和背景区域绘制深度图像;三维投射运算方法是:
[0041] 其中Mv和M分别表示虚拟视点和原视点的坐标向量;Iv和I分别表示虚拟视点和原视点的相机内部参数矩阵,只与相机的内部性能相关;Rv和R分别表示虚拟视点和原视点的相机外部旋转矩阵,大小为3×3,表示相机在三维空间中旋转角度;Tv和T分别表示虚拟视点和原视点的相机平移向量,大小为3×1,表示相机在三维空间中的平移量。
[0042] 以大小为4×1的原视点坐标向量M为例,M=[x,y,C,D(x,y)]T;T表示转置,x为M的横坐标,y为M的纵坐标,C表示常数系数,本实施例中C=1,D(x,y)为M的深度值,深度值反映图像中景物距离相机的距离,通过深度图像信息可计算得到深度值:
[0043] 其中,Depth(x,y)表示深度图(x,y)处的像素值,MAXZ表示深度图中可取的最大值,本实施例中MAXZ=255;Zmin和Zmax分别表示最小实际深度和最大实际深度,即分别表示拍摄物体据相机最近和最远的距离。
[0044] 分别将前景区域绘制深度图像和背景区域绘制深度图像与原视点的彩色图像分别进行三维投射运算,获得左视点的前景绘制图像和背景绘制图像;
[0045] 对右视点深度图像进行相同操作,获得右视点的前景绘制图像和背景绘制图像。
[0046] 步骤(3)分别将左视点和右视点的前景绘制图像和背景绘制图像进行融合:以前景绘制图像为蓝本,用背景绘制图像填充前景绘制图像的空缺区域;得到左视点绘制图像和右视点绘制图像;将填充后的左视点绘制图像和右视点绘制图像进行图像融合,获得虚拟视点绘制图像,图像中坐标为(x,y)的像素点的像素值Iblend(x,y)为:
[0047] 其中,l(x,y)∈⊙和r(x,y)∈⊙分别表示左视点和右视点在坐标(x,y)处为空洞区域,l(x,y)和 分别表示左视点和右视点在坐标(x,y)处不是空洞区域;IL(x,y)和IR(x,y)分别表示左视点绘制图像和右视点绘制图像在坐标(x,y)处的像素值;
[0048] 左视点权重 右视点权重 RL和RR分别为左视点和右视点的空间旋转矩阵,TL和TR分别为左视点和右视点的空间平移向量。
[0049] 步骤(4)将虚拟视点绘制图像的空洞区域根据空洞周围的像素信息进行加权填充,获得最终输出图像。空洞区域由所有Iblend(x,y)=0的像素构成,以每个Iblend(x,y)=0的像素的坐标(x,y)为中心5×5大小的区域作为填充区域Ω,填充区域Ω内除(x,y)外的其他24个像素点分为四组,每组六个像素。
[0050] 最终输出图像坐标为(x,y)的像素点的像素值
[0051] 第m组内非空洞像素均值 其中,H(x,y)表示坐标(x,y)处是否为空洞区域,如果是空洞区域则H(x,y)=0,如果不是空洞区域则H(x,y)=
1;加权像素总和 Y(x,y)为坐标(x,y)的优先级,W
为优先级权重, t为优先级Y(x,y)简写。
版权所有:盲专网 ©2023 zlpt.xyz  蜀ICP备2023003576号