[0051] 下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于
本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他
实施例,都属于本发明保护的范围。
[0052] 自然场景的动态范围高达9个数量级,而普通消费相机拍摄的图像的动态范围小于3个数量级,这会导致成像在场景过亮区域泛白,造成信息丢失现象,此外,现有立体成像技术愈发成熟,将立体视觉系统与高动态范围成像技术有机结合,可以为用户提供更高质
量的双目体验,针对此,本发明提出了一种基于生成对抗网络的立体高动态范围成像方法,
其首先考虑到立体高动态范围成像的核心在于生成主视点下的额外曝光图像,因此在假定
左视点为主视点的条件下,将右视点的曝光信息传递给左视点以生成左视点额外曝光图
像,并与原始左视点图像构成多曝光序列;再利用视点融合生成对抗网络提取融合特征,生
成最终的高质量左视点HDR图像。
[0053] 本发明方法的总体实现流程框图和网络的结构示意图如图1所示,本发明方法包括以下步骤:
[0054] 步骤一:构建两个级联的生成对抗网络和立体高动态范围成像数据库;构建立体高动态范围成像数据库,用以输入并存储标签图像,该立体高动态范围成像数据库包括多
视点多曝光图像、曝光传递标签图像和融合标签图像,所述融合标签图像为三幅同一视点
不同曝光的图像合成而来;其中,假定输入图像为左视点欠曝光图像和右视点过曝光图像,
则对应曝光传递生成对抗网络的标签图像为左视点过曝光图像,称为曝光传递标签图像;
所述第一级生成对抗网络为视点曝光传递生成对抗网络,所述第二级生成对抗网络为视点
融合生成对抗网络;
[0055] 如图1所示,视点曝光传递生成对抗网络包括生成网络和判别网络,其中生成网络包括三部分,分别为内容编码器,曝光编码器和重建解码器,其中:
[0056] 视点曝光传递生成对抗网络中生成网络的内容编码器通过卷积核对输入的图像进行卷积提取出内容特征图,所述内容编码器由两层卷积层和四层扩张卷积层构成,依次
为内容第一卷积层、内容第二卷积层、内容第一扩张卷积层、内容第二扩张卷积层、内容第
三扩张卷积层、内容第四扩张卷积层,将输入左视点图像记为Fcontent,0,令i表示卷积层的索引号,i=1,2,i=1时代表内容第一卷积层,i=2时代表内容第二卷积层,索引号为i的卷积层的输入为Fcontent,i-1,将索引号为i的卷积层的输出记为Fcontent,i,Fcontent,i=A(Wcontent,i*Fcontent,i-1+bcontent,i),其中,索引号为i的卷积层的激活函数为带泄露线性整流函数,A()表示带泄露线性整流函数,索引号为i的卷积层的卷积步长为i,索引号为i的卷积层输入的通
道数为mcontent,i,索引号为i的卷积层输出的通道数为ncontent,i,Wcontent,i表示索引号为i的卷积层的卷积核,Wcontent,i的维数为kcontent,i×kcontent,i,符号“*”为卷积操作符号,bcontent,i表示维数为1×ncontent,i的偏置项;内容第一扩张卷积层的输入是内容第二卷积层的输出,即
Fcontent,2,令j表示扩张卷积层的索引号,j=1,2,3,4,j=1时代表内容第一扩张卷积层,j=
2时代表内容第二扩张卷积层,j=3时代表内容第三扩张卷积层,j=4时代表内容第四扩张
卷积层,索引号为j的扩张卷积层的输入为Fcontent,j+1,将索引号为j的扩张卷积层的输出记为Fcontent,j+2, 其中,索引号为j
的扩张卷积层的激活函数为带泄露线性整流函数,A()表示带泄露线性整流函数,索引号
为j的扩张卷积层的卷积步长为1,索引号为j的扩张卷积层输入的通道数为mcontent,j+2,索引号为j的扩张卷积层输出的通道数为ncontent,j+2,Wcontent,j+2表示索引号为j的扩张卷积层的卷积核,扩张系数记为Dcontent,j+2,Wcontent,j+2的维数为kcontent,j+2×kcontent,j+2,符号 为扩张卷积操作符号,bcontent,j+2表示维数为1×ncontent,j+2的偏置项;扩张卷积支持指数扩展图像感受野,且不降低图像分辨率,因此能够充分利用图像的上下文信息以提高生成图像
的质量;
[0057] 视点曝光传递生成对抗网络中生成网络的曝光编码器通过卷积核对输入的图像进行卷积提取出曝光特征图,所述曝光编码器由两层卷积层和四层扩张卷积层构成,依次
为曝光第一卷积层、曝光第二卷积层、曝光第一扩张卷积层、曝光第二扩张卷积层、曝光第
三扩张卷积层、曝光第四扩张卷积层,将输入右视点图像记为Fexposure,0,令p表示卷积层的索引号,p=1,2,p=1时代表曝光第一卷积层,p=2时代表曝光第二卷积层,索引号为p的卷积层的输入为Fexposure,p-1,将索引号为p的卷积层的输出记为Fexposure,p,Fexposure,p=A(Wexposure,p*Fexposure,p-1+bexposure,p),其中,索引号为p的卷积层的激活函数为带泄露线性整流函数,A()表示带泄露线性整流函数,索引号为p的卷积层的卷积步长为p,索引号为p的卷
积层输入的通道数为mexposure,p,索引号为p的卷积层输出的通道数为nexposure,p,Wexposure,p表示索引号为p的卷积层的卷积核,Wexposure,p的维数为kexposure,p×kexposure,p,符号“*”为卷积操作符号,bexposure,p表示维数为1×nexposure,p的偏置项;曝光第一扩张卷积层的输入是曝光第二卷积层的输出,即Fexposure,2,令q表示扩张卷积层的索引号,q=1,2,3,4,q=1时代表曝光第一扩张卷积层,q=2时代表曝光第二扩张卷积层,q=3时代表曝光第三扩张卷积层,q=4
时代表曝光第四扩张卷积层,索引号为q的扩张卷积层的输入为Fexposure,q+1,将索引号为q的扩张卷积层的输出记为Fexposure,q+2,
其中,索引号为q的扩张卷
积层的激活函数为带泄露线性整流函数,A()表示带泄露线性整流函数,索引号为q的扩张
卷积层的卷积步长为1,索引号为q的扩张卷积层输入的通道数为mexposure,q+2,索引号为q的扩张卷积层输出的通道数为nexposure,q+2,Wexposure,q+2表示索引号为q的扩张卷积层的卷积核,扩张系数记为Dexposure,q+2,Wexposure,q+2的维数为kexposure,q+2×kexposure,q+2,符号 为扩张卷积操作符号,bexposure,q+2表示维数为1×nexposure,q+2的偏置项;
[0058] 视点曝光传递生成对抗网络中生成网络的重建解码器是通过卷积核对内容编码器和曝光编码器的输出的级联结果进行解码,重构输出与原始输入图像同尺寸的目标图
像,所述重建解码器由两层卷积层和一层反卷积层构成,依次为重建第一卷积层、重建第一
反卷积层、重建第二卷积层,判别网络由五层卷积层构成,依次为判别第一卷积层、判别第
二卷积层、判别第三卷积层、判别第四卷积层、判别第五卷积层,该重建第一卷积层的输入
是内容编码器和曝光编码器中扩张卷积层的输出的级联结果,通过聚合4层扩张卷积层的
输出能够充分利用图像的上下文信息 ,以丰富输出图像的 细节,记为
其中,concat[]表示级联算子,∑表示求和算
子,l表示特征图索引,将重建第一卷积层的输出记为Rrec,1,Rrec,1=A(Wrec,1*Frec+brec,1),其中,重建第一卷积层的激活函数为带泄露线性整流函数,A()表示带泄露线性整流函数,重
建第一卷积层的卷积步长为1,重建第一卷积层输入的通道数为mrec,1,重建第一卷积层输出的通道数为nrec,1,Wrec,1表示重建第一卷积层的卷积核,Wrec,1的维数为krec,1×krec,1,符号“*”为卷积操作符号,brec,1表示维数为1×nrec,1的偏置项;重建第一反卷积层的输入是重建第一卷积层的输出,即Rrec,1,将重建第一反卷积层的输出记为Rrec,2,Rrec,2=A(Wrec,2⊙Rrec,1+brec,2),其中,重建第一反卷积层的激活函数为带泄露线性整流函数,A()表示带泄露线性整流函数,重建第一反卷积层的步长为2,重建第一反卷积层输入的通道数为mrec,2,重建第一反卷积层输出的通道数为nrec,2,Wrec,2表示重建第一反卷积层的卷积核,Wrec,2的维数为krec,2×krec,2,符号“⊙”为反卷积操作符号,brec,2表示维数为1×nrec,2的偏置项;重建第二卷积层的输入是重建第一反卷积层,内容第一卷积层和曝光第一卷积层的相加输出,记为
R'rec,2=Rrec,2+Fcontent,1+Fexposure,1,将重建第二卷积层的输出记为Rrec,3,Rrec,3=S(Wrec,3*R'rec,2+brec,3),其中,重建第二卷积层的激活函数为sigmoid函数,S()表示sigmoid函数,重建第二卷积层的卷积步长为1,重建第二卷积层输入的通道数为mrec,3,重建第二卷积层输出的通道数为nrec,3,Wrec,3表示重建第二卷积层的卷积核,Wrec,3的维数为krec,3×krec,3,brec,3表示维数为1×nrec,3的偏置项;
[0059] 视点曝光传递生成对抗网络中的判别网络通过卷积核对输入的图像进行卷积,最终得到对图像真假判断的概率,该判别网络的输入为重建解码器的输出结果和曝光传递标
签图像,将输入图像记为Ft_disc,0,令h表示卷积层的索引号,h=1,2,3,4,5,h=1时代表判别第一卷积层,h=2时代表判别第二卷积层,h=3时代表判别第三卷积层,h=4时代表判别第
四卷积层,h=5时代表判别第五卷积层,索引号为h的卷积层的输入为Ft_disc,h-1,将索引号为h的卷积层的输出记为Ft_disc,h,Ft_disc,h=A(Wt_disc,h*Ft_disc,h-1+bt_disc,h),其中,索引号为h的卷积层的激活函数为带泄露线性整流函数,A()表示带泄露线性整流函数,索引号为h=
1,2,3,4的卷积层的卷积步长为2,索引号为h=5的卷积层的卷积步长为1,索引号为h的卷
积层输入的通道数为mt_disc,h,索引号为h的卷积层输出的通道数为nt_disc,h,Wt_disc,h表示索引号为h的卷积层的卷积核,Wt_disc,h的维数为kt_disc,h×kt_disc,h,符号“*”为卷积操作符号,bt_disc,h表示维数为1×nt_disc,h的偏置项;
[0060] 所述视点融合生成对抗网络中的生成网络通过卷积核对输入的图像进行卷积提取融合特征,最终得到融合图像,该视点融合生成对抗网络包括融合生成网络和融合判别
网络,其中所述融合生成网络包括九层,依次分别为第一卷积层、第二卷积层、第一扩张卷
积层、第二扩张卷积层、第三扩张卷积层、第四扩张卷积层、第三卷积层、第一反卷积层、第四卷积层,具体来说,所述第一卷积层的输入是原始左视点图像和视点曝光传递生成对抗
网络的输出的级联结果,记为Ffusion,0=concat[Fcontent,0,Rrec,3],其中,concat[]表示级联算子,令s表示卷积层的索引号,s=1,2,s=1时代表第一卷积层,s=2时代表第二卷积层,索引号为s的卷积层的输入为Ffusion,s-1,将索引号为s的卷积层的输出记为Ffusion,s,Ffusion,s=A(Wfusion,s*Ffusion,s-1+bfusion,s),其中,索引号为s的卷积层的激活函数为带泄露线性整流函数,A()表示带泄露线性整流函数,索引号为s的卷积层的卷积步长为s,索引号为s的卷
积层输入的通道数为mfusion,s,索引号为s的卷积层输出的通道数为nfusion,s,Wfusion,s表示索引号为s的卷积层的卷积核,Wfusion,s的维数为kfusion,s×kfusion,s,符号“*”为卷积操作符号,bfusion,s表示维数为1×nfusion,s的偏置项;第一扩张卷积层的输入是第二卷积层的输出,即Ffusion,2,令g表示扩张卷积层的索引号,g=1,2,3,4,g=1时代表第一扩张卷积层,g=2时代表第二扩张卷积层,g=3时代表第三扩张卷积层,g=4时代表第四扩张卷积层,索引号为g
的扩张卷积层的输入为Ffusion,g+1,将索引号为g的扩张卷积层的输出记为Ffusion,g+2,
其中,索引号为g的扩张卷积层的激
活函数为带泄露线性整流函数,A()表示带泄露线性整流函数,索引号为g的扩张卷积层的
卷积步长为1,索引号为g的扩张卷积层输入的通道数为mfusion,g+2,索引号为g的扩张卷积层输出的通道数为nfusion,g+2,Wfusion,g+2表示索引号为g的扩张卷积层的卷积核,扩张系数记为Dfusion,g+2,Wfusion,g+2的维数为kfusion,g+2×kfusion,g+2,符号 为扩张卷积操作符号,bfusion,g+2表示维数为1×nfusion,g+2的偏置项;第三卷积层的输入是第四扩张卷积层的输出,即Ffusion,6,将第三卷积层的输出记为Ffusion,7,Ffusion,7=A(Wfusion,7*Ffusion,6+bfusion,7),其中,第三卷积层的激活函数为带泄露线性整流函数,A()表示带泄露线性整流函数,第三卷积
层的卷积步长为1,第三卷积层输入的通道数为mfusion,7,第三卷积层输出的通道数为
nfusion,7,Wfusion,7表示第三卷积层的卷积核,Wfusion,7的维数为kfusion,7×kfusion,7,符号“*”为卷积操作符号,bfusion,7表示维数为1×nfusion,7的偏置项;第一反卷积层的输入是第三卷积层和第二卷积层的相加输出,记为F'fusion,7=Ffusion,7+Ffusion,2,将第一反卷积层的输出记为Ffusion,8,Ffusion,8=A(Wfusion,8⊙F'fusion,7+bfusion,8),其中,第一反卷积层的激活函数为带泄露线性整流函数,A()表示带泄露线性整流函数,第一反卷积层的步长为2,第一反卷积层
输入的通道数为mfusion,8,第一反卷积层输出的通道数为nfusion,8,Wfusion,8表示第一反卷积层的卷积核,Wfusion,8的维数为kfusion,8×kfusion,8,符号“⊙”为反卷积操作符号,bfusion,8表示维数为1×nfusion,8的偏置项;第四卷积层的输入是第一反卷积层和第一卷积层的相加输出,记为F'fusion,8=Ffusion,8+Ffusion,1,将第四卷积层的输出记为Ffusion,9,Ffusion,9=S(Wfusion,9*F'fusion,8+bfusion,9),其中,第四卷积层的激活函数为sigmoid函数,S()表示sigmoid函数,第四卷积层的卷积步长为1,第四卷积层输入的通道数为mfusion,9,第四卷积层输出的通道数为nfusion,9,Wfusion,9表示第四卷积层的卷积核,Wfusion,9的维数为kfusion,9×kfusion,9,bfusion,9表示维数为1×nfusion,9的偏置项;
[0061] 视点融合生成对抗网络中的融合判别网络通过卷积核对输入的图像进行卷积,最终得到对图像真假判断的概率,所述融合判别网络的输入为融合生成网络的输出结果和融
合标签图像,该融合判别网络包括五层,依次为融合判别第一卷积层、融合判别第二卷积
层、融合判别第三卷积层、融合判别第四卷积层、融合判别第五卷积层;具体来说,将输入图像记为Ff_disc,0,令w表示卷积层的索引号,w=1,2,3,4,5,w=1时代表融合判别第一卷积层,w=2时代表融合判别第二卷积层,w=3时代表融合判别第三卷积层,w=4时代表融合判别
第四卷积层,w=5时代表融合判别第五卷积层,索引号为w的卷积层的输入为Ff_disc,w-1,将索引号为w的卷积层的输出记为Ff_disc,w,Ff_disc,w=A(Wf_disc,w*Ff_disc,w-1+bf_disc,w),其中,索引号为w的卷积层的激活函数为带泄露线性整流函数,A()表示带泄露线性整流函数,索引
号为w=1,2,3,4的卷积层的卷积步长为2,索引号为w=5的卷积层的卷积步长为1,索引号
为w的卷积层输入的通道数为mf_disc,w,索引号为w的卷积层输出的通道数为nf_disc,w,Wf_disc,w表示索引号为w的卷积层的卷积核,Wf_disc,w的维数为kf_disc,w×kf_disc,w,符号“*”为卷积操作符号,bf_disc,w表示维数为1×nf_disc,w的偏置项;
[0062] 步骤二:选取 个左右视点多曝光序列,假定训练和测试的左视点图像属于欠曝光,右视点图像属于过曝光,其中, 在本实施例中取 左右视点多曝光序列可
以自行用立体相机拍摄,也可采用现有的多视点多曝mexposure,2=16光序列来构造,高质量的HDR图像采用软件photomatix Pro 6.1.1合成;然后将左视点欠曝光图像、右视点过曝光
图像和对应的左视点过曝光图像构成曝光传递训练集;接着将曝光传递训练集中的左视点
欠曝光图像记为Fcontent,0并作为输入,将右视点过曝光图像记为Fexposure,0并作为输入,将左视点过曝光图像作为标签图像,输入到构建好的视点曝光传递生成对抗网络中进行训练,
生成网络和判别网络迭代训练,训练得到对应的预测左视点过曝光图像,即Rrec,3;之后将左右视点多曝光序列中的左视点欠曝光图像、左视点过曝光图像和对应的高质量左视点HDR
图像构成视点融合训练集;然后将视点融合训练集中的左视点过曝光图像记为R′rec,3,即
Rrec,3为R′rec,3,并将左视点欠曝光图像Fcontent,0和左视点过曝光图像R′rec,3作为输入,将高质量左视点HDR图像作为标签,输入到构建好的视点融合生成对抗网络中进行训练,生成网
络和判别网络迭代训练,训练得到对应的预测左视点HDR图像,记为Ileft_hdr,即Ffusion,9为Ileft_hdr,训练结束后得到了视点曝光传递生成对抗网络和视点融合生成对抗网络中的各卷积核和偏置项的最佳参数,即得到了训练好的级联生成对抗网络;
[0063] 步骤三:选取一组左右视点不同曝光图像作为测试序列;然后将测试序列中的左视点欠曝光图像记为Itest,left_under,右视点过曝光图像记为Itest,right_over;接着将
Itest,left_under和Itest,right_over作为输入,输入到训练好的级联生成对抗网络中,网络输出对应的左视点HDR图像,记为Itest,left_hdr。
[0064] 在本实施例的步骤一中,取kcontent,1=3,mcontent,1=3,ncontent,1=16;kcontent,2=3,mcontent,2=16,ncontent,2=32;kcontent,3=3,mcontent,3=32,ncontent,3=32,Dcontent,3=1;kcontent,4=3,mcontent,4=32,ncontent,4=32,Dcontent,4=2;kcontent,5=3,mcontent,5=32,ncontent,5=32,Dcontent,5=4;kcontent,6=3,mcontent,6=32,ncontent,6=32,Dcontent,6=8;kexposure,1=3,mexposure,1=3,nexposure,1=16;kexposure,2=3,,nexposure,2=32;kexposure,3=3,mexposure,3=32,nexposure,3=32,Dexposure,3=1;kexposure,4=3,mexposure,4=32,nexposure,4=32,Dexposure,4=2;kexposure,5=3,mexposure,5=32,nexposure,5=32,Dexposure,5=4;kexposure,6=3,mexposure,6=32,nexposure,6=32,Dexposure,6=8;krec,1=3,mrec,1=64,nrec,1=32;krec,2=3,mrec,2=32,nrec,2=16;krec,3=3,mrec,3=16,nrec,3=3;kt_disc,1=4,mt_disc,1=3,nt_disc,1=64;kt_disc,2=4,mt_disc,2=64,nt_disc,2=128;kt_disc,3=4,mt_disc,3=128,nt_disc,3=256;kt_disc,4=4,mt_disc,4=256,nt_disc,4=512;kt_disc,5=4,mt_disc,5=512,nt_disc,5=1。取kfusion,1=3,mfusion,1=3,nfusion,1=16;
kfusion,2=3,mfusion,2=16,nfusion,2=32;kfusion,3=3,mfusion,3=32,nfusion,3=32,Dfusion,3=1;
kfusion,4=3,mfusion,4=32,nfusion,4=32,Dfusion,4=2;kfusion,5=3,mfusion,5=32,nfusion,5=32,Dfusion,5=4;kfusion,6=3,mfusion,6=32,nfusion,6=32,Dfusion,6=8;kfusion,7=3,mfusion,7=32,nfusion,7=32;kfusion,8=3,mfusion,8=32,nfusion,8=16;kfusion,9=3,mfusion,9=16,nfusion,9=3;
kf_disc,1=4,mf_disc,1=3,nf_disc,1=64;kf_disc,2=4,mf_disc,2=64,nf_disc,2=128;kf_disc,3=4,mf_disc,3=128,nf_disc,3=256;kf_disc,4=4,mf_disc,4=256,nf_disc,4=512;kf_disc,5=4,mf_disc,5=512,nf_disc,5=1;
[0065] 为了进一步说明本发明方法的可行性和有效性,进行如下实验。
[0066] 本发明方法采用TensorFlow框架实现。训练和测试采用的左右视点不同曝光图像来自Middlebury数据库,该数据库为每个场景提供了7个视点图像,并且每个视点包括三种
照度和三种曝光,所以以视点间隔为1来选择左右视点图像,即将视点0作为左视点,视点1
作为右视点,以此类推,将视点5作为左视点,视点6作为右视点,同时假定左视点图像属于
欠曝光,右视点图像属于过曝光,共收集到540组图像,按照7:1:2的比率随机划分训练集,
验证集和测试集,即训练集图像数目为378,验证集图像数目为54,测试集图像数目为108。
为增加训练样本,将训练集中所有图像进行颜色通道转换和翻转,其中,颜色通道转换有6
种组合,翻转包括水平,垂直以及水平垂直三种方向,因此共产生18种不同组合的增强方
式,将所有图像裁剪为128×128的非重叠图像块。
[0067] 视点曝光传递生成对抗网络和视点融合生成对抗网络的初始学习率均设置为10-4,并在完成一次训练后,以0.95的衰减系数衰减学习率。网络中的所有卷积核的参数和偏
置项的初始值均采用均值为0、标准差为0.02的截断正态分布的随机值。
[0068] 为稳定生成对抗网络的训练,采用最小二乘损失。此外,为保证生成图像的内容保持不变,视点曝光传递生成对抗网络中生成网络的损失分为两项,第一项为内容损失,包括
结构相异性损失和由水平以及竖直梯度滤波器产生的高频细节损失;第二项为由判别网络
产生的对抗损失,第一项的权重设置为10。视点融合生成对抗网络中生成网络的损失也分
为两项,第一项为内容损失,其中,由于高动态范围图像的像素变换很大,很难利用网络学
习精确的映射关系,所以计算色调映射后图像的损失,采用结构相异性损失,色调映射采用
Gamma色调映射算子;第二项为由判别网络产生的对抗损失,第一项的权重设置为10。利用
ADAM优化器训练网络。
[0069] 为测试本发明方法的有效性和普适性,采用不同于训练样本的图像进行测试。使用的测试图像的基本信息如表1所示,图像分辨率均采样到1390×1110。
[0070] 表1测试图像信息
[0071]
[0072]
[0073] 为了说明本发明方法的性能,采用PSNR、SSIM和FSIM三种图像质量客观评价方式来评价视点曝光传递生成对抗网络生成的图像质量,其中,PSNR衡量生成图像与参考图像
的像素级差异,SSIM和FSIM从视觉感知角度出发,衡量生成图像与参考图像的结构差异和
细节差异。对比算法一是本发明方法,二是将本发明方法去除判别网络,即基于卷积神经网
络的立体HDR成像,简称为SHDRI_CNN。表2给出了对比结果,对所有测试图像的质量分数取
均值显示。从表2所列的数据可以看出,采用本发明方法在PSNR和FSIM指标上均高于SHDRI_
CNN,其中,本发明方法在PSNR值上提升了显著的3.3612dB,而在SSIM指标上接近SHDRI_
CNN。
[0074] 表2采用本发明方法与SHDRI_CNN在图像客观质量评价指标上的对比
[0075]
[0076] 图2a-2d和图3a-3d给出了视点曝光传递生成对抗网络的性能的主观对比。图2a给出了Laundry序列中的测试图像,图2b给出了SHDRI_CNN对图2a所示的图像进行处理得到的
左视点过曝光图像,图2c给出了本发明方法对图2a所示的图像进行处理得到的左视点过曝
光图像,图2d给出了标签图像,即Ground Truth;图3a给出了Moebius序列中的测试图像,图
3b给出了SHDRI_CNN对图3a所示的图像进行处理得到的左视点过曝光图像,图3c给出了本
发明方法对图3a所示的图像进行处理得到的左视点过曝光图像,图3d给出了标签图像,即
Ground Truth;从图2a至图3d中可以看出,本发明方法得到的图像在亮度和细节上更接近
标签图像,而SHDRI_CNN得到的图像在亮度上有偏差,如图2b窗户的周边区域,颜色偏灰,但在参考图像中由于过曝光导致颜色为纯白,此外,SHDRI_CNN得到的图像会有过多的细节增
强效果,如图3b的右下方放大区域。
[0077] 图4a-4d和图5a-5d给出了视点融合生成对抗网络的性能的主观对比。图4a给出Dolls序列中的测试图像,图4b给出了两图像融合得到的左视点HDR图像,图4c给出了本发
明方法对图4a所示的图像进行处理得到的左视点HDR图像,图4d给出了标签图像;图5a给出
了Art序列中的测试图像,图5b给出了两图像融合得到的左视点HDR图像,图5c给出了本发
明方法对图5a所示的图像进行处理得到的左视点HDR图像,图5d给出了标签图像;从图4a至
图5d中可以看出,本发明方法得到的图像在主观质量上更接近标签图像,且不存在由于视
差导致的鬼影伪像,而两图像融合结果是直接采用单视点多曝光图像,虽然不存在鬼影伪
像,但出现了明显的细节丢失和亮度失真现象,如图5b的左侧区域,这证明了本发明方法学
习了低质量融合图像到高质量融合图像的转换过程。
[0078] 本发明方法的创新性主要体现如下:传统的SHDRI方法是简单结合立体成像技术和HDRI技术,处理步骤较多,且容易产生误差累积问题,本发明方法通过曝光传递跳过了复
杂的立体匹配和空洞填补处理,并利用HDR图像合成软件融合三幅不同曝光图像以产生高
质量的标签图像,使视点融合生成对抗网络不仅执行左右视点不同曝光图像的融合任务,
也执行低质量融合图像到高质量融合图像的转换任务。
[0079] 尽管参照前述实施例对本发明进行了详细的说明,对于本领域的技术人员来说,其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等
同替换,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。