欢迎来到知嘟嘟! 联系电话:13336804447 卖家免费入驻,海量在线求购! 卖家免费入驻,海量在线求购!
知嘟嘟
我要发布
联系电话:13336804447
知嘟嘟经纪人
收藏
专利号: 2017100413756
申请人: 宁波大学
专利类型:发明专利
专利状态:已下证
专利领域: 电通信技术
更新日期:2024-05-17
缴费截止日期: 暂无
价格&联系人
年费信息
委托购买

摘要:

权利要求书:

1.一种结合JND模型的交叉验证深度图质量评价方法,其特征在于包括以下步骤:

①将待评价的深度图记为Dtar,将Dtar对应的彩色图记为Τtar,将除Dtar和Τtar所在视点外的另一个已知视点定义为辅助视点,将辅助视点上的彩色图记为Tref;然后通过将Dtar中的所有像素点的像素值转化为视差值,将Τtar中的所有像素点经3D-Warping映射到Tref中;

其中,Dtar、Τtar和Tref的垂直方向上的像素点的总个数为M,Dtar、Τtar和Tref的水平方向上的像素点的总个数为N;

②令Etar表示尺寸大小与Dtar的尺寸大小相同的差值图,将Etar中坐标位置为(x,y)的像素点的像素值记为Etar(x,y),当辅助视点在Dtar和Τtar所在视点的左边时,判断y+dtar,p(x,y)是否大于N,如果是,则令Etar(x,y)=0,否则,满足u=x、v=y+dtar,p(x,y),Etar(x,y)=|Ιtar(x,y)-Ιref(u,v)|;当辅助视点在Dtar和Τtar所在视点的右边时,判断y-dtar,p(x,y)是否小于1,如果是,则令Etar(x,y)=0,否则,满足u=x、v=y-dtar,p(x,y),Etar(x,y)=|Ιtar(x,y)-Ιref(u,v)|;其中,1≤x≤M,1≤y≤N,1≤u≤M,1≤v≤N,dtar,p(x,y)表示Dtar中坐标位置为(x,y)的像素点的像素值转化得到的视差值,符号“| |”为取绝对值符号,Ιtar(x,y)表示Τtar中坐标位置为(x,y)的像素点的亮度分量,Ιref(u,v)表示Tref中坐标位置为(u,v)的像素点的亮度分量;

③令C表示尺寸大小与Dtar的尺寸大小相同的遮挡掩膜图像,将C中坐标位置为(x,y)的像素点的像素值记为C(x,y),将C中的每个像素点的像素值初始化为0,将Τtar中经3D-Warping映射到Tref中坐标位置为(u,v)处的像素点的总个数记为N(u,v);当N(u,v)=1时,令C(x,y)=0;当N(u,v)>1时, 其中,N(u,v)的值为0或为1或大于1,Dtar(x,y)表示Dtar中坐标位置为(x,y)的像素点的像素值,max()为取最大值函数,1≤x(u,v),i≤M,1≤y(u,v),i≤N,(x(u,v),i,y(u,v),i)表示Τtar中经3D-Warping映射到Tref中坐标位置为(u,v)处的N(u,v)个像素点中的第i个像素点在Τtar中的坐标位置,Dtar(x(u,v),i,y(u,v),i)表示Dtar中坐标位置为(x(u,v),i,y(u,v),i)的像素点的像素值;

④利用C去除Etar中被遮挡的像素点,得到去遮挡后的差值图,记为E'tar,将E'tar中坐标位置为(x,y)的像素点的像素值记为E'tar(x,y),E'tar(x,y)=Etar(x,y)×(1-C(x,y));

⑤计算Tref中的每个像素点的纹理判断因子,将Tref中坐标位置为(u,v)的像素点的纹理判断因子记为z(u,v), 其中,1≤u≤M,1≤v≤N,zh(u,v)表示Tref中坐标位置为(u,v)的像素点的水平方向的纹理判断因子,zh(u,v)的值为1或0,zh(u,v)=1表示Tref中坐标位置为(u,v)的像素点为水平方向的纹理像素点,zh(u,v)=0表示Tref中坐标位置为(u,v)的像素点为水平方向的非纹理像素点,zv(u,v)表示Tref中坐标位置为(u,v)的像素点的垂直方向的纹理判断因子,zv(u,v)的值为1或0,zv(u,v)=1表示Tref中坐标位置为(u,v)的像素点为垂直方向的纹理像素点,zv(u,v)=0表示Tref中坐标位置为(u,v)的像素点为垂直方向的非纹理像素点;

⑥令T表示尺寸大小与Tref的尺寸大小相同的区域标记图,将T中坐标位置为(u,v)的像素点的像素值记为T(u,v),将T中的每个像素点的像素值初始化为0;利用Canny算子检测出Tref中的边缘区域,假设Tref中坐标位置为(u,v)的像素点属于边缘区域,则令T(u,v)=1;假设Tref中坐标位置为(u,v)的像素点的纹理判断因子z(u,v)=1,则当T(u,v)=0时确定Tref中坐标位置为(u,v)的像素点属于纹理区域,并重新令T(u,v)=2;其中,T(u,v)的值为0或1或2,T(u,v)=0代表Tref中坐标位置为(u,v)的像素点属于平坦区域,T(u,v)=1代表Tref中坐标位置为(u,v)的像素点属于边缘区域,T(u,v)=2代表Tref中坐标位置为(u,v)的像素点属于纹理区域;

⑦引入基于亮度掩蔽和纹理掩蔽效应的JND模型,利用JND模型,并根据Tref中的每个像素点所属区域,计算Tref中的每个像素点的误差可视阈值,将Tref中坐标位置为(u,v)的像素点的误差可视阈值记为Th(u,v), 其中,max()为取最大值函数,min()为取最小值函数,bg(u,v)表示Tref中坐标位置为(u,v)的像素点的平均背景亮度,mg(u,v)表示Tref中坐标位置为(u,v)的像素点的周围亮度的最大平均加权,LA(u,v)表示Tref中坐标位置为(u,v)的像素点的亮度掩蔽效应,f(bg(u,v),mg(u,v))=mg(u,v)×α(bg(u,v))+β(bg(u,v)),α(bg(u,v))=bg(u,v)×

0.0001+0.115,β(bg(u,v))=0.5-bg(u,v)×0.01;

⑧令E表示尺寸大小与Dtar的尺寸大小相同的深度误差图,将E中坐标位置为(x,y)的像素点的像素值记为E(x,y),当E'tar(x,y)=0时,E(x,y)=0;当E'tar(x,y)≠0时,其中,V(x,y)=(u,v)表示一个映射过程,(x,y)为Τtar中的像素点的坐标位置,(u,v)为Tref中的像素点的坐标位置,当Tref所在视点在Τtar所在视点的左边时,满足u=x、v=y+dtar,p(x,y);当Tref所在视点在Τtar所在视点的右边时,满足u=x、v=y-dtar,p(x,y);

⑨统计E中像素值为1的像素点的总个数,记为numE;然后计算Dtar中的错误像素点的比率作为Dtar的质量评价值,记为EPR,

2.根据权利要求1所述的结合JND模型的交叉验证深度图质量评价方法,其特征在于所述的步骤①中将Dtar中的所有像素点的像素值转化为视差值的具体过程为:对于Dtar中坐标位置为(x,y)的像素点,将其像素值转化得到的视差值记为dtar,p(x,y),其中,1≤x≤M,1≤y≤N,b表示相机间

的基线距离,f表示相机的焦距,Znear为最近实际景深,Zfar为最远实际景深,Dtar(x,y)表示Dtar中坐标位置为(x,y)的像素点的像素值。

3.根据权利要求1或2所述的结合JND模型的交叉验证深度图质量评价方法,其特征在于所述的步骤⑤中zh(u,v)和zv(u,v)的获取过程为:⑤_1、计算Tref中的每个像素点沿水平方向的差分信号,将Tref中坐标位置为(u,v)的像素点沿水平方向的差分信号记为dh(u,v), 其中,Iref(u,v+1)表示Tref中坐标位置为(u,v+1)的像素点的亮度分量;

⑤_2、计算Tref中的每个像素点沿水平方向的差分信号的特征符号,将dh(u,v)的特征符号记为symdh(u,v),⑤_3、计算zh(u,v), 其中,dhsym(u,v)为中间变量,

symdh(u,v+1)表示

Tref中坐标位置为(u,v+1)的像素点沿水平方向的差分信号的特征符号;

⑤_4、计算Tref中的每个像素点沿垂直方向的差分信号,将Tref中坐标位置为(u,v)的像素点沿垂直方向的差分信号记为dv(u,v),其中,Iref(u+1,v)表示Tref中坐标位置为(u+1,v)的像素点的亮度分量;

⑤_5、计算Tref中的每个像素点沿垂直方向的差分信号的特征符号,将dv(u,v)的特征符号记为symdv(u,v),⑤_6、计算zv(u,v), 其中,dvsym(u,v)为中间变量,

symdv(u+1,v)表示

Tref中坐标位置为(u+1,v)的像素点沿垂直方向的差分信号的特征符号。