1.一种基于深度学习的改进单模式自解相条纹投影三维测量方法,其特征在于,包括以下步骤:搭建条纹投影虚拟测量系统;
在条纹投影虚拟测量系统中制备数据集;
搭建条纹预测自解相网络模型;
通过条纹投影虚拟测量系统制备的数据集进行模型训练;
通过相机采集被测物体的单张变形条纹图像;
将被测物体的单张变形条纹图像输入至条纹预测自解相网络模型预测被测物体其余三张变形条纹图像;
将获取的四张变形条纹图像通过单模式自解相方法进行相位解算得到包裹相位和条纹级次;
相位展开得到绝对相位;
所述条纹预测自解相网络模型包括:编码器,跳跃连接,解码器三个部分;
编码器包括三层卷积层和下采样卷积模块;解码器包括三层输出卷积层和上采样卷积模块;编码器和解码器之间在三个不同尺度上通过双重注意力模块构成的跳跃连接进行特征拼接;
编码器末端由双注意力模块搭配Transformer模块对全局特征进行处理,再由解码器进行逐层卷积和上采样;
通过数据集对条纹预测自解相网络模型进行模型训练时,需将条纹预测自解相网络模型输出的三张变形条纹图像与数据集中对应的变形条纹图像进行反复计算迭代,直至损失函数值收敛,条纹预测自解相网络模型训练结束。
2.根据权利要求1所述的基于深度学习的改进单模式自解相条纹投影三维测量方法,其特征在于,所述条纹投影虚拟测量系统采用Blender建模软件创建,所述条纹投影虚拟测量系统包括一个虚拟左相机、一个虚拟投影仪和被测物体模型;
虚拟投影仪由光轴重合的虚拟光源和一个额外的虚拟右相机组成,其中,虚拟右相机向平面的矢量射线仅作为投影基准,将待投影的条纹图像作为纹理作用于被测物体的材质属性,由虚拟左相机采集并渲染最终的合成效果。
3.根据权利要求2所述的基于深度学习的改进单模式自解相条纹投影三维测量方法,其特征在于,渲染过程包括:先导入待测物体模型放置于条纹投影虚拟测量系统视场内,初始时虚拟右相机不作用,先由虚拟光源向待测物体投射背景白光,虚拟左相机渲染待测物体在背景白光下的图像;之后虚拟右相机作用,依次切换单模式自解相方法的四张相移条纹图像并由虚拟左相机渲染。
4.根据权利要求1所述的基于深度学习的改进单模式自解相条纹投影三维测量方法,其特征在于,所述在条纹投影虚拟测量系统中制备数据集的步骤包括:在条纹投影虚拟测量系统中选择200个任意类别的3D模型作为待测物体,以8.5:1.5的比例将待测物体模型随机分为训练集与测试集,并确保训练集模型在测试集中不可见;
借助Python接口设置每个待测物体模型导入后进行10次随机位姿变化,每次变化后执行渲染过程,共渲染2000组共10000张图像作为数据集,实际训练过程中训练集、验证集和测试集比例为7:1.5:1.5。
5.根据权利要求1所述的基于深度学习的改进单模式自解相条纹投影三维测量方法,其特征在于,所述双注意力模块包括位置注意力模块和通道注意力模块;其中,位置注意力模块用于提取条纹图像在局部特征图中不同位置的空间依赖关系,将任意两个位置间的特征相似度作为权重,通过加权求和的方式更新不同位置的特定特征,用于处理特征图的后两个维度;
通道注意力模块用于提取条纹图像不同通道中特征图的相互影响关系,采用对任意两个通道间的影响程度作为权重,同样采用加权求和的方式更新每个通道的特定特征,用于处理特征图的第一个维度。
6.根据权利要求1所述的基于深度学习的改进单模式自解相条纹投影三维测量方法,其特征在于,损失函数采用图像结构相似度和均方误差以5∶1叠加;图像结构相似度损失和均方误差损失由以下式表示:其中,SSIM为图像结构相似度;MSE为均方误差;μ代表图像亮度均值,σ代表图像对比度方差,C1表示亮度相似评价,C2表示对比度相似评价,X表示网络输出图像,Y表示数据集对比图像,H,W分别代表图像分辨率尺寸。
7.根据权利要求1所述的基于深度学习的改进单模式自解相条纹投影三维测量方法,其特征在于,包裹相位计算公式为:条纹级次的计算公式为:
其中,Φw(x,y)为包裹相位;上标C代表相机采集到变形条纹图像; 代表相机采集到的变形条纹图像中像素(x,y)处的光强,i=1,2,3,4;k(x,y)为条纹级次;α′(x,y)为中值滤波后的相移项;f为条纹频率;Round{}为四舍五入取整函数。
8.根据权利要求7所述的基于深度学习的改进单模式自解相条纹投影三维测量方法,其特征在于,绝对相位的计算公式为:Φ(x,y)=Φw(x,y)+2πk(x,y);
其中,Φ(x,y)为绝对相位;k(x,y)为条纹级次。