欢迎来到知嘟嘟! 联系电话:13336804447 卖家免费入驻,海量在线求购! 卖家免费入驻,海量在线求购!
知嘟嘟
我要发布
联系电话:13336804447
知嘟嘟经纪人
收藏
专利号: 2023112859299
申请人: 青岛科技大学
专利类型:发明专利
专利状态:已下证
专利领域: 计算;推算;计数
更新日期:2026-01-27
缴费截止日期: 暂无
价格&联系人
年费信息
委托购买

摘要:

权利要求书:

1.一种基于深度学习与条纹投影轮廓术的单张图像重建方法,其特征在于,包括以下步骤:获取待测物体的单张条纹图像;

搭建两阶段网络模型,其包括第一阶段网络模型和第二阶段网络模型;第一阶段网络模型采用U‑Net神经网络模型;第二阶段网络模型采用U‑Net神经网络模型,并在编码器结尾添加一个Dropout层;

将获取的待测物体的单张条纹图像输入至第一阶段网络模型,预测多张单频相移图像;

将从第一阶段网络模型获取的单频相移图像生成包裹相位图像;

将获取的包裹相位图像输入至第二阶段网络模型预测条纹色阶;

得到条纹色阶后将包裹相位展开成绝对相位,并结合标定参数与相‑高映射关系,得到待测物体的深度图以及对应三维点云数据;

待测物体的单张条纹图像输入至两阶段网络模型之前,还包括:搭建条纹投影轮廓术系统的虚拟仿真系统,并在虚拟仿真系统中构建训练数据集;训练数据集中的样本对第一阶段网络模型、第二阶段网络模型进行训练学习;

所述训练数据集的构建步骤包括:

从Thingi10K中选取多种三维仿真模型作为待测物体模型,其中,待测物体模型以8.5:

1.5的比例随机分成训练集与测试集,确保训练集的待测物体模型在测试集中不可见;

将待测物体模型导入虚拟仿真系统中,并对待测物体模型的尺寸归一化到同一尺寸范围,确保待测物体模型处于虚拟仿真系统的视野中心;

对每个导入的待测物体模型进行多次随机姿态变换,以达到数据增强的目的;

虚拟投影仪将多张条纹图像依次投影在待测物体模型表面,并由虚拟相机中的Python接口进行渲染采集;

渲染后的条纹图像采用多频外差法进行相位重建,将相位重建后的相位图像作为训练数据集。

2.根据权利要求1所述的基于深度学习与条纹投影轮廓术的单张图像重建方法,其特征在于,所述训练数据集包括第一阶段网络模型所需的单张条纹图像和对应的多张同频相移图像,以及第二阶段网络模型所需的包裹相位图像和对应的条纹色阶图像。

3.根据权利要求1所述的基于深度学习与条纹投影轮廓术的单张图像重建方法,其特征在于,所述虚拟仿真系统环境采用Blender建模软件创建,所述虚拟仿真系统环境包括建立一个虚拟相机和一个虚拟投影仪。

4.根据权利要求1所述的基于深度学习与条纹投影轮廓术的单张图像重建方法,其特征在于,所述将从第一阶段网络模型获取的单频相移图像生成包裹相位图像中,单频相移图像通过Φw(x,y)函数计算得到包裹相位图像;其中,其中,Ii(x,y)为像素光强;i为相移步数(i=0,1,2,3)。

5.根据权利要求1所述的基于深度学习与条纹投影轮廓术的单张图像重建方法,其特征在于,第一阶段网络模型、第二阶段网络模型的编码器均包含10个卷积核为3*3的卷积层和4个2*2的最大池化层;第一阶段网络模型、第二阶段网络模型的解码器均包含8个卷积核为3*3的卷积层和4个上采样层;

每层上采样后的卷积层包含一个跳跃连接,拼接对应编码器的输入特征;

编码器的特征通道依次为32,64,128,256,512,解码器的特征通道依次为256,128,64,

32;

第一阶段网络模型的解码器末端附加一层1*1卷积,特征通道数为4来输出四步相移图;第二阶段网络模型的解码器末端为一层1*1卷积用于预测色阶数值。

6.根据权利要求5所述的基于深度学习与条纹投影轮廓术的单张图像重建方法,其特征在于,第一阶段网络模型、第二阶段网络模型中每个卷积层后均包含一个负值为0.1的非线性整流函数LeakyReLU;第一阶段网络模型中的损失函数采用回归损失函数均方误差,第二阶段网络模型的损失函数结合结构相似度与均方误差。