欢迎来到知嘟嘟! 联系电话:13336804447 卖家免费入驻,海量在线求购! 卖家免费入驻,海量在线求购!
知嘟嘟
我要发布
联系电话:13336804447
知嘟嘟经纪人
收藏
专利号: 2019111754522
申请人: 南阳理工学院
专利类型:发明专利
专利状态:已下证
专利领域: 计算;推算;计数
更新日期:2024-01-05
缴费截止日期: 暂无
价格&联系人
年费信息
委托购买

摘要:

权利要求书:

1.一种基于生成对抗网络的遥感图像超分辨重建方法,其特征在于,包括:步骤1、预处理遥感图像数据集,制作高、低分辨率遥感图像及对应的标签作为训练数据集;

步骤2、使用稠密块构建用于训练的生成对抗网络模型,在生成网络中引入场景约束子网络、边增强子网络和噪声抑制子网络,在判别网络中引入谱归一化,损失函数中引入条件对抗损失,引入内容保真度;

步骤3、将步骤1得到的低、高分辨率遥感图像和对应标签作为训练集输入到生成对抗网络中进行模型训练,训练过程中设定一个阈值作为训练是否结束的判断条件,如果前后两次损失差连续多次小于该阈值说明对抗生成结束,自动终止训练步骤4、将待处理的低分辨率遥感图像和标签输入到训练好的生成模型,获得超分辨率重建的高分辨率遥感图像;

步骤2中,生成网络中引入辅助标签构建场景约束子网络;

步骤2中,生成网络中引入边增强子网络,具体如下:

通过拉普拉斯算子对初步超分辨率图像进行边缘检测,抽取边缘信息,如下式,表示抽取的边, 表示拉普拉斯算子, 表示初步超分辨率图像;

利用Dense block提取边缘图并将其同时转换为LR空间,同时使用一个mask分支来学习要检测的图像mask;随后通过子像素卷积操作将增强的边缘图投影到HR空间上,如下式,其中B()是双三次下采样算子,E()表示边缘增强部分中的密集子网络,用于特征提取和融合,M()代表mask分支,以学习图像掩码以抑制噪声和虚假边缘;PS()是带有子像素卷积的上采样操作,用于将边缘图转换为HR空间; 是生成网络输出的初步超分辨率遥感图像,而不是最终的SR图像;

步骤2中,生成网络中引入噪音抑制网络,使用全变分损失,全变分损失记为TV,基于TV的优化算法如下式,式中,λ为权重系数;

步骤2中,使用像素方均方误差损失和视觉感知损失共同构成内容损失,强制生成器生成流形一致的初步超分辨遥感图像,像素方均方误差损失和视觉感知损失分别如下所示,其中,引入了辅助标签l,像素方均方误差损失记为pMSE,视觉感知损失记为VGG;

步骤2中,使用基于Wasserstein距离增加辅助标签约束的对抗损失函数,通过辅助标签施加条件的条件对抗损失如下,其中,l表示辅助标签,G表示生成网络,D表示判别网络,θg表示生成网络的参数,θd表示HR LR判别网络的参数, 和 分别表示原始图像I 和待超分辨率图像I 中第(x,y)像素点的像素值,W和H分别表示 和 的图像大小,r表示比例因子,α和β为控制三种损失比例的权重系数,通过训练过程获得;

步骤2中,引入内容保真项,得到公式如下,

上式为最终GAN的对抗过程用公式。

2.根据权利要求1所述的基于生成对抗网络的遥感图像超分辨重建方法,其特征在于,步骤1中训练集制作过程如下:(1)从遥感图像数据集和辅助标签集随机采样一批高分辨率图像和标签,作为高分辨率图像训练集;

(2)对高分辨率遥感图像训练集中图像进行双三次插值下采样,获得的低分辨率遥感图像和对应标签作为低分辨率图像训练集。

3.根据权利要求2所述的基于生成对抗网络的遥感图像超分辨重建方法,其特征在于,步骤2中,采用集成Dense block构建生成对抗网络模型。

4.根据权利要求3所述的基于生成对抗网络的遥感图像超分辨重建方法,其特征在于,步骤2中,通过多个卷积层和Dense连接层构建判别网络,并加入谱归一化层。