欢迎来到知嘟嘟! 联系电话:13095918853 卖家免费入驻,海量在线求购! 卖家免费入驻,海量在线求购!
知嘟嘟
我要发布
联系电话:13095918853
知嘟嘟经纪人
收藏
专利号: 2019113672546
申请人: 华侨大学
专利类型:发明专利
专利状态:已下证
专利领域: 计算;推算;计数
更新日期:2024-01-05
缴费截止日期: 暂无
价格&联系人
年费信息
委托购买

摘要:

权利要求书:

1.一种基于场景迁移的行人性别识别方法,其特征在于,包括场景迁移过程、性别识别过程;

场景迁移过程,步骤如下:

1.1)设定行人图像数据集 和 分别来自U和V两种不同的场景;

1.2)提取 和 中的行人掩模,得到掩模图像数据集 和

1.3)构建对偶生成对抗网络,利用 和 训练对偶生成对抗网络,直至对偶生成对抗模型收敛,得到生成模型GU→V和GV→U;

其中,通过GU→V能够将来自U场景下的行人图像迁移至V场景,同时保持被迁移图像中行人外貌和姿态不发生改变;通过GV→U能够将来自V场景下的行人图像迁移至U场景,同时保持被迁移图像中行人外貌和姿态不发生改变;

当行人图像从U场景迁移至V场景时,性别识别过程步骤如下:

2.1)把 中的每张行人图像输入GU→V,经过前向传播,得到与 相对应的迁移图像集

2.2)构建卷积神经网络,利用 训练卷积神经网络,直至网络收敛,得到模型P;

2.3)把 中的每张行人图像输入到模型P,经前向传播,获得深度特征,利用Softmax分类函数对深度特征计算其性别概率,输出性别预测结果;

或者,当行人图像从V场景迁移至U场景时,性别识别过程步骤如下:

2.1)把 中的每张行人图像输入GV→U,经过前向传播,得到与 相对应的迁移图像集

2.2)构建卷积神经网络,利用 训练卷积神经网络,直至网络收敛,得到模型P;

2.3)把 中的每张行人图像输入到模型P,经前向传播,获得深度特征,利用Softmax分类函数对深度特征计算其性别概率,输出性别预测结果。

2.根据权利要求1所述的基于场景迁移的行人性别识别方法,其特征在于,步骤1.3)中,模型GU→V和GV→U的获得步骤如下:

1.3.1)随机从 和 中分别选取k张行人图像及其对应的掩模图像,k≤M,k≤N;

1.3.2)将选取的行人图像与掩模图像输入对偶生成对抗网络进行对抗训练;

1.3.3)重复步骤1.3.1)、步骤1.3.2),直至对偶生成对抗模型收敛,得到生成模型GU→V和GV→U。

3.根据权利要求1或2所述的基于场景迁移的行人性别识别方法,其特征在于,步骤

1.3)中,对抗训练采用的损失函数为对偶生成对抗损失函数与行人外貌映射损失函数之和,具体为:L=LDualGAN(u,v)+LKPAM(u,v);

其中,LDualGAN(u,v)表示对偶对抗损失函数,LKPAM(u,v)表示行人外貌映射损失函数;Dp(·)和Dd(·)表示两个对偶的鉴别器,Dp(·)用于鉴别生成图像是否为U场景的图像,Dd(·)用于鉴别生成图像是否为V场景的图像,z和 为随机噪声向量,λ1、λ2、λ3和λ4为参数常量,⊙表示点乘操作,M(u)和M(v)分别表示U场景和V场景的掩模图像。

4.根据权利要求1所述的基于场景迁移的行人性别识别方法,其特征在于,步骤2.2)中,模型P的获取步骤如下:

2.2.1)随机从 中选取m张具有性别标签属性的迁移图像,m≤M;

2.2.2)将选取的迁移图像送入卷积神经网络进行训练;

2.2.3)重复步骤2.2.1)和2.2.2),直到卷积神经网络收敛,得到模型P;

或者,2.2.1)随机从 中选取n张具有性别标签属性的迁移图像,n≤N;

2.2.2)将选取的迁移图像送入卷积神经网络进行训练;

2.2.3)重复步骤2.2.1)和2.2.2),直到卷积神经网络收敛,得到模型P。

5.根据权利要求1或4所述的基于场景迁移的行人性别识别方法,其特征在于,卷积神经网络训练过程中,第l层参数更新如下:权重参数:

偏置参数:

(l) (l)

其中,l表示网络层数,α表示学习步长,W 表示第l层神经元的权重参数,ΔW 表示第(l) (l)l层神经元权重参数的导数,b 表示第l层神经元的偏置参数,Δb 表示第l层神经元偏置参数的导数,m表示一次训练输入的图片数量,λ表示正则化因子。