欢迎来到知嘟嘟! 联系电话:13336804447 卖家免费入驻,海量在线求购! 卖家免费入驻,海量在线求购!
知嘟嘟
我要发布
联系电话:13336804447
知嘟嘟经纪人
收藏
专利号: 2018114864233
申请人: 重庆邮电大学
专利类型:发明专利
专利状态:已下证
专利领域: 计算;推算;计数
更新日期:2024-05-10
缴费截止日期: 暂无
价格&联系人
年费信息
委托购买

摘要:

权利要求书:

1.基于循环注意力卷积神经网络的目标定位方法,其特征在于,包括以下步骤:S1、构建判定子网,对判定子网的数据集进行预处理;

S2、在所述判定子网中输入其数据集图像,利用损失函数对所述判定子网进行训练,计算出第一损失函数,判断第一损失函数是否收敛,若未收敛,则进入步骤S3,否则进入步骤S4;

S3、使用梯度下降算法更新判定子网的参数,返回步骤S2;

S4、构建定位子网,在定位子网中输入其训练集图像X,输出预测的边界框的四个参数;

S5、根据这四个参数,预测出图像X',将其输入到训练好的判定子网,输出得分,利用第二损失函数对所述定位子网进行训练,计算出第二损失函数;判断第二损失函数是否收敛,若未收敛,则进入步骤S6,否则进入步骤S7;

S6、使用梯度下降算法更新定位子网的参数,返回步骤S5;

S7、将定位子网的测试集图像输入到训练好的定位子网得到预测的边界框,即确定出目标的相对位置;其中,所述判定子网包括采用二分类卷积网络,其卷积特征提取器后连接只有一个输出的全连接网络,用于对定位子网预测的边界框内的图像进行判定打分,以及用于对定位子网的训练监督;

所述定位子网包括一个卷积网络,输入图像尺寸和卷积特征提取器应与判定子网相同,其卷积特征提取器后面是一个有四个输出,依次为x,y,h,w的全连接网络,四个输出的取值范围都是0到1,x,y是预测的边界框中心相对于原输入图像的坐标,h,w是预测的边界框相对于原输入图像的长宽比例。

2.根据权利要求1所述的基于循环注意力卷积神经网络的目标定位方法,其特征在于,所述第一损失函数的计算公式包括:其中,n表示一个批次的图片数量;yi表示第i个图像为正确的标签, 表示判定子网中第i个图像的输出,H为sigmoid函数。

3.根据权利要求1所述的基于循环注意力卷积神经网络的目标定位方法,其特征在于,所述第二损失函数的计算方式包括:其中,m表示一个批次的图片数量, 表示判定子网中第j个图像的输出,H为sigmoid函数。

4.根据权利要求1所述的基于循环注意力卷积神经网络的目标定位方法,其特征在于,所述根据这四个参数,预测出图像X'包括:X′=X⊙M;

其中:M=[H(x'‑tx(tl))‑H(x'‑tx(br))]·[H(y'‑ty(tl))‑H(y'‑ty(br))];

tx(tl)表示边界框的左上方的横坐标;tx(br)表示边界框的右下方的横坐标;ty(tl)表示边界框的左上方的纵坐标;ty(br)表示边界框的右下方的纵坐标; 是训练集图像X每个像素点的坐标;H为sigmoid函数。

5.根据权利要求4所述的基于循环注意力卷积神经网络的目标定位方法,其特征在于,其中,x,y是预测的边界框中心相对于原输入图像的坐标;h,w是预测的边界框相对于原输入图像的长宽比例。