欢迎来到知嘟嘟! 联系电话:13095918853 卖家免费入驻,海量在线求购! 卖家免费入驻,海量在线求购!
知嘟嘟
我要发布
联系电话:13095918853
知嘟嘟经纪人
收藏
专利号: 2020111850081
申请人: 闽江学院
专利类型:发明专利
专利状态:已下证
专利领域: 计算;推算;计数
更新日期:2024-11-18
缴费截止日期: 暂无
价格&联系人
年费信息
委托购买

摘要:

权利要求书:

1.一种利用注意力机制聚合邻域点和全局特征的图像匹配方法,其特征在于:包括以下步骤:步骤S1:数据集处理:提供一图像对(I,I'),使用基于黑塞映射的检测子分别从每个图像中提取特征点kpi,kp′i;则图像I的信息提取的特征点集为KP={kpi}i∈N;从图像I′获得特征点集KP′={kp′i}i∈N;每个对应关系(kpi,kp′i)能生成4D数据:D=[d1;d2;d3;.......dN;],di=[xi,yi,x′i,y′i]D表示图像对的匹配组即输入数据,di表示匹配对,(xi,yi),(x′i,y′i)表示匹配中两个特征点的坐标;

步骤S2:利用注意力机制选取关键邻域点特征:在给定输入图像特征点集KP′={kp′i}i∈N;每个对应关系(kpi,kp′i)的情况下,对于特征点集中第i个点,它的坐标为pi,聚合其K个最近点的几何图案和特征,并最终生成特征向量步骤S3:通过空间层转化实现特征的空间和局部特征向量两个维度结合;

步骤S4:在测试阶段,采用深度神经网络训练的方法,将残差网络的输出设为初步预测结果xout,并且使用激活函数tanh和relu对初步预测结果进行处理,即对于初步预测结果用fx进行操作处理,fx=relu(tanh(xout)),得到预测值为0,1,0表示错误匹配,1表示正确匹配的最终结果;

在整个网络的训练中,采用交叉熵损失函数来指导网络的学习;如公式所示:其中,yi就表示label,y'i表示预测值。

2.根据权利要求1所述的一种利用注意力机制聚合邻域点和全局特征的图像匹配方法,其特征在于:所述步骤S2的具体内容为:从图像I′获得特征点集KP′={kp′i}i∈N,然后利用邻搜索算法为每一个点ith收集其相邻点,对于中心点pi的每个最近的K个点 明确编码相对点位置如下所示:接下来对每个中心点pi的邻域点 进行邻域点特征增强,把原始的邻域点所具有的特k k征fi和对点位置编码后的ri拼接起来,组成新的特征

对于图片中提取一组局部特征 设计了一个共享函数

来为每个功能学习唯一注意力得分;基本上,函数g(x)包含一个共享多层权重感知机,然后接着softmax回归函数;g(x)的正式定义如下:其中W是共享多层权重感知机的可学习权重; 表示学到的注意力分数。

学到的注意力分数作为自动选择重要特征的最优权重;这些特征的加权总和如下:在给定输入图像特征点集KP′={kp′i}i∈N;每个对应关系(kpi,kp′i)的情况下,对于特征点集中第i个点,它的坐标为pi,聚合其K个最近点的几何图案和特征,并最终生成特征向量

3.根据权利要求1所述的一种利用注意力机制聚合邻域点和全局特征的图像匹配方法,其特征在于:所述步骤S3的具体内容为:先利用转置将特征向量 通过卷积扩展到空间维度和局部维度;之后,将批归一化和ReLU函数当作残差网络连接,用以使处理后从图中输出的数据具有稳定的空间关系;使用残差网络对增强后的特征 即映射后的特征向量进行特征提取,用权重共享感知机在空间维度建立起点与点之间的联系,从而抓取全局上下文的信息,并输出初步预测结果。