欢迎来到知嘟嘟! 联系电话:13336804447 卖家免费入驻,海量在线求购! 卖家免费入驻,海量在线求购!
知嘟嘟
我要发布
联系电话:13336804447
知嘟嘟经纪人
收藏
专利号: 2022101113251
申请人: 杭州电子科技大学
专利类型:发明专利
专利状态:已下证
专利领域: 计算;推算;计数
更新日期:2026-01-27
缴费截止日期: 暂无
价格&联系人
年费信息
委托购买

摘要:

权利要求书:

1.一种基于卷积脉冲神经网络的预注意力提取方法,其特征在于,包括步骤:S1、获取若干像素尺寸相同的原始脉冲样本,所述原始脉冲样本由事件相机拍摄,将图像变化记录为各个像素位置上出现的脉冲;

S2、设定一个大于1的预注意力阈值,统计每个所述原始脉冲样本在各个像素位置上出现的脉冲数量,将每个所述原始脉冲样本中脉冲数量大于所述预注意力阈值的像素位置重置为出现一次脉冲,将脉冲数量小于所述预注意力阈值的像素位置重置为静默状态;

S3、对各个像素位置进行全部所述原始脉冲样本重置后在该位置的脉冲数量的累加,得到预注意力样本,所述预注意力样本在各个像素位置的值表示该像素位置上脉冲出现的频率,频率越高则该像素位置越不重要;

S4、将所述原始脉冲样本通过卷积脉冲神经网络前馈,所述卷积脉冲神经网络为正常前馈的卷积脉冲神经网络;并将所述预注意力样本通过卷积神经网络前馈,所述卷积神经网络的卷积核尺寸与所述卷积脉冲神经网络相同,使所述卷积脉冲神经网络和所述卷积神经网络中对应位置神经元的感受野范围相同,所述卷积神经网络的卷积核权重为1,并使用规范化转换替换卷积后的激活函数;

将所述预注意力样本在所述卷积神经网络每一层卷积的输出规范化转换为所述卷积脉冲神经网络在每一层的输出中各个像素点的预注意力;基于所述每一层的输出中各个像素点的预注意力对所述原始脉冲样本在相应位置的神经元膜电位进行增强或减弱。

2.如权利要求1所述的一种基于卷积脉冲神经网络的预注意力提取方法,其特征在于,所述步骤S2具体包括如下方法:

S21、将所述原始脉冲样本加工为尺寸为P×T×W×H的矩阵,所述P、T、W、H的尺寸分别等于极性数目、脉冲时间窗口、原始脉冲样本宽、原始脉冲样本高,根据所述原始脉冲样本的极性种类及发生的时间、宽高位置将所述P、T、W、H维度中的相应位置置为1,其他位置置为0;

S22、将所述原始脉冲样本的P、T维度相加,得到表示各个像素位置的脉冲发放次数的矩阵;

S23、设定一个大于1的预注意力阈值,将总脉冲发放次数大于所述预注意力阈值的像素位置重置为1,否则重置为0。

3.如权利要求2所述的一种基于卷积脉冲神经网络的预注意力提取方法,其特征在于,所述步骤S3具体为:

将全部所述原始脉冲样本经所述步骤S23重置后得到的矩阵累加,使相同像素位置的值累加在一起,得到预注意力样本的矩阵;所述预注意力样本的矩阵在各个像素位置的值表示该像素位置上脉冲出现的频率。

4.如权利要求1所述的一种基于卷积脉冲神经网络的预注意力提取方法,其特征在于,所述步骤S4具体包括如下方法:

S41、将所述原始脉冲样本通过卷积脉冲神经网络前馈一层,所述卷积脉冲神经网络为正常前馈的卷积脉冲神经网络;

S42、将所述预注意力样本通过卷积神经网络前馈一层,所述卷积神经网络的卷积核尺寸与所述卷积脉冲神经网络相同,使所述卷积脉冲神经网络和所述卷积神经网络中对应位置神经元的感受野范围相同,所述卷积神经网络的卷积核权重为1;

S43、将所述卷积神经网络本次前馈的每一个输出按比例规范化至[‑1,1];

S44、将规范化后的值进行基于信息论原理的函数转换,得到重要性修正值,所述重要性修正值表示所述卷积脉冲神经网络中在相应位置的神经元膜电位应减弱或加强的程度;

S45、根据所述重要性修正值对所述卷积脉冲神经网络中在相应位置的神经元膜电位进行减弱或加强;

S46、返回步骤S41,直到所述卷积脉冲神经网络完成最终层的输出。

5.如权利要求4所述的一种基于卷积脉冲神经网络的预注意力提取方法,其特征在于,所述步骤S43的规范化具体为:

设所述卷积神经网络本次前馈的一个输出为pn,pn∈numMap,所述规范化后的值为pa,pa∈attnMap,numMap是各个位置pn组成的矩阵,attnMap是各个位置pa组成的矩阵;

将numMap内的pn转换为正态分布,转换后的矩阵记为X:;

其中,μ表示numMap中pn的均值,σ表示numMap中pn的标准差;

将X中的元素Xij转换为重要性修正值pi:;

其中,min(X)与max(X)分别表示矩阵X中的最小值与最大值。

6.如权利要求4所述的一种基于卷积脉冲神经网络的预注意力提取方法,其特征在于,所述步骤S44基于信息论原理的函数转换具体为:设所述规范化后的值为pa,pa∈attnMap,所述重要性修正值为pi,pi∈interMap ,attnMap是各个位置pa组成的矩阵,interMap是各个位置pi组成的矩阵;

pa =α×arctan(β×pi +γ);

其中α决定了pa的上下限;β决定了注意力分配的曲线形状;γ是可学习的变量,随所述卷积脉冲神经网络误差的反向传播进行细微调整,用于调节注意力感知到的重要部分与非重要部分比例。