欢迎来到知嘟嘟! 联系电话:13336804447 卖家免费入驻,海量在线求购! 卖家免费入驻,海量在线求购!
知嘟嘟
我要发布
联系电话:13336804447
知嘟嘟经纪人
收藏
专利号: 202410551828X
申请人: 江西理工大学
专利类型:发明专利
专利状态:已下证
专利领域: 电通信技术
更新日期:2025-12-26
缴费截止日期: 暂无
价格&联系人
年费信息
委托购买

摘要:

权利要求书:

1.一种无线传感器网络真实地形覆盖优化方法,其特征在于,包括以下步骤:S1、建立三维覆盖感知模型;具体方法为:采用视距检测方法,通过计算两个传感器节点之间的直线距离以及它们之间是否存在直接的视距,判断通信是否被阻挡;令有N个传感器节点,节点集合表示为S={s将视距检测与概念感知模型进行融合,采用在3D真实地形下被感知的覆盖模型,具体感知概率的表达式如下:将被监测区域划分为L·W个面积相等的网格,监测节点m位于网格的中心点位置;通过计算出所有监测点的联合感知概率,累加之和即为覆盖面积,覆盖率CS2、基于量子态反向学习和Q-learning的蜣螂优化;包括以下子步骤:S2.1基于量子计算的准反向学习;

(1)准反向学习

定义X

(2)更新量子状态

通过量子计算中更新量子态过程,不断改变当前解对准反向解的影响程度来获得更多有质量的准反向个体,在量子空间中,量子比特为最小的单位,量子比特有两种基本状态|0>和|1>,量子计算中量子比特的状态可以通过叠加构成基本存储单元,具体描述如下:将利用量子逻辑门中的旋转门RY(θ)来更新量子状态,RY门是有Pauli-Y矩阵作为生成元生成的,具体表示如下:其中0<θ<π/2,令

(3)具体步骤

QOL在蜣螂优化算法的主要步骤如下:

(a)设置T

(b)通过式(8)计算当前解对反向解的影响因子;

(c)通过式(9)计算T

(d)评估每个种群准反向解T

(e)比较

S2.2基于Q-learning的行为模式选择;

每一只蜣螂作为一个个体,s代表每只蜣螂当前的状态,而a则表示每个个体从一个状态转变为另一个状态,蜣螂根据Q-Table自适应地从一个状态切换到另一个状态,Q-Table中包含的数值描述了每个个体在迭代中的表现,通过Q-Table来帮助算法控制每个个体选择合适的模式,学习率α数学公式如下:α

每个个体第一次迭代时Q-Table中的值为0,在当前状态下进行选择后,如果适应度值变小,将给予奖励,否则将给予惩罚,有助于在不同阶段选择合适的行为模式,在Q-learning的帮助下,每个蜣螂和两种行为模式的操作之间交互方式分为四个步骤:(1)将Q-Table初始化为一个2×2的表格;

(2)根据当前状态Q-Table中的值,获取蜣螂在滚球阶段要执行的当前迭代的最佳行为模式;

(3)执行所选的操作并计算适应度值,给出奖励,具体奖励计算方法如下:(4)根据式(12)更新Q-Table;

S2.3变螺旋局部邻域搜索;

采用变螺旋搜索策略,对螺旋算子β进行改进,具体数学表达如下:β=e

式(14)中,b是一个0到1均匀分布的随机数,l随着迭代次数由余弦函数控制螺旋线的形状,使蜣螂在该阶段的位置更新范围由大到小,前期在局部更大范围邻域内寻找好的个体,增强算法的全局搜索能力,在迭代后期减少无效搜索,提高算法收敛效率,改进后蜣螂繁殖和偷窃阶段的位置更新分别如下:S2.4最优解逐维自适应高斯变异;

在每一次迭代结束后,针对每一维的最优个体施加逐维自适应高斯变异,并使用贪婪策略保留更好的个体,达到探索和开发平衡的效果,具体变异方法如下:式(19)中x

将通过最优解变异的结果进行自适应调整,如果变异点式(20)中,μ为扩张参数且μ>1,λ为收缩参数且0<λ<1。