欢迎来到知嘟嘟! 联系电话:13336804447 卖家免费入驻,海量在线求购! 卖家免费入驻,海量在线求购!
知嘟嘟
我要发布
联系电话:13336804447
知嘟嘟经纪人
收藏
专利号: 2022102617903
申请人: 山东科技大学
专利类型:发明专利
专利状态:已下证
专利领域: 电通信技术
更新日期:2024-05-16
缴费截止日期: 暂无
价格&联系人
年费信息
委托购买

摘要:

权利要求书:

1.一种具有eMBB和URLLC混合服务的异构网络资源切片方法,其特征在于,包括如下步骤:

S1.在5G异构融合网络区域内,构建由基站和基站用户组成的异构融合网络模型;

S2.根据异构融合网络模型建立最大化效用函数;

S3.采用DQN算法,对具有eMBB和URLLC混合服务的异构网络资源切片,得到最佳资源调度分配方案。

2.根据权利要求1所述具有eMBB和URLLC混合服务的异构网络资源切片方法,其特征在于,在构建的异构融合网络模型中,有s个基站,共存在{1,…,N}的网络切片列表,所有切片共享聚合带宽W;用户集U中包含M个用户{u1,u2,…,um},其中有m1个eMBB用户和m2个URLLC用户;用户服务集O中包含eMBB和URLLC两种服务;在当前时隙不同服务类型的用户向基站请求资源时,基站将带宽资源块按需分配给各切片上的用户;考虑网络切片未服务的用户的下行链路,令 为网络切片n上任一服务的用户 下行链路传输速率;其中,令 和 分别为eMBB和URLLC数据包的传输速率;令 代表基站为任一切片分配的带宽;其中,令 和分别代表基站为eMBB切片和URLLC切片分配的带宽;令 为任一切片数据包传输数量;其中,令 和 分别为eMBB切片和URLLC切片的数据包传输数量。

3.根据权利要求2所述具有eMBB和URLLC混合服务的异构网络资源切片方法,其特征在于,所述方法的异构融合网络模型设有智能代理,智能代理及时获得环境中eMBB和URLLC需求的变化和前一时隙基站中资源分配情况;在当前时隙不同服务类型的用户向基站请求资源时,智能代理通过与环境交互获得观测值形成状态并根据 策略选择最佳动作值;基站根据智能代理的策略为用户分配带宽资源;同时,智能代理根据奖励机制形成reward并根据环境变化获得新的状态;最后通过DQN的迭代训练,基站找到最佳的带宽资源分配方案。

4.根据权利要求2所述具有eMBB和URLLC混合服务的异构网络资源切片方法,其特征在于,所述步骤S2的具体过程为:S201.计算网络切片n上任一服务的用户下行链路 :  (1)

其中, 是捕获从基站到用户 的路径损耗和阴影的平均信道增益, 是基站发射功率, 是单侧噪声频谱密度;

S202.由Shannon理论得到网络切片n未服务的用户的下行链路传输速率 :  (2)

其中,O代表eMBB和URLLC的用户服务集,o代表eMBB和URLLC两种服务的任意一种,N代表网络切片总数,n代表任一切片且 ;

S203.计算传输速率的频谱效率SE:  (3)

S204.令 表示eMBB和URLLC服务集中任一服务数据包的传输数量,定义 ,时代表成功传输数据包, 时代表丢失数据包;分别将eMBB和URLLC用户数据包的丢包率定义为每种服务的用户体验质量QoE,如下:  (4)

S205.为每个切片分配带宽资源块来最大化模型效用函数F,该函数定义为不同服务的切片的SE和QoE的加权和;网络切片中的带宽分配问题定义如下: (5)

其中,网络切片中的带宽分配问题满足的条件如下:  (6)

  (7)

  (8)

  (9)

其中, 和 表示SE和QoE的相对重要性; 、 分别是5G场景下eMBB和URLLC服务传输速率技术指标。

5.根据权利要求4所述具有eMBB和URLLC混合服务的异构网络资源切片方法,其特征在于,所述步骤S3的具体过程为:S301.基站随机选择分配方案将带宽资源分配给eMBB和URLLC用户,并按照设置的调度原则进行带宽资源块的调用,结束调度后计算eMBB和URLLC数据包的传输数量 作为初始状态 ;

S302.基于DQN算法进行迭代训练,每一次迭代都进行如下操作:基站根据DQN中的策略选择一个带宽分配动作,之后执行调度;按照公式(5)计算出模型的效用函数,同时根据奖励机制计算奖励函数reward;再次计算eMBB和URLLC数据包的传输数量 作为下一状态;将 输入DQN进行训练,a是当前动作,r是奖励值;

S303.经过预定次数的迭代,最终训练出了性能良好的值函数网络,从而得到最佳的带宽资源分配方案。

6.根据权利要求5所述具有eMBB和URLLC混合服务的异构网络资源切片方法,其特征在于,DQN算法的网络参数训练流程如下:首先,代理在与环境交互中得到 ,利用经验重放机制将transition存入样本池中,之后在样本池中抽取最小单位的transition进行训练;

其次,DQN使用评估Q网络和目标Q网络两个带有参数 的神经网络估计Q值,并且令表示具有参数 的值函数;

另外,DQN每C次迭代通过重置将网络参数克隆到目标网络中,有效化agent网络的参数更新过程;

目标网络的目标Q值为:

  (16)

其中,r代表奖励值;代表折现因子,为大于0小于1的值; 代表状态空间 的下一状态; 代表动作空间 的下一动作; 为采样的神经网络参数 ;

同时,DQN中定义的损失函数 为: (17)

其中,E代表期望值;s代表状态空间的当前状态;a代表动作空间 的当前动作;为神经网络参数;

DQN值函数的更新不是直接更新Q值表,而是更新神经网络的参数 ;

利用最小化TD误差平方来获得最佳 参数,公式如下:  (18)

其中, 为目标值与当前值偏差的平方;

最终,代理对动作值函数 进行更新的公式为:  (19)

其中,为DQN网络目标值与当前值偏差的权重;

DQN算法能够在给定状态 下根据最佳策略寻找到最佳动作 ,同时最小化损失函数,并且最大化累计期望奖励reward。

7.根据权利要求6所述具有eMBB和URLLC混合服务的异构网络资源切片方法,其特征在于,该方法采用基于DQN的带宽调度分配算法,算法步骤如下:(1)参数初始化;

(2)基站按需求将带宽资源分配给eMBB和URLLC用户,并按照设置的调度原则进行带宽资源块的调用;

(3)DQN的智能代理在与环境交互中获得状态、动作、奖励;

(4)对参数进行迭代训练获得最佳动作;

(5)设定迭代次数,基站根据DQN中的策略获得资源分配的最佳方案。