掌桥专利:专业的专利平台
掌桥专利
首页

一种应用于元宇宙的资源调度方法及系统

文献发布时间:2023-06-19 16:06:26



技术领域

本发明属于信息技术领域,具体地,涉及一种应用于元宇宙的资源调度的方法及系统。

背景技术

元宇宙是对现实世界的虚拟化、数字化过程,需要对内容生产、经济系统、用户体验以及实体世界内容等进行大量改造。但元宇宙的发展是循序渐进的,是在共享的基础设施、标准及协议的支撑下,由众多工具、平台不断融合、进化而最终成形。它基于扩展现实技术提供沉浸式体验,基于数字孪生技术生成现实世界的镜像,基于区块链技术搭建经济体系,将虚拟世界与现实世界在经济系统、社交系统、身份系统上密切融合,并且允许每个用户进行内容生产和世界编辑。

元宇宙的普及,离不开各项技术的升级与融合,例如5G通信技术,大数据处理技术等,在目前的元宇宙应用场景需要低时延、高可靠的任务处理形态,传统的云计算和雾计算处理方式已经不能够满足要求,需要有更好的资源调度解决方案。

发明内容

本发明提供了一种应用于元宇宙的资源调度的方法及系统,有效解决了现有技术中无法满足元宇宙应用场景的低时延、高可靠的任务处理要求的问题,提升了资源调度的处理效率,提高了任务处理的可靠程度。

为了实现上述目的,本发明提供了一种应用于元宇宙的资源调度方法,包括:

云服务器获取多个雾节点的资源指标参数;

基于分布式联邦学习模型对所述多个雾节点的资源占用情况进行预警;

基于资源占用情况的预警信息,向第一雾节点提供计算任务卸载指令,以完成第一雾节点的任务卸载,其中,所述第一雾节点预测后的资源占用率超过预设阈值,所述任务为元宇宙应用。

可选地,所述基于分布式联邦学习模型对所述多个雾节点的资源占用情况进行预警,包括:

利用transformer对第一历史周期内的资源占用指标参数进行分析,输出第一资源异常特征向量;

对所述第一资源异常特征向量进行二次插值,输出第二资源异常特征向量;

将所述第二资源异常特征向量输出至所述分布式联邦学习模型,以便对所述分布式联邦学习模型进行训练,获取不同时间和空间维度的关联;

基于所述训练后的分布式联邦学习模型,对所述多个雾节点的资源占用情况进行预警。

可选地,所述对所述分布式联邦学习模型进行训练,获取不同时间和空间维度的关联,包括:

将所述第二资源异常特征向量进行时空特征拆分,拆分为时间维度和空间维度的特征;

针对所述时间维度的特征,利用Position-Encoding对进行时序编码,并采用Attention方法发掘时序维度的特征关联;

针对所述空间维度的特征,利用Multi-Head Attention提取不同多空间维度特征。

可选地,对所述第一资源异常特征向量进行二次插值,输出第二资源异常特征向量,包括:

对所述第一资源异常特征向量进行均值处理;

针对所述均值处理后的数据,以每3个相邻点做插值,得到所述第二资源异常特征向量。

可选地,在所述基于分布式联邦学习模型对所述多个雾节点的资源占用情况进行预警之前,所述方法还包括:

中心云建立联邦学习模型;

中心云获取所述云服务器发送的心跳包,所述心跳包包括联邦学习模型训练标识;

若所述联邦学习模型训练标识为0,则将所述联邦学习模型分发至所述云服务器。

可选地,在所述基于资源占用情况的预警信息,向第一雾节点提供计算任务卸载指令,以完成第一雾节点的任务卸载后,所述方法还包括:

制定博弈策略,基于所述博弈策略制定服务报酬总包和分包策略至雾中心节点;

所述雾中心节点将服务报酬总包及分包策略分发至第二雾节点;

接收所述第二雾节点的反馈,并将所述第一雾节点卸载后的任务调度至所述第二雾节点来执行。

可选地,所述服务报酬总包为所述雾中心集群的报酬总包,所述分包策略为单个雾节点分配到的报酬与所述报酬总包的占比策略。

可选地,资源指标参数包括磁盘占用率、cpu占用率、gpu占用率、内存占用率和连接数量。

本发明实施例还提供一种应用于元宇宙的资源调度系统,所述系统包括:

获取单元,用于获取多个雾节点的资源指标参数;

预警单元,用于基于分布式联邦学习模型对所述多个雾节点的资源占用情况进行预警;

任务卸载单元,用于基于资源占用情况的预警信息,向第一雾节点提供计算任务卸载指令,以完成第一雾节点的任务卸载,其中,所述第一雾节点预测后的资源占用率超过预设阈值,所述任务为元宇宙应用。

本发明实施例的方法及系统具有下列优点:

本发明实施例中,通过分布式联邦学习模型提前对各个雾节点的资源占用情况进行预警分析,并预测出第一雾节点的资源占用高于预警阈值的情况下,将第一雾节点的任务进行提前卸载,防止由于第一雾节点中任务过多导致时延增大,可靠性降低等带来的不利影响,有效提升了元宇宙应用场景中的网络保障。

附图说明

图1为一个实施例中应用于元宇宙的资源调度系统架构图;

图2为一个实施例中应用于元宇宙的资源调度的方法流程图;

图3为一个实施例中transformer的逻辑示意图;

图4为一个实施例中的应用于元宇宙的资源调度系统组成结构图;

图5为一个实施例中系统的硬件组成示意图。

具体实施方式

为了使本发明的目的、技术方案及优点更加清楚,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。

图1是本发明实施例中应用于元宇宙的资源调度系统架构图,如图1所示,该系统为云架构10,包括中心云11,多个云服务器12,多个雾节点集群13,其中,每一个雾节点集群中至少包括一个中心雾节点131和其余雾节点132,中心雾节点131用于实现雾节点的消息转发和控制等操作,其余雾节点与用户端进行连接,用于实现用户端的消息响应。

在上述架构中,中心云11和多个云服务器12呈现分布式架构,其中,多个云服务器12可分布式排放在不同的地域,例如华东、华南、华北等地均部署有密度不等的云服务器,而中心云11则分别与上述云服务器12进行连接,用于实现信令控制、调度等操作。

元宇宙应用会依托上述基础架构,实现上层元宇宙应用的流畅播放或执行,元宇宙对于网络中高可靠、低时延的要求很高,而当前的网络架构中,一旦雾节点的任务满载,很有可能造成新的任务响应不及时,甚至响应中断、服务器宕机等情况发生,因此,如何保证雾节点的任务不发生异常,是一个非常重要的问题。

如图2所示,本发明实施例提供一种应用于元宇宙的资源调度方法,应用于图1所示的云架构中,包括:

S101.云服务器获取多个雾节点的资源指标参数;

在图1所示的架构中,云服务器可以通过心跳包的方式获取到多个雾节点在当前时间段的资源指标参数,即,多个雾节点可以将自身的资源指标参数以心跳包的形式发送给云服务器,可选地,还可以由中心雾节点收集其所在集群的多个雾节点的资源指标参数,汇总后发送给该云服务器。

在本发明实施例中,资源指标参数包括该雾节点的磁盘占用率、cpu占用率、gpu占用率、内存占用率和连接数量等。

S102.基于分布式联邦学习模型对所述多个雾节点的资源占用情况进行预警;

联邦学习本质上是一种分布式机器学习技术,或机器学习框架。目标:联邦学习的目标是在保证数据隐私安全及合法合规的基础上,实现共同建模,提升AI模型的效果。联邦学习最早在2016年由谷歌提出,原本用于解决安卓手机终端用户在本地更新模型的问题;每个参与共同建模的企业称为参与方,根据多参与方之间数据分布的不同,把联邦学习分为三类:横向联邦学习、纵向联邦学习和联邦迁移学习。

横向联邦学习的本质是样本的联合,适用于参与者间业态相同但触达客户不同,即特征重叠多,用户重叠少时的场景,比如不同地区的银行间,他们的业务相似(特征相似),但用户不同(样本不同)。

Step1:参与方各自从服务器A下载最新模型;

step2:每个参与方利用本地数据训练模型,加密梯度上传给服务器A,服务器A聚合各用户的梯度更新模型参数;

step3:服务器A返回更新后的模型给各参与方;

step4:各参与方更新各自模型。

在传统的机器学习建模中,通常是把模型训练需要的数据集合到一个数据中心然后再训练模型,之后预测。在横向联邦学习中,可以看作是基于样本的分布式模型训练,分发全部数据到不同的机器,每台机器从服务器下载模型,然后利用本地数据训练模型,之后返回给服务器需要更新的参数;服务器聚合各机器上的返回的参数,更新模型,再把最新的模型反馈到每台机器。在这个过程中,每台机器下都是相同且完整的模型,且机器之间不交流不依赖,在预测时每台机器也可以独立预测,可以把这个过程看作成基于样本的分布式模型训练。谷歌最初就是采用横向联邦的方式解决安卓手机终端用户在本地更新模型的问题的。

纵向联邦学习的本质是特征的联合,适用于用户重叠多,特征重叠少的场景,比如同一地区的商超和银行,他们触达的用户都为该地区的居民(样本相同),但业务不同(特征不同)。纵向联邦学习的本质是交叉用户在不同业态下的特征联合,比如商超A和银行B,在传统的机器学习建模过程中,需要将两部分数据集中到一个数据中心,然后再将每个用户的特征join成一条数据用来训练模型,所以就需要双方有用户交集(基于join结果建模),并有一方存在label。其学习步骤如上图所示,分为两大步:

第一步:加密样本对齐。是在系统级做这件事,因此在企业感知层面不会暴露非交叉用户。

第二步:对齐样本进行模型加密训练:

step1:由第三方C向A和B发送公钥,用来加密需要传输的数据;

step2:A和B分别计算和自己相关的特征中间结果,并加密交互,用来求得各自梯度和损失;

step3:A和B分别计算各自加密后的梯度并添加掩码发送给C,同时B计算加密后的损失发送给C;

step4:C解密梯度和损失后回传给A和B,A、B去除掩码并更新模型。

联邦迁移学习:当参与者间特征和样本重叠都很少时可以考虑使用联邦迁移学习,如不同地区的银行和商超间的联合。主要适用于以深度神经网络为基模型的场景。

本发明实施例中,主要采用了横向联邦学习的方式,即中心云建立联邦学习,各参与方(各云服务器)下载该联邦学习模型,并进行训练,最后实现梯度上传。在联邦学习的过程中,如何对联邦学习模型进行训练是关键,也是本发明的核心之一,在本发明实施例中,还将采用人工智能的方式优化输入向量,并对分布式联邦学习模型进行训练,使得训练结果更精准。

其中,所述基于分布式联邦学习模型对所述多个雾节点的资源占用情况进行预警,具体可以为:

S1021.利用transformer对第一历史周期内的资源占用指标参数进行分析,输出第一资源异常特征向量;

利用transformer对一段时间的资源占用数据进行持续分析,针对数据序列,发现资源占用情况的潜在特征,使资源占用预警更精准。

如图3所示,Transformer有6个编码器和6个解码器,不像Seq2Seq,该编码器包含两个子层:多头自注意层和一个全连接层。该解码器包含三个子层,一个多头自注意层,一个能够执行编码器输出的多头自注意的附加层,以及一个全连接层。编码器和解码器中的每个子层都有一个残差连接,然后进行layer normalization(层标准化)。

编码器和解码器的输入:所有编码器/解码器的输入和输出标记都使用学习过的嵌入转换成向量。然后将这些输入嵌入传入进行位置编码。

位置编码:Transformer的架构不包含任何递归或卷积,因此没有词序的概念。输入序列中的所有资源参数都被输入到网络中,没有特殊的顺序或位置,因为它们都同时流经编码器和解码器堆栈。

位置编码被添加到模型中,以帮助注入关于各参数指标关联的相对或绝对位置的信息。位置编码与输入嵌入具有相同的维数,因此可以将二者相加。

自注意(self attention):注意力是为了更好地理解各参数的含义和上下文联系。

自注意,是一种将单个序列的不同位置联系起来以计算序列表示的注意力机制一个自注意层用一个常数数量的连续执行的操作连接所有的位置,因此比重复的层更快。Transformer中的注意函数被描述为将查询和一组键值对映射到输出。查询、键和值都是向量。注意力权值是通过计算句子中每个参数的点积注意力来计算的。最后的分数是这些值的加权和。

在一个典型的利用transformer对第一历史周期内的资源占用指标参数进行分析,输出第一资源异常特征向量的方法中,包括如下步骤:

步骤1:点积取每个资源指标参数的点积。点积决定了不同指标参数质检的权重。

步骤2:缩放:通过除以键向量维数的平方根来缩放点积。大小是64,因此,将点积除以8。

步骤3:使用softmax。Softmax使比例值归一。应用Softmax后,所有值均为正,加起来为1

步骤4:计算各值的加权和,应用归一后的分数和值向量之间的点积,然后计算总和,获取第一资源异常特征向量。

S1022.对所述第一资源异常特征向量进行二次插值,输出第二资源异常特征向量;

为适应模型处理,需要对不同节点采样不均匀的数据做差值处理。采用二次差值方法,以每3个相邻点做插值,得到二次插值。即,人工智能算法提优后的告警数据。该方案可以使得间隔均匀,和transformer时序处理更加匹配。具体地,S1022中,对所述第一资源异常特征向量进行均值处理;针对所述均值处理后的数据,以每3个相邻点做插值,得到所述第二资源异常特征向量。

S1023.将所述第二资源异常特征向量输出至所述分布式联邦学习模型,以便对所述分布式联邦学习模型进行训练,获取不同时间和空间维度的关联;

其中,对所述分布式联邦学习模型进行训练,获取不同时间和空间维度的关联,具体可以为:

将所述第二资源异常特征向量进行时空特征拆分,拆分为时间维度和空间维度的特征;

针对所述时间维度的特征,利用Position-Encoding对进行时序编码,并采用Attention方法发掘时序维度的特征关联;

公式如下:

PositionEncoding=cos2(pos/N)

参数说明:N为可调长度大小

Attention_output=Attention(Q,K,V)

参数说明:其中Q为查询特征映射,K为待匹配特征映射,V为监测数据映射。

针对所述空间维度的特征,利用Multi-Head Attention提取不同多空间维度特征。

公式表示如下:

Headi=Attention(Qi,Ki,Vi)

MultiHead(Q,K,V)=Concat(head1,...,headh)*WO

其中WO为自定义常数,headi为时间注意力得到的结果,i为1-h之间的正整数,h为大于1的正整数,通过MultiHead融合多空间维度特征。

此外,在所述基于分布式联邦学习模型对所述多个雾节点的资源占用情况进行预警之前,中心云建立联邦学习模型;中心云获取所述云服务器发送的心跳包,所述心跳包包括联邦学习模型训练标识;若所述联邦学习模型训练标识为0,则将所述联邦学习模型分发至所述云服务器。若联邦学习模型训练标识不为0,则该云服务器已经获取了该联邦学习模型,无需重复获取。

S1024.基于所述训练后的分布式联邦学习模型,对所述多个雾节点的资源占用情况进行预警。

在本发明实施例中,对所述多个雾节点的资源占用情况进行预警,可以先设置一个或多个预设阈值,该阈值定义为预警阈值,例如,当CPU占用率超过90%认为其任务饱和,90%即为CPU的预警阈值,因此,对资源占用情况进行预警,其实质是对未来N个时刻内的资源占用率进行预测,并与预设阈值进行比较,若超过该阈值则生成预警信号,反之则无需生成。利用联邦学习进行参数预测为现有技术,再此不再累述。

S103.基于资源占用情况的预警信息,向第一雾节点提供计算任务卸载指令,以完成第一雾节点的任务卸载,其中,所述第一雾节点预测后的资源占用率超过预设阈值,所述任务为元宇宙应用。

在本发明实施例中,若经过预警分析后,确定第一雾节点在未来第N时刻(预测后的)的资源占用率超过了该预设阈值,则认定其需要进行一定量的任务卸载操作,因此,云服务器需要向第一雾节点提供任务卸载指令,完成第一雾节点的任务卸载,并在卸载之后将该任务转移到没有发生预警的其他雾节点中。其中,该任务为元宇宙的其中一个应用,包括不限于元宇宙应用场景或应用程序。

在本发明实施例中,在所述基于资源占用情况的预警信息,向第一雾节点提供计算任务卸载指令,以完成第一雾节点的任务卸载后,还包括:

制定博弈策略,基于所述博弈策略制定服务报酬总包和分包策略至雾中心节点;

本发明实施例中,引入了一种基于博弈的激励机制,综合考虑了云服务器和雾节点的自身特性和网络环境,在激励云服务器参与卸载服务的同时,通过博弈过程,云服务器向雾节点支付最优的任务卸载报酬,雾节点向云服务器提供最优的计算能力。降低了云服务器任务卸载时延,实现了云服务器和雾节点各自净收益的最大化,达到了全局最优点。对于本发明实施例而言,生成博弈策略,并基于所述博弈策略,制定具备激励性质的服务报酬,并将所述服务报酬及所述计算任务信息分发至一个或多个雾节点,通过该激励机制,使得不同的雾节点在一定程度上愿意进行多任务的调度,有效提升了时延敏感型任务的任务调度效率,增强了任务处理时效。

博弈策略的定义是:云服务器综合自身情况,提供最优的服务报酬,雾节点综合自身情况,参与卸载并提供最优的计算能力。具体而言,包括如下三个方面:

(1)云服务器作为博弈的领导者,首先预测雾节点提供的计算能力大小,依据自身特性和网络环境计算收入和成本之间的净收益,然后优化自身净收益,根据最优净收益向雾节点提供任务卸载报酬价格。

(2)雾节点作为博弈的跟随者,依据云服务器给出的卸载报酬价格,以及自身特性和网络环境,计算收入和成本之间的净收益,然后优化自身净收益,确定向云服务器提供的最优计算能力。

(3)云服务器以最优卸载服务价格支付给雾节点报酬,雾节点以最优计算能力参与卸载服务。

具体而言,基于所述博弈策略而制定服务报酬,包括如下步骤:

云服务器计算收入和成本,获取净收益,所述净收益为所述收入减去所述成本;对所述净收益进行优化,根据优化的净收益向每个服务节点提供所述服务报酬。

其中,所述云服务器基于如下公式对净收益进行优化:

s.t.ω

收入为F

而成本则根据支付给雾节点的任务计算单价、任务数据量的大小、雾节点的计算速率来确定。例如,当支付给雾节点的任务计算单价一定时,雾节点的计算速率越高、任务数据量越大时,需支付给雾节点的报酬越多,云服务器的成本也就越高。

因此,云服务器经过激励机制的设计,生成服务报酬总包和分包策略,并发送至雾中心节点。所述服务报酬总包为所述雾中心集群的报酬总包,所述分包策略为单个雾节点分配到的报酬与所述报酬总包的占比策略,例如,单个雾节点可分配的报酬为总包报酬的5%。

所述雾中心节点将服务报酬总包及分包策略分发至第二雾节点;

接收所述第二雾节点的反馈,并将所述第一雾节点卸载后的任务调度至所述第二雾节点来执行。

若第二雾节点同意该报酬分配方案,第二雾节点发送反馈信息至云服务器,云服务器即将第一雾节点卸载后的任务调度给第二雾节点,由第二雾节点来完成上述任务。

如图4所示,本发明实施例还提供一种应用于元宇宙的资源调度系统40,所述系统包括:

获取单元41,用于获取多个雾节点的资源指标参数;

获取单元41可以通过心跳包的方式获取到多个雾节点在当前时间段的资源指标参数,即,多个雾节点可以将自身的资源指标参数以心跳包的形式发送给云服务器,可选地,还可以由中心雾节点收集其所在集群的多个雾节点的资源指标参数,汇总后发送给该获取单元41。

在本发明实施例中,资源指标参数包括该雾节点的磁盘占用率、cpu占用率、gpu占用率、内存占用率和连接数量等。

预警单元42,用于基于分布式联邦学习模型对所述多个雾节点的资源占用情况进行预警;

联邦学习本质上是一种分布式机器学习技术,或机器学习框架。目标:联邦学习的目标是在保证数据隐私安全及合法合规的基础上,实现共同建模,提升AI模型的效果。联邦学习最早在2016年由谷歌提出,原本用于解决安卓手机终端用户在本地更新模型的问题;每个参与共同建模的企业称为参与方,根据多参与方之间数据分布的不同,把联邦学习分为三类:横向联邦学习、纵向联邦学习和联邦迁移学习。

横向联邦学习的本质是样本的联合,适用于参与者间业态相同但触达客户不同,即特征重叠多,用户重叠少时的场景,比如不同地区的银行间,他们的业务相似(特征相似),但用户不同(样本不同)。

Step1:参与方各自从服务器A下载最新模型;

step2:每个参与方利用本地数据训练模型,加密梯度上传给服务器A,服务器A聚合各用户的梯度更新模型参数;

step3:服务器A返回更新后的模型给各参与方;

step4:各参与方更新各自模型。

本发明实施例中,主要采用了横向联邦学习的方式,即中心云建立联邦学习,各参与方(各云服务器)下载该联邦学习模型,并进行训练,最后实现梯度上传。在联邦学习的过程中,如何对联邦学习模型进行训练是关键,也是本发明的核心之一,在本发明实施例中,还将采用人工智能的方式优化输入向量,并对分布式联邦学习模型进行训练,使得训练结果更精准。

其中,所述基于分布式联邦学习模型对所述多个雾节点的资源占用情况进行预警,具体可以为:

利用transformer对第一历史周期内的资源占用指标参数进行分析,输出第一资源异常特征向量;

利用transformer对一段时间的资源占用数据进行持续分析,针对数据序列,发现资源占用情况的潜在特征,使资源占用预警更精准。

Transformer有6个编码器和6个解码器,不像Seq2Seq,该编码器包含两个子层:多头自注意层和一个全连接层。该解码器包含三个子层,一个多头自注意层,一个能够执行编码器输出的多头自注意的附加层,以及一个全连接层。编码器和解码器中的每个子层都有一个残差连接,然后进行layer normalization(层标准化)。

编码器和解码器的输入:所有编码器/解码器的输入和输出标记都使用学习过的嵌入转换成向量。然后将这些输入嵌入传入进行位置编码。

位置编码:Transformer的架构不包含任何递归或卷积,因此没有词序的概念。输入序列中的所有资源参数都被输入到网络中,没有特殊的顺序或位置,因为它们都同时流经编码器和解码器堆栈。

位置编码被添加到模型中,以帮助注入关于各参数指标关联的相对或绝对位置的信息。位置编码与输入嵌入具有相同的维数,因此可以将二者相加。

自注意(self attention):注意力是为了更好地理解各参数的含义和上下文联系。

自注意,是一种将单个序列的不同位置联系起来以计算序列表示的注意力机制一个自注意层用一个常数数量的连续执行的操作连接所有的位置,因此比重复的层更快。Transformer中的注意函数被描述为将查询和一组键值对映射到输出。查询、键和值都是向量。注意力权值是通过计算句子中每个参数的点积注意力来计算的。最后的分数是这些值的加权和。

在一个典型的,预警单元42用于利用transformer对第一历史周期内的资源占用指标参数进行分析,输出第一资源异常特征向量,包括如下内容:

点积取每个资源指标参数的点积。点积决定了不同指标参数质检的权重。

缩放:通过除以键向量维数的平方根来缩放点积。大小是64,因此,将点积除以8。

使用softmax。Softmax使比例值归一。应用Softmax后,所有值均为正,加起来为1

计算各值的加权和,应用归一后的分数和值向量之间的点积,然后计算总和,获取第一资源异常特征向量。

对所述第一资源异常特征向量进行二次插值,输出第二资源异常特征向量;

为适应模型处理,需要对不同节点采样不均匀的数据做差值处理。采用二次差值方法,以每3个相邻点做插值,得到二次插值。即,人工智能算法提优后的告警数据。该方案可以使得间隔均匀,和transformer时序处理更加匹配。具体地,S1022中,对所述第一资源异常特征向量进行均值处理;针对所述均值处理后的数据,以每3个相邻点做插值,得到所述第二资源异常特征向量。

将所述第二资源异常特征向量输出至所述分布式联邦学习模型,以便对所述分布式联邦学习模型进行训练,获取不同时间和空间维度的关联;

其中,对所述分布式联邦学习模型进行训练,获取不同时间和空间维度的关联,具体可以为:

将所述第二资源异常特征向量进行时空特征拆分,拆分为时间维度和空间维度的特征;

针对所述时间维度的特征,利用Position-Encoding对进行时序编码,并采用Attention方法发掘时序维度的特征关联;

公式如下:

PositionEncoding=cos2(pos/N)

参数说明:N为可调长度大小

Attention_output=Attention(Q,K,V)

参数说明:其中Q为查询特征映射,K为待匹配特征映射,V为监测数据映射。

针对所述空间维度的特征,利用Multi-Head Attention提取不同多空间维度特征。

公式表示如下:

Headi=Attention(Qi,Ki,Vi)

MultiHead(Q,K,V)=Concat(head1,...,headh)*WO

其中WO为自定义常数,headi为时间注意力得到的结果,i为1-h之间的正整数,h为大于1的正整数,通过MultiHead融合多空间维度特征。

此外,在所述基于分布式联邦学习模型对所述多个雾节点的资源占用情况进行预警之前,中心云建立联邦学习模型;中心云获取所述云服务器发送的心跳包,所述心跳包包括联邦学习模型训练标识;若所述联邦学习模型训练标识为0,则将所述联邦学习模型分发至所述云服务器。若联邦学习模型训练标识不为0,则该云服务器已经获取了该联邦学习模型,无需重复获取。

基于所述训练后的分布式联邦学习模型,对所述多个雾节点的资源占用情况进行预警。

在本发明实施例中,对所述多个雾节点的资源占用情况进行预警,可以先设置一个或多个预设阈值,该阈值定义为预警阈值,例如,当CPU占用率超过90%认为其任务饱和,90%即为CPU的预警阈值,因此,对资源占用情况进行预警,其实质是对未来N个时刻内的资源占用率进行预测,并与预设阈值进行比较,若超过该阈值则生成预警信号,反之则无需生成。利用联邦学习进行参数预测为现有技术,再此不再累述。

任务卸载单元43,用于基于资源占用情况的预警信息,向第一雾节点提供计算任务卸载指令,以完成第一雾节点的任务卸载,其中,所述第一雾节点预测后的资源占用率超过预设阈值,所述任务为元宇宙应用。

在本发明实施例中,若任务卸载单元43经过预警分析后,确定第一雾节点在未来第N时刻(预测后的)的资源占用率超过了该预设阈值,则认定其需要进行一定量的任务卸载操作,因此,云服务器需要向第一雾节点提供任务卸载指令,完成第一雾节点的任务卸载,并在卸载之后将该任务转移到没有发生预警的其他雾节点中。

在本发明实施例中,在所述基于资源占用情况的预警信息,向第一雾节点提供计算任务卸载指令,以完成第一雾节点的任务卸载后,任务卸载单元43还用于:

制定博弈策略,基于所述博弈策略制定服务报酬总包和分包策略至雾中心节点;

本发明实施例中,引入了一种基于博弈的激励机制,综合考虑了云服务器和雾节点的自身特性和网络环境,在激励云服务器参与卸载服务的同时,通过博弈过程,云服务器向雾节点支付最优的任务卸载报酬,雾节点向云服务器提供最优的计算能力。降低了云服务器任务卸载时延,实现了云服务器和雾节点各自净收益的最大化,达到了全局最优点。对于本发明实施例而言,生成博弈策略,并基于所述博弈策略,制定具备激励性质的服务报酬,并将所述服务报酬及所述计算任务信息分发至一个或多个雾节点,通过该激励机制,使得不同的雾节点在一定程度上愿意进行多任务的调度,有效提升了时延敏感型任务的任务调度效率,增强了任务处理时效。

博弈策略的定义是:云服务器综合自身情况,提供最优的服务报酬,雾节点综合自身情况,参与卸载并提供最优的计算能力。具体而言,包括如下三个方面:

(1)云服务器作为博弈的领导者,首先预测雾节点提供的计算能力大小,依据自身特性和网络环境计算收入和成本之间的净收益,然后优化自身净收益,根据最优净收益向雾节点提供任务卸载报酬价格。

(2)雾节点作为博弈的跟随者,依据云服务器给出的卸载报酬价格,以及自身特性和网络环境,计算收入和成本之间的净收益,然后优化自身净收益,确定向云服务器提供的最优计算能力。

(3)云服务器以最优卸载服务价格支付给雾节点报酬,雾节点以最优计算能力参与卸载服务。

具体而言,基于所述博弈策略而制定服务报酬,包括如下步骤:

云服务器计算收入和成本,获取净收益,所述净收益为所述收入减去所述成本;对所述净收益进行优化,根据优化的净收益向每个服务节点提供所述服务报酬。

其中,所述云服务器基于如下公式对净收益进行优化:

s.t.ω

收入为F

而成本则根据支付给雾节点的任务计算单价、任务数据量的大小、雾节点的计算速率来确定。例如,当支付给雾节点的任务计算单价一定时,雾节点的计算速率越高、任务数据量越大时,需支付给雾节点的报酬越多,云服务器的成本也就越高。

因此,云服务器经过激励机制的设计,生成服务报酬总包和分包策略,并发送至雾中心节点。所述服务报酬总包为所述雾中心集群的报酬总包,所述分包策略为单个雾节点分配到的报酬与所述报酬总包的占比策略,例如,单个雾节点可分配的报酬为总包报酬的5%。

所述雾中心节点将服务报酬总包及分包策略分发至第二雾节点;

接收所述第二雾节点的反馈,并将所述第一雾节点卸载后的任务调度至所述第二雾节点来执行。

若第二雾节点同意该报酬分配方案,第二雾节点发送反馈信息至云服务器,云服务器即将第一雾节点卸载后的任务调度给第二雾节点,由第二雾节点来完成上述任务。

本发明实施例中,通过分布式联邦学习模型提前对各个雾节点的资源占用情况进行预警分析,并预测出第一雾节点的资源占用高于预警阈值的情况下,将第一雾节点的任务进行提前卸载,防止由于第一雾节点中任务过多导致时延增大,可靠性降低等带来的不利影响,有效提升了元宇宙应用场景中的网络保障。

本发明实施例还提供一种应用于元宇宙的资源调度系统,包括存储器和处理器,所述存储器上存储有计算机可执行指令,所述处理器运行所述存储器上的计算机可执行指令时实现上述方法。

本发明实施例还提供一种计算机可读存储介质,其上存储有计算机可执行指令,该计算机可执行指令用于执行上述实施例中的方法。

本发明实施例还提供一种系统,如图5所示,包括存储器和处理器,所述存储器上存储有计算机可执行指令,所述处理器运行所述存储器上的计算机可执行指令时实现上述的方法。

在实际应用中,系统还可以分别包含必要的其他元件,包含但不限于任意数量的输入/输出系统、处理器、控制器、存储器等,而所有可以实现本申请实施例的大数据管理方法的系统都在本申请的保护范围之内。

存储器包括但不限于是随机存储记忆体(random access memory,RAM)、只读存储器(read至only memory,ROM)、可擦除可编程只读存储器(erasable programmable readonly memory,EPROM)、或便携式只读存储器(compact disc read至only memory,CD至ROM),该存储器用于相关指令及数据。

输入系统用于输入数据和/或信号,以及输出系统用于输出数据和/或信号。输出系统和输入系统可以是独立的器件,也可以是一个整体的器件。

处理器可以包括是一个或多个处理器,例如包括一个或多个中央处理器(centralprocessing unit,CPU),在处理器是一个CPU的情况下,该CPU可以是单核CPU,也可以是多核CPU。处理器还可以包括一个或多个专用处理器,专用处理器可以包括GPU、FPGA等,用于进行加速处理。

存储器用于存储网络设备的程序代码和数据。

处理器用于调用该存储器中的程序代码和数据,执行上述方法实施例中的步骤。具体可参见方法实施例中的描述,在此不再赘述。

在本申请所提供的几个实施例中,应该理解到,所揭露的系统和方法,可以通过其它的方式实现。例如,该单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如,多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。所显示或讨论的相互之间的耦合、或直接耦合、或通信连接可以是通过一些接口,系统或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。

作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。

在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。该计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行该计算机程序指令时,全部或部分地产生按照本申请实施例的流程或功能。该计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程系统。该计算机指令可以存储在计算机可读存储介质中,或者通过该计算机可读存储介质进行传输。该计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(digital subscriber line,DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。该计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。该可用介质可以是只读存储器(read至onlymemory,ROM),或随机存储存储器(random access memory,RAM),或磁性介质,例如,软盘、硬盘、磁带、磁碟、或光介质,例如,数字通用光盘(digital versatile disc,DVD)、或者半导体介质,例如,固态硬盘(solid state disk,SSD)等。

以上仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以权利要求的保护范围为准。

技术分类

06120114703395