掌桥专利:专业的专利平台
掌桥专利
首页

基于设备训练时间公平的联邦学习方法

文献发布时间:2023-06-19 18:35:48


基于设备训练时间公平的联邦学习方法

技术领域

本发明涉及联邦学习的技术领域,尤其是指一种基于设备训练时间公平的联邦学习方法。

背景技术

近年来,移动设备的数量急速增长,它们的传感和计算能力越来越强,携带的数据量也越来越多,如果能够充分利用这些分散的数据,就能推动机器学习应用进一步发展。然而,传统的集中式机器学习要求数据集中在云服务器或数据中心,这种方式由于可能存在隐私泄露,引起了公众的广泛关注。因此,一种称为联邦学习的新兴机器学习范式被引入来尝试解决这一问题。在联邦学习中,服务器每轮选择设备参与训练,被选中的设备从服务器下载全局模型,然后在本地数据上训练,训练完成之后再将模型上传到服务器,服务器收集到所有被选中设备上传的模型后进行模型聚合来生成新的全局模型,如此不断循环直至达到联邦学习任务的要求。联邦学习在训练时保证数据保留在终端设备,能够保证用户的隐私安全并获取高效的模型。

然而,在实际的联邦学习场景中,设备的计算资源不会时刻保持最佳状态,并且各个设备上的数据集是非独立同分布和不均衡的,这些都会影响本地训练的时间,而且用户通常不会愿意提供设备的计算能力和网络环境等信息。同时,由于物联网中设备众多,为了减轻网络环境不稳定和设备掉队的影响,联邦学习每轮通常只选择部分设备参与训练,设备选择方法会影响训练时间。此外,模型聚合在联邦学习中的作用也不能忽视。最近已经存在一些研究开始关注联邦学习中设备数据是非独立同分布和不均衡的问题,但他们忽略了设备计算资源易变的影响。因此,针对设备的数据集是非独立同分布和不均衡并且设备的计算资源易变的设备选择和模型聚合方法是联邦学习在实际场景的诉求。

发明内容

本发明的目的在于克服现有技术的缺点与不足,提出了一种基于设备训练时间公平的联邦学习方法,包括从长期视角保证训练时间公平的设备选择方法,以及配合设备选择方法的模型聚合方法;对于设备选择方法,以最小化联邦学习总训练时间为目标,并引入了训练时间公平的约束来进行设备选择;对于模型聚合方法,主要是配合设备选择方法,在模型聚合时提高了被选择次数少的设备在模型聚合公式里的权重。

为实现上述目的,本发明所提供的技术方案为:基于设备训练时间公平的联邦学习方法,包括以下步骤:

1)系统初始化:联邦服务器确定联邦学习任务,生成全局模型和系统参数,注册所有的设备并通知其训练任务及系统参数;

2)设备选择:联邦服务器根据设备选择方法选择部分设备参与训练;

3)本地模型训练:被选中的设备从联邦服务器下载全局模型,然后在本地数据上训练全局模型,训练完成后将训练过的全局模型发送回联邦服务器;

4)模型聚合:联邦服务器接收到所有被选中的设备发送回的全局模型后,根据模型聚合方法对这些全局模型进行聚合,得到新的全局模型;

5)判断是否完成任务:联邦服务器判断是否完成本次联邦学习任务,如果未完成则返回步骤2)继续进行任务,如果完成则结束本次联邦学习任务。

进一步,在步骤1)中,系统初始化的详细过程如下:

1.1)联邦服务器确定联邦学习任务及基本设置:首先,联邦服务器确定本次联邦学习的训练任务;然后,联邦服务器根据任务选定合适的机器学习模型

1.2)联邦服务器进行设备注册:所有的设备注册到联邦服务器,联邦服务器为每个设备i保存一组设备信息

进一步,在步骤2)中,联邦服务器选择部分设备参与本轮训练,包括以下步骤:

2.1)假设本轮为第t轮,对于所有的设备,联邦服务器根据

2.2)联邦服务器初始化一个空优先队列PQ,优先队列按照每个设备的score值从大到小排序,score是联邦服务器评估每个设备每轮是否被选择的指标,优先队列里的设备的最大训练时间记作

2.3)将所有设备按照预测训练时间

2.4)遍历排序后的设备,对于每个设备,详细处理过程如下:首先,保存PQ的副本为PQ

2.5)优先队列PQ里的所有设备即为本轮被选中的设备;本轮被选中的设备集合记作A

进一步,在步骤3)中,被选中的设备在本地进行模型训练,包括以下步骤:

3.1)假设本轮为第t轮,被选中的设备i从联邦服务器下载全局模型

3.2)设备i使用全局模型

3.3)设备i将训练完成的全局模型

进一步,在步骤4)中,联邦服务器进行模型聚合,包括以下步骤:

4.1)假设本轮为第t轮,联邦服务器等待被选中的设备集合A

4.2)联邦服务器接收到所有的全局模型之后进行模型聚合,首先根据

4.3)联邦服务器还需要每个设备的预测训练时间

进一步,在步骤5)中,假设本轮为第t轮,联邦服务器判断是否完成本次联邦学习任务,能够通过判断是否达到预设的训练轮次T,或者是判断全局模型是否达到联邦学习任务的目标精度acc

本发明与现有技术相比,具有如下优点与有益效果:

1、本发明引入训练时间公平性约束来设计设备选择方法,从长期视角保证各个设备都具有一定的训练时间,使各个设备均有机会参与训练,同时限制了训练时间长的设备的参与情况,不会导致训练时间过长。

2、本发明考虑了设备被选择的次数来改进模型聚合方法,与本发明的设备选择方法相互契合,具体方法是增加了被选择次数少的设备在模型聚合时的权重,间接提高了被选择次数少的设备的参与情况,使得最终的模型更健壮。

3、本发明通过最近M次训练时间来估计设备的训练时间,使得预测的训练时间更接近当前周期设备的使用情况,同时不需要设备提交自己的网络信息和计算信息,更加安全且容易实现。

附图说明

图1为本发明方法的逻辑流程示意图。

图2为本发明方法的应用架构图。

具体实施方式

下面结合实施例及附图对本发明作进一步详细的描述,但本发明的实施方式不限于此。

本实施例提供了一种基于设备训练时间公平的联邦学习方法,包括设备选择方法和模型聚合方法。对于设备选择方法,以最小化联邦学习总训练时间为目标进行设备选择,还考虑让所有参与的设备的总训练时间都是接近的,从而引入了设备训练时间的公平性约束来辅助实现设备选择;对于模型聚合方法,考虑增大被选择次数少的设备对全局模型所做的贡献,因此提高了被选择次数少的设备在模型聚合公式里的聚合权重。此外,考虑到设备可能不愿意提供它们的计算能力和网络环境等隐私信息,采用历史训练时间的均值来作为训练时间的预测。

如图1所示,首先,联邦服务器初始化系统,确定联邦学习任务,生成全局模型,确定系统参数;参与联邦学习的设备注册到联邦服务器,获取联邦学习任务以及系统参数。

其次,联邦服务器借助虚拟队列和预测的设备训练时间进行设备选择,选择合适的设备参与每轮联邦学习训练;被选中的设备从联邦服务器下载全局模型,在本地数据上进行训练,训练完成后将模型发送回联邦服务器;联邦服务器接收到本轮所有被选中的设备发回的模型后,利用模型聚合方法来聚合各个模型得到新的全局模型。

最后,联邦服务器判断是否完成联邦学习任务,如果未完成则循环上述流程直至完成联邦学习任务,如果完成则结束本次联邦学习。

如图1-图2所示,上述基于设备训练时间公平的联邦学习方法,包括以下步骤:

1)系统初始化:联邦服务器确定联邦学习任务,生成全局模型和系统参数,注册所有的设备并通知其训练任务及系统参数;其中,系统初始化的详细过程如下:

1.1)联邦服务器确定联邦学习任务及基本设置:首先,联邦服务器确定本次联邦学习的训练任务;然后,联邦服务器根据任务选定合适的机器学习模型

1.2)联邦服务器进行设备注册:所有的设备注册到联邦服务器,联邦服务器为每个设备i保存一组设备信息

2)设备选择:联邦服务器根据设备选择方法选择部分设备参与训练;其中,联邦服务器选择部分设备参与本轮训练,包括以下步骤:

2.1)假设本轮为第t轮,对于所有的设备,联邦服务器根据

2.2)首先,联邦服务器初始化一个空优先队列PQ,优先队列按照每个设备的score值从大到小排序,score是联邦服务器评估每个设备每轮是否被选择的指标,优先队列里的设备的最大训练时间记作

2.3)接着,将所有设备按照预测训练时间

2.4)然后,遍历排序后的设备,对于每个设备,我们的详细处理过程如下:首先,保存PQ的副本为PQ

2.5)最后,优先队列PQ里的所有设备即为本轮被选中的设备;本轮被选中的设备集合记作A

3)本地模型训练:被选中的设备进行本地模型训练,包括以下步骤:

3.1)假设本轮为第t轮,被选中的设备i从联邦服务器下载全局模型

3.2)设备i使用全局模型

3.3)设备i将训练完成的全局模型

4)模型聚合:联邦服务器接收到所有被选中的设备发送回的模型后,根据模型聚合方法对这些模型进行聚合,得到新的全局模型;其中,模型聚合包括以下步骤:

4.1)假设本轮为第t轮,联邦服务器等待被选中的设备集合A

4.2)联邦服务器接收到所有的全局模型之后进行模型聚合,首先根据

4.3)联邦服务器还需要每个设备的预测训练时间

5)判断是否结束任务:联邦服务器判断是否完成本次联邦学习任务,详细过程如下:

假设本轮为第t轮,联邦服务器判断是否完成本次联邦学习任务,可以通过判断是否达到预设的训练轮次T,或者是判断全局模型是否达到联邦学习任务的目标精度acc

联邦服务器:确定联邦学习任务,确定全局模型以及相关的超参数,生成系统必要参数,确定参与联邦学习的设备,并将联邦学习任务的相关信息发送给各个设备。

设备:具有一定的数据和计算能力,每轮被选中的设备从联邦服务器下载全局模型,在本地数据集上进行训练,训练完成之后发送回联邦服务器。

综上所述,本发明是一种基于设备训练时间公平的联邦学习方法。联邦服务器初始化系统,确定联邦学习任务,确定全局模型以及相关超参数,确定系统参数;参与联邦学习的设备注册到联邦服务器,获取联邦学习任务相关信息;联邦服务器借助虚拟队列和预测的设备训练时间进行设备选择,选择合适的设备参与每轮联邦学习训练;被选中的设备从联邦服务器下载全局模型,在本地数据上进行训练,训练完成后将模型发送回联邦服务器;联邦服务器接收到本轮所有被选中的设备发回的模型后,利用模型聚合方法来聚合各个模型得到新的全局模型;联邦服务器判断是否完成联邦学习任务,如果未完成则循环上述流程直至完成联邦学习任务,如果完成则结束本次联邦学习。

上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。

技术分类

06120115628996