掌桥专利:专业的专利平台
掌桥专利
首页

动态异质移动网络环境下的自适应去中心化联邦学习方法

文献发布时间:2024-04-18 20:01:55


动态异质移动网络环境下的自适应去中心化联邦学习方法

技术领域

本发明属于计算机网络技术领域,具体涉及动态异质移动网络环境下的自适应去中心化联邦学习方法。

背景技术

目前,物联网设备和移动设备的部署量已超过144亿台,其中大量设备配备了先进的传感器、计算能力和通信能力[1].这种广泛的采用产生了大量的实时数据,使各个领域的高效深度学习模型训练,包括医疗保健[2]、[3]、环境监测[4]、和车辆互联网络[5]。然而,传统的将物联网生成的数据上传到集中式服务器进行聚合的方法引起对用户隐私的关注,因为数据经常涉及到输入敏感信息。

为了解决这些隐私风险,联邦学习(FL)已成为一种解决方案[6]。FL能够在物联网设备的本地数据上对机器学习模型进行协作训练,无需将原始数据发送到中央服务器。这确保了在模型训练过程中用户数据的安全性和隐私性。然而,这种集中式方法引入了单点故障,并且中央服务器和本地节点之间需要可靠的高带宽通信链路,以实现高效的数据交换。

去中心化联合学习(DFL)已被提议作为一种替代方案,以解决联邦学习中中央服务器的局限性。DFL允许参与节点(如物联网设备和移动设备)使用自己的资源进行模型训练,而无需与中央服务器共享所有模型参数。这种去中心化的方法促进了节点之间的对等交互,消除了对中央服务器参与的需求。在DFL中,任何节点都可以通过指定模型、损失函数和训练算法来启动训练过程。其他感兴趣的节点可以注册并积极参与协同训练过程。虽然DFL提供了增强灵活性、提高资源利用率和整体效率等优势,但它提高了物联网和移动设备的传输和计算需求,需要各参与方积极参与分布式学习。

发明内容

鉴于以上情况,本发明的目的在于提供一种充分利用移动网络下带宽、计算资源的动态异质移动网络环境下的自适应去中心化联邦学习方法(记为MobileDFL)。

本发明提出的动态异质移动网络环境下的自适应去中心化联邦学习方法;其整体流程如图1所示;具体包括:分析现有移动网络环境的动态性与异构性带来的对去中心化联邦学习的影响;利用基于超图神经网络的序列推荐模型作为去中心化联邦学习中每个节点的本地模型结构;启动当去中心化联邦学习模型训练,每个节点利用本地拥有的序列数据进行模型训练,并将本地训练完成的模型参数上传到需要执行聚合任务的节点处;而后在本地完成聚合并更新本地模型参数。

验证结果表明通过该去中心化联邦学习框架,不仅可以优化资源利用率,还能够确保高级节点的高效运行,获得更快的模型收敛速度。

具体步骤为:

步骤1:分析移动网络的异构特性;异构特性指移动网络是由计算能力、内存、存储容量、电源和通信协议等方面不同的硬件设备组成的;因此移动网络中任务执行的性能会受到这种异构性的制约;例如移动网络中IoT设备是针对特定任务且资源有限的,这与智能手机强大的处理单元和多功能性形成鲜明对比;本发明通过搭建模拟环境,按照与移动网络相类似的环境对节点进行配置,在每个节点上执行模型训练任务来验证移动网络异构性对去中心化联邦学习造成的影响;

步骤2:分析移动网络的动态特性;动态性指设备移动、用户移动和不断变化的网络条件等因素;设备移动性会导致网络拓扑结构和设备可用性的变化,而用户移动性会导致频繁的切换和漫游活动;具体情况体现在移动网络条件的波动,如信号强度和拥塞;本发明通过搭建模拟环境,通过调整每个节点在线与离线的状态,利用一个基于会话的序列推荐模型在音乐推荐数据集上验证移动网络动态性对去中心化联邦学习造成的影响;

步骤3:根据步骤1、步骤2,将参与去中心化联邦学习的节点分为低级节点与高级节点,分析低级节点与高级节点在网络动态性、计算能力与存储能力异构性方面的差异;其中低级节点承担较少的发送职责,流量消耗较小,而高级节点承担存储和更多的发送职责,需要消耗更多的流量;使用自适应去中心化联邦学习框架在移动网络下训练序列推荐模型,划分音乐推荐领域的数据集Nowplaying给每个参与训练的节点,并且由每个节点本地的基于超图的神经网络模型DHCN进行训练;其中:

高级节点直接通过HTTP协议请求其他高级节点模型参数,并从私有的IPFS网络中检索其他低级节点上传到IPFS网络上的模型参数;

低级节点将训练后的参数模型存储在IPFS网络中,IPFS网络由稳定节点维护;因此低级节点并不作为IPFS节点运行,而是通过访问高级节点提供的IPFS网关地址来上传其参数;

每个节点定期收集其他节点最新的模型参数,而后在本地完成聚合并更新本地模型参数。

进一步地,步骤1所述分析移动网络的异构特性,具体包括:

步骤1-1:在模拟环境中,为每个节点分配20Mbps带宽,并且设定消息延迟为100ms;通过使用Kubo,即IPFS的Golang实现,在指定的服务器和网络环境中建立一个由十个节点交换机组成的专用IPFS网络;每个节点在每轮中上传一个20MB的数据文件,并读取其他节点之前上传的数据文件;

步骤1-2:使用Python中的HTTP.serverlibrary在上面提到的服务器中创建十个HTTP服务器,以使用C/S架构模拟十个节点;配置包括每个节点通过HTTP连接读取每一轮的其他节点的模型参数数据(通过Python中的urllib.requestlibrary实现);

步骤1-3:在以上2个步骤设计下分别完成200轮训练,观察到成功操作IPFS节点和从IPFS网络执行文件下载需要大约2GB的内存,对Apple Watch在内的一些智能设备的RAM进行获取,发现其内存通常不足以运行IPFS;由于内存容量有限,在此类设备上运行IPFS和执行文件下载可能会带来挑战;而HTTP通信使用的内存不到100MB,并且不会随着文件数量的增加而增加;这种内存需求几乎适用于所有移动设备。

进一步地,步骤2所述分析移动网络的动态特性,具体包括:

步骤2-1:采用一个名为Nowplaying[7]的真实世界用户听歌行为数据集进行模型训练和测试,该数据集采用序列的形式;此外,在此遵循[8]中提到的数据集分割方法,将数据平均分配给所有节点;

步骤2-2:采用一个基于会话的序列推荐模型DHCN[9];DHCN模型是SBR(基于会话的推荐)的双通道超图卷积网络,包括几个超图卷积层和图卷积层;该模型的输入序列数据,预测用户下一次将收听的歌曲的索引;

步骤2-3:在每个训练轮次中,通过调整节点在线的比例R

本发明中,步骤3具体包括:

步骤3-1:部署十个节点来模拟上述数据服务器上的各种移动设备;将这十个节点分为两类,分别是高级节点与初级节点;其中高级节点在各个方面表现出优越性能,比如更高的计算能力、带宽、内存、存储容量和更好的网络稳定性;且它们主要负责处理更加资源密集的存储和传输任务,因为它们具有更强的能力;而初级节点的性能能力相对较低,或者与高级节点相比网络连接较不稳定;因此,它们被分配一些基本的存储和传输任务,需要较少的资源;在这十个节点中,有五个节点被故意引入了不稳定的网络状态,在整个过程中,都经历随机设定的离线期;但在每一轮训练中,这些不稳定节点中的每一个都会至少上线一次。

步骤3-2:设定如下使用指标:

Round@acc=α%,即当精度大于等于α%时所需要的训练轮次;

Memory@acc=α%:在精度大于等于α%下消耗的内存;

Storage@acc=α%:当精度大于等于α%时消耗的存储量;

Data@acc=α%:当准确度大于等于α%时,下载数据流量消耗;

在这里,精度α%被选择为接近该模型在联邦学习场景中可以实现的最佳值,最佳值的确定取决于用户目标任务,可根据用户的需求进行设定,因此可以拓展到任何场景下;需要注意的是,这些指标的实际值可能会因所训练的特定模型而异;例如,在音乐推荐系统中,相应的精度度量可以是Hit@K。

步骤3-3:对比Hit@K、下载文件的内存使用情况、存储使用情况和网络数据使用情况指标,分别对比MobileDFL、HTTP和IPFS这三种存储通信方法在完成100轮训练后相应的指标。

本发明首次提出,在移动网络的背景下,不同的通信和存储方法可能会对去中心化联邦学习训练产生影响。以前没有对现有去中心化联邦学习的通信和存储方法对模型训练的影响进行过分析。特别是在移动网络的背景下,现有的方法都不能充分解决移动网络的异构性和动态性带来的挑战。因此本发明提出一种通信和存储方法的去中心化联邦学习方法,记为MobileDFL,该框架集成了客户机-服务器(C/S)和点对点(P2P)架构的优势,以应对移动网络的异构性和动态性带来的挑战。MobileDFL可以减少部分节点的网络和存储过载,同时适应不同节点的网络波动性,从而满足DFL中易于访问的节点模型参数的要求。通过使用MobileDFL框架来训练DFL环境下的音乐推荐模型,清楚地表明MobileDFL的优越性。

附图说明

图1为本发明动态异质移动网络环境下的自适应去中心化联邦学习方法流程图。

具体实施方式

下面结合附图和具体实施方式对本发明作进一步详细的说明。

根据图1所示,本发明提出的方法包括3个步骤,具体如下:

步骤1,具体包括:

步骤1-1:在模拟环境中,为每个节点分配20Mbps带宽,并且设定消息延迟为100ms;通过使用Kubo,即IPFS的Golang实现,在指定的服务器和网络环境中建立了一个由十个节点交换机组成的专用IPFS网络;每个节点在每轮中上传一个20MB的数据文件,并读取其他节点之前上传的数据文件;

步骤1-2:使用Python中的HTTP.serverlibrary在上面提到的服务器中创建了十个HTTP服务器,以使用C/S架构模拟十个节点;配置包括每个节点通过HTTP连接读取每一轮的其他节点的模型参数数据(通过Python中的urllib.requestlibrary实现);

步骤1-3:在以上2个步骤设计下分别完成200轮训练,观察到成功操作IPFS节点和从IPFS网络执行文件下载需要大约2GB的内存,对Apple Watch在内的一些智能设备的RAM进行获取,发现其内存通常不足2GB;由于内存容量有限,在此类设备上运行IPFS和执行文件下载可能会带来挑战;而HTTP通信使用的内存不到100MB,并且不会随着文件数量的增加而增加;这种内存需求几乎适用于所有移动设备。

步骤2:分析移动网络的动态特性;移动网络本质上是动态的,其特点是不断变化和波动;这种动态性源于设备移动性、用户移动性和不断变化的网络条件等因素;设备移动性会导致网络拓扑结构和设备可用性的变化,而用户移动性会导致频繁的切换和漫游活动;网络条件的波动,如信号强度和拥塞,进一步导致了移动网络的动态特性:

步骤2-1:采用一个名为Nowplaying的真实世界用户听歌行为数据集进行模型训练和测试,该数据集采用序列的形式;此外,在此遵循中提到的数据集分割方法,将数据平均分配给所有节点;

步骤2-2:应用一个基于会话的序列推荐模型DHCN;DHCN模型是SBR(基于会话的推荐)的双通道超图卷积网络,包括几个超图卷积层和图卷积层;该模型的输入序列数据,预测用户下一次将收听的歌曲的索引;

步骤2-3:在每个训练轮次中,通过调整节点在线的比例R

步骤3:使用自适应去中心化联邦学习框架MobileDFL在移动网络下训练序列推荐模型,划分目标数据集Nowplaying给每个参与训练的节点,并且由每个节点本地的基于超图的神经网络模型DHCN进行训练;每个节点定期收集其他节点最新的模型参数数据后,在本地完成聚合,然后更新本地模型参数并使用目标测试集进行测试:

步骤3-1:部署了十个节点来模拟上述数据服务器上的各种移动设备;这十个节点被分为两类,分别是高级节点与初级节点;其中高级节点在各个方面表现出优越性能,比如更高的计算能力、带宽、内存、存储容量和更好的网络稳定性;且它们主要负责处理更加资源密集的存储和传输任务,因为它们具有更强的能力;而初级节点的性能能力相对较低,或者与高级节点相比网络连接较不稳定;因此,它们被分配了一些基本的存储和传输任务,需要较少的资源;在这十个节点中,有五个节点被故意引入了不稳定的网络状态,在整个实验中都经历了随机设定的离线期;但在每一轮训练中,这些不稳定节点中的每一个都会至少上线一次;

步骤3-2:设定使用的指标为Round@acc=α%,即当精度大于等于α%时所需要的训练轮次;Memory@acc=α%:在精度大于等于α%下消耗的内存;Storage@acc=α%:当精度大于等于α%时消耗的存储量;Data@acc=α%:当准确度大于等于α%时,下载数据流量消耗;在这里,精度α%被选择为接近该模型在联邦学习场景中可以实现的最佳值,最佳值的确定取决于用户目标任务,可根据用户的需求进行设定,因此可以拓展到任何场景下;需要注意的是,这些指标的实际值可能会因所训练的特定模型而异;例如,在音乐推荐系统中,相应的精度度量可以是Hit@K;

步骤3-3:在实验过程中,对比Hit@K、下载文件的内存使用情况、存储使用情况和网络数据使用情况这几个指标,分别对比MobileDFL、HTTP和IPFS这三种存储通信方法在完成100轮训练后相应的指标。

本发明以Nowplaying数据集作为实验数据集,其中包含真实世界用户听歌行为序列,可以进行模型训练和测试,本发明采用该数据集进行评估。数据集的统计如下表1:

表1

实验采用的机器配置如下表2:

表2

设定的学习率是0.001,优化器为Adam[9],每次批大小为1,嵌入大小为100。损失函数为CrossEntropyLoss,其公式如下:

其中,p(x

其中,Hit@K是前K排名中正确推荐音乐的数量和总推荐音乐的数量之间的比率,K是被考虑的推荐音乐的数量;Q是推荐的集合,

最终实验结果如下表3。据观察,使用所有三种通信和存储方法训练的模型的Hit@20值能超过4.8%。然而,与HTTP相比,IPFS通过较少的训练次数实现了这一目标。值得注意的是,使用HTTP训练的模型的Hit@20值没有达到4.9%,当Hit@20值达到4.9%时,将IPFS和MobileDFL的其他指标进行比较,很明显,对于高级节点和低级节点,MobileDFL框架消耗的资源都比IPFS少。此外,与高级节点相比,低级节点消耗的资源显著减少,这与移动网络的异构性和动态性非常一致。

表3

参考文献:

[1]I.Analytics,“Iot 2022:Connected devices growing 18%to 14.4billionglobally,”Sep 2022.[Online].Available:https://www.iotforall.com/state-of-iot-2022

[2]S.Kumar,W.Nilsen,M.Pavel,and M.Srivastava,“Mobile health:Revolutionizing healthcare through transdisciplinary research,”Computer,vol.46,no.1,pp.28–35,2012.

[3]R.Pryss,M.Reichert,J.Herrmann,B.Langguth,and W.Schlee,“Mobilecrowd sensing in clinical and psychological trials–a case study,”in 2015IEEE28th International Symposium on Computer-based Medical Systems.IEEE,2015,pp.23–24.

[4]R.K.Ganti,F.Ye,and H.Lei,“Mobile crowdsensing:current state andfuture challenges,”IEEE communications Magazine,vol.49,no.11,pp.32–39,2011.

[5]S.Samarakoon,M.Bennis,W.Saad,and M.Debbah,“Distributed federatedlearning for ultra-reliable low-latency vehicular communications,”IEEETransactions on Communications,vol.68,no.2,pp.1146–1159,2019.

[6]T.Li,A.K.Sahu,A.Talwalkar,and V.Smith,“Federated learning:Challenges,methods,and future directions,”IEEE Signal Processing Magazine,vol.37,no.3,pp.50–60,2020.

[7]E.Zangerle,M.Pichl,W.Gassler,and G.Specht,“#nowplaying musicdataset:Extracting listening behavior from twitter,”in Proceedings of theFirst International Workshop on Internet-scale Multimedia Management,2014,pp.21–26.

[8]X.Xia,H.Yin,J.Yu,Q.Wang,L.Cui,and X.Zhang,“Self-SupervisedHypergraph Convolutional Networks for Session-based Recommendation,”inProc.of AAAI,2021.

[9]Diederik P.Kingma and Jimmy Lei Ba.Adam:A method for stochasticoptimization.Proc.of ICLR,2015。

技术分类

06120116566581