掌桥专利:专业的专利平台
掌桥专利
首页

技术领域

本发明涉及图学习技术领域,尤其涉及一种基于图聚类优化的孪生网络对比表示学习方法及装置。

背景技术

图表示学习方法是将图节点编码到低维表示空间,在降低信息维度的同时能够有效提升图信息表示能力的方法。该方法已经引起了广泛的研究和探索,并在文献索引网络、生物信息网络和社交媒体网络等领域有了广泛的应用和发展。常见的图表示学习方法,按其发展时间和技术特点,可分为基于矩阵分解的传统方法、基于图神经网络特别是图卷积网络(GCN)的深度学习方法和基于图对比学习的深度学习方法。基于图对比学习的表示方法在原有的深度学习方法基础上,引入对比学习思想,通过比较图节点表示的相似性,有效降低了对图标签信息的依赖,是一种重要的自监督学习方法,在计算机视觉和文本处理中取得较好的研究成果。

尽管现有的图对比学习方法已经取得一定研究成果,但仍存在一些缺陷:例如,现有的基于互信息(MI)的对比学习方法,需要维护一个额外的MI估计器来评估正负样本对,这带来了大幅的额外计算开销。同时,现有的图对比学习方法对负样本的选择缺乏设计,导致模型引入了相当一部分伪负样本,影响了现有方法的对比学习能力。此外,现有的图对比学习方法依赖大量的负样本对,来避免训练过程中的模型塌陷,这也限制了模型的泛化能力。

发明内容

本发明提供一种基于图聚类优化的孪生网络对比表示学习方法及装置,用以解决现有技术中依赖大量的负样本对,限制模型的泛化能力的缺陷,实现不需要标签信息和大量负样本的同时,取得较好的表示学习效果。

本发明提供一种基于图聚类优化的孪生网络对比表示学习方法,包括:

获取原始图,并将所述原始图分别输入至训练好的在线网络模型和目标网络模型中,得到第一嵌入表示和第二嵌入表示;

其中,所述在线网络模型和目标网络模型均是通过原始图样本获取第一增强图和第二增强图,并基于所述第一增强图和第二增强图进行无监督的训练得到的;

所述目标网络模型的参数是通过动量更新机制更新在线网络模型的参数得到的;

基于所述第一嵌入表示和第二嵌入表示获取最终学习到的节点嵌入表示,并基于所述节点嵌入表示进行节点分类、节点聚类以及可视化的下游任务。

根据本发明提供的一种基于图聚类优化的孪生网络对比表示学习方法,所述在线网络模型的训练过程包括:

获取原始图样本,基于所述原始图样本获取第一增强图和第二增强图;

将所述第一增强图和第二增强图输入至所述在线网络模型中,得到第一在线表示和第二在线表示,将所述第一增强图和第二增强图输入至所述目标网络模型中,得到第一目标表示和第二目标表示;

基于所述第一在线表示、第二在线表示、第一目标表示和第二目标表示获取所述在线网络模型和目标网络模型的综合损失;

基于所述综合损失进行反向传播梯度优化对所述在线网络模型进行参数梯度更新,直至训练完成。

根据本发明提供的一种基于图聚类优化的孪生网络对比表示学习方法,所述目标网络模型的训练过程包括:

获取动量更新的固定比率以及所述在线网络模型的训练过程参数;

基于所述固定比率和在线网络模型的训练过程参数对所述目标网络模型进行迭代更新,直至训练完成。

根据本发明提供的一种基于图聚类优化的孪生网络对比表示学习方法,所述基于所述第一在线表示、第二在线表示、第一目标表示和第二目标表示获取所述在线网络模型和目标网络模型的综合损失,包括:

对所述第一在线表示进行聚类获取聚类结果,并得到聚类损失;

基于所述聚类结果、第一在线表示和第二在线表示获取跨图对比损失;

基于所述聚类结果、第一在线表示和第一目标表示获取跨网络对比损失;

基于所述聚类损失、跨图对比损失和跨网络对比损失获取在线网络模型和目标网络模型的综合损失。

根据本发明提供的一种基于图聚类优化的孪生网络对比表示学习方法,所述在线网络模型包括第一图神经网络、第一多层感知机以及聚类层;

对所述第一在线表示进行聚类获取聚类结果,并得到聚类损失,包括:

将所述第一增强图和第二增强图输入至第一图神经网络中,并且经过第一多层感知机输出第一在线表示;

将所述第一在线表示输入至所述聚类层中输出正样本的聚类结果,并根据聚类结果获取聚类损失。

根据本发明提供的一种基于图聚类优化的孪生网络对比表示学习方法,对所述第一在线表示进行聚类获取聚类结果,并得到聚类损失之后,还包括:

获取第一在线表示在目标聚类点的第一相似度,以及所述第一目标表示在目标聚类点的第二相似度;

基于所述第一相似度和第二相似度获取平均相似度,并获取辅助目标分布,基于平均相似度以及辅助目标分布计算KL散度,并获取所属目标点聚类;

基于所属目标点聚类得到所述第一增强图经所述在线网络模型和目标网络模型进行对比学习的相似性;

基于所属目标点聚类得到所述第一增强图和第二增强图经所述在线网络模型进行对比学习的相似性。

本发明还提供一种基于图聚类优化的孪生网络对比表示学习装置,包括:

获取模块,用于获取原始图,并将所述原始图分别输入至训练好的在线网络模型和目标网络模型中,得到第一嵌入表示和第二嵌入表示;

其中,所述在线网络模型和目标网络模型均是通过原始图样本获取第一增强图和第二增强图,并基于所述第一增强图和第二增强图进行无监督的训练得到的;

所述目标网络模型的参数是通过动量更新机制更新在线网络模型的参数得到的;

应用模块,用于基于所述第一嵌入表示和第二嵌入表示获取最终学习到的节点嵌入表示,并基于所述节点嵌入表示进行节点分类、节点聚类以及可视化的下游任务。

本发明还提供一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如上述任一种所述基于图聚类优化的孪生网络对比表示学习方法。

本发明还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如上述任一种所述基于图聚类优化的孪生网络对比表示学习方法。

本发明还提供一种计算机程序产品,包括计算机程序,所述计算机程序被处理器执行时实现如上述任一种所述基于图聚类优化的孪生网络对比表示学习方法。

本发明提供的基于图聚类优化的孪生网络对比表示学习方法及装置,通过获取原始图,并将原始图分别输入至训练好的在线网络模型和目标网络模型中,得到第一嵌入表示和第二嵌入表示;其中,在线网络模型和目标网络模型均是通过原始图样本获取第一增强图和第二增强图,并基于第一增强图和第二增强图进行无监督的训练得到的;目标网络模型的参数是通过动量更新机制更新在线网络模型的参数得到的;基于第一嵌入表示和第二嵌入表示获取最终学习到的节点嵌入表示,并基于所述节点嵌入表示进行节点分类、节点聚类以及可视化的下游任务。本发明不需要标签信息和大量负样本的同时,取得了较好的表示学习效果。

附图说明

为了更清楚地说明本发明或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。

图1是本发明提供的基于图聚类优化的孪生网络对比表示学习方法的流程示意图之一;

图2是本发明提供的基于图聚类优化的孪生网络对比表示学习方法的框架图;

图3是本发明提供的基于图聚类优化的孪生网络对比表示学习方法装置的结构示意图;

图4是本发明提供的电子设备的结构示意图。

具体实施方式

为使本发明的目的、技术方案和优点更加清楚,下面将结合本发明中的附图,对本发明中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。

下面结合图1-图4描述本发明的基于图聚类优化的孪生网络对比表示学习方法。

参照图1,本发明提供一种基于图聚类优化的孪生网络对比表示学习方法,包括:

步骤110、获取原始图,并将所述原始图分别输入至训练好的在线网络模型和目标网络模型中,得到第一嵌入表示和第二嵌入表示;

其中,所述在线网络模型和目标网络模型均是通过原始图样本获取第一增强图和第二增强图,并基于所述第一增强图和第二增强图进行无监督的训练得到的;

所述目标网络模型的参数是通过动量更新机制更新在线网络模型的参数得到的;

具体地,本实施例为在线网络模型和目标网络模型的应用过程。将原始图分别输入到训练完成的在线网络模型和目标网络模型中,得到第一嵌入表示和第二嵌入表示。

需要说明的是,本实施例中的在线网络模型是通过对原始图样本进行增强处理得到增强图,并对增强图进行无监督的训练而得到的。具体体现为:采用四种基本的图增强策略的组合得到两个增强图,即通过子采样+图扩散+节点特征掩膜的组合得到第一增强图,子采样+边替换+节点特征掩膜的组合得到第二增强图。四种基本增强策略如下:

1、图扩散(Graph Diffusion,GD)是一种将图全局信息引入原始图的增强策略,通过对原始图的邻接矩阵和度矩阵进行一系列运算,得到的图包含各层次的图拓扑信息。具体来说,本方案采用的图扩散策略,可描述为:

S=α(I-(1-α)D

其中,S代表经图扩散得到的图的邻接矩阵,α为预定义的用于平衡局部信息和全局信息比重的超参数,I代表单位矩阵,A代表原始图的邻接矩阵,D代表原始图的度矩阵。

2、子采样(Sub Sampling,SS)是一种通过裁切原始图得到一个较小子图的增强策略。从原始图中随机选择了定量的节点,保留这些节点及其拓扑信息和特征信息,进而得到一个固定大小的子图。子采样增强策略不仅可以有效减轻模型的后续计算成本,而且类似于计算机视觉中的池化层,子采样也会在一定程度上提升模型的表示学习能力。

3、边替换(Edge Modification,EM)是随机去掉原始图中定量的边,并加入等量边的一种增强策略。通过这种策略,在保留原始图的属性(特征)信息的同时,使得图的拓扑结果复杂化。具体来说,对于原始图的邻接矩阵A,根据给定的边替换比率P(例如0.2),从原始图中删除P/2的边,再加入P/2的新边。

4、节点特征掩膜(Node Feature Masking,NFM)是随机选择原始图中的一些节点,将其特征信息全体置为0的一种增强策略。具体来说,从原始图的属性矩阵X中按固定的比率P(例如0.2)采样节点,将被采样到的节点所有特征(属性)置为0。

步骤120、基于所述第一嵌入表示和第二嵌入表示获取最终学习到的节点嵌入表示,并基于所述节点嵌入表示进行节点分类、节点聚类以及可视化的下游任务。

具体地,本实施例对在线网络模型和目标网络模型的输出结果进行处理,将得到的两个嵌入表示之和作为学习到的最终表示,应用于下游的节点分类、节点聚类等任务,即:

g=g

其中,g代表本方案最终学习到的节点嵌入表示,g

本发明提供的基于图聚类优化的孪生网络对比表示学习方法,通过获取原始图,并将原始图分别输入至训练好的在线网络模型和目标网络模型中,得到第一嵌入表示和第二嵌入表示;其中,在线网络模型和目标网络模型均是通过原始图样本获取第一增强图和第二增强图,并基于第一增强图和第二增强图进行无监督的训练得到的;目标网络模型的参数是通过动量更新机制更新在线网络模型的参数得到的;基于第一嵌入表示和第二嵌入表示获取最终学习到的节点嵌入表示,并基于节点嵌入表示进行节点分类和节点聚类。本发明不需要标签信息和大量负样本的同时,取得了较好的表示学习效果。

基于以上实施例,所述在线网络模型的训练过程包括:

获取原始图样本,基于所述原始图样本获取第一增强图和第二增强图;

将所述第一增强图和第二增强图输入至所述在线网络模型中,得到第一在线表示和第二在线表示,将所述第一增强图和第二增强图输入至所述目标网络模型中,得到第一目标表示和第二目标表示;

基于所述第一在线表示、第二在线表示、第一目标表示和第二目标表示获取所述在线网络模型和目标网络模型的综合损失;

基于所述综合损失进行反向传播梯度优化对所述在线网络模型进行参数梯度更新,直至训练完成。

具体地,本实施例提供了在线网络模型的训练方法,即在线网络模型的获得过程。

首先将原始图样本作为正样本并进行图增强,得到第一增强图和第二增强图。

然后将两个增强图(view 1、view 2)输入在线网络模型和目标网络模型,分别得到四种图节点表示,即第一在线表示、第二在线表示、第一目标表示和第二目标表示(online h1、online h2、target h1、target h2)。

进一步根据四种图节点表示,获取两个网络模型的综合损失,其中包括聚类损失、跨图损失和跨网络损失。

最后根据综合损失进行反向传播梯度优化对在线网络进行参数调整,直至在线网络模型收敛,表示训练完成。

基于以上实施例,所述目标网络模型的训练过程包括:

获取动量更新的固定比率以及所述在线网络模型的训练过程参数;

基于所述固定比率和在线网络模型的训练过程参数对所述目标网络模型进行迭代更新,直至训练完成。

具体地,本实施例提供了目标网络模型的训练方法,即目标网络模型的获得过程。

本实施例中的目标网络模型是基于在线网络模型的参数更新的基础上进行更新的,需要根据在线网络模型的参数以及动量更新的固定比率进行迭代更新。

动量更新机制,是一种在模型历史参数基础上,按固定比率(动量m)更新的机制。采用这种更新机制,可以使得目标网络模型保持相对稳定,进而保证在线网络模型沿一个相对稳定的方向进行迭代。具体来说,本方案采用的动量更新机制可以描述为以下公式:

ξ

其中,ξ

需要说明的是,本实施例中的在线网络模型和目标网络模型都由一个图卷积网络和512层的多层感知机构成。两个网络模型的参数被初始化为相同的随机值,其中在线网络模型的参数在模型训练会随着梯度下降更新,目标网络模型的参数不随梯度更新,而是采用动量更新机制来逐步更新。

基于以上实施例,所述基于所述第一在线表示、第二在线表示、第一目标表示和第二目标表示获取所述在线网络模型和目标网络模型的综合损失,包括:

对所述第一在线表示进行聚类获取聚类结果,并得到聚类损失;

基于所述聚类结果、第一在线表示和第二在线表示获取跨图对比损失;

基于所述聚类结果、第一在线表示和第一目标表示获取跨网络对比损失;

基于所述聚类损失、跨图对比损失和跨网络对比损失获取在线网络模型和目标网络模型的综合损失。

具体地,本实施例提供了跨图对比损失以及跨网络对比损失,并且根据跨图对比损失以及跨网络对比损失获取综合损失的过程。

利用上述实施例中得到的聚类结果,使用去偏机制对节点低维表示进行对比学习,分为两部分:跨增强图对比损失和跨网络对比损失。

1、跨图对比损失。根据得到的聚类结果,去偏选择两个增强图经在线网络得到的表示online h1和online h2的正负样本,计算其对比损失,记为L

2、跨网络对比损失。根据得到的聚类结果,去偏选择增强图一(view 1)经在线网络和目标网络得到的表示online h1和target h1的正负样本,计算其对比损失,记为L

跨网络对比和跨图对比中对比损失的计算公式为:

其中,g

L

3、综合损失。综合得到的跨图对比损失和跨网络对比损失,以及聚类损失,得到模型整体的损失函数。模型整体的目标函数L定义如下:

L=β*L

其中,L

参照图2,基于以上实施例,所述在线网络模型包括第一图神经网络210、第一多层感知机220以及聚类层230;所述目标网络模型包括第二图神经网络240和第二多层感知机250;

对所述第一在线表示进行聚类获取聚类结果,并得到聚类损失,包括:

将所述第一增强图和第二增强图输入至第一图神经网络中,并且经过第一多层感知机输出第一在线表示;

将所述第一在线表示输入至所述聚类层中输出正样本的聚类结果,并根据聚类结果获取聚类损失。

具体地,本实施例将两个增强图输入到第一图神经网络中,以及第一多层感知机输出第一在线表示(online h1),并且将第一在线表示输入到聚类层中,对增强图一(view1)经在线网络得到的第一在线表示(online h1)进行聚类,并根据该聚类结果计算出相应的聚类损失L

基于以上实施例,对所述第一在线表示进行聚类获取聚类结果,并得到聚类损失之后,还包括:

获取第一在线表示在目标聚类点的第一相似度,以及所述第一目标表示在目标聚类点的第二相似度;

基于所述第一相似度和第二相似度获取平均相似度,并获取辅助目标分布,基于平均相似度以及辅助目标分布计算KL散度,并获取所属目标点聚类;

基于所属目标点聚类得到所述第一增强图经所述在线网络模型和目标网络模型进行对比学习的相似性;

基于所属目标点聚类得到所述第一增强图和第二增强图经所述在线网络模型进行对比学习的相似性。

具体地,本实施例描述了由增强图一(view 1)分别经在线网络和目标网络学习到的表示的相似性。

首先,分别计算增强图一(view1),经在线网络模型和目标网络学习模型到的表示(online h1和target h1)的软标签分布Q

其中,g

同时,计算出target h1经student-t分布测量得到的软标签分布Q

定义

计算Q

Q

其中,Qm为Q

下面对本发明提供的基于图聚类优化的孪生网络对比表示学习装置进行描述,下文描述的基于图聚类优化的孪生网络对比表示学习装置与上文描述的基于图聚类优化的孪生网络对比表示学习方法可相互对应参照。

参照图3,本发明还提供一种基于图聚类优化的孪生网络对比表示学习装置,包括:

获取模块310,用于获取原始图,并将所述原始图分别输入至训练好的在线网络模型和目标网络模型中,得到第一嵌入表示和第二嵌入表示;

其中,所述在线网络模型和目标网络模型均是通过原始图样本获取第一增强图和第二增强图,并基于所述第一增强图和第二增强图进行无监督的训练得到的;

所述目标网络模型的参数是通过动量更新机制更新在线网络模型的参数得到的;

应用模块320,用于基于所述第一嵌入表示和第二嵌入表示获取最终学习到的节点嵌入表示,并基于所述节点嵌入表示进行节点分类、节点聚类以及可视化的下游任务。

基于以上实施例,所述在线网络模型的训练过程包括:

增强图获取模块,用于获取原始图样本,基于所述原始图样本获取第一增强图和第二增强图;

表示获取模块,用于将所述第一增强图和第二增强图输入至所述在线网络模型中,得到第一在线表示和第二在线表示,将所述第一增强图和第二增强图输入至所述目标网络模型中,得到第一目标表示和第二目标表示;

综合损失获取模块,用于基于所述第一在线表示、第二在线表示、第一目标表示和第二目标表示获取所述在线网络模型和目标网络模型的综合损失;

更新模块,用于基于所述综合损失进行反向传播梯度优化对所述在线网络模型进行参数梯度更新,直至训练完成。

基于以上实施例,所述目标网络模型的训练过程包括:

参数获取模块,用于获取动量更新的固定比率以及所述在线网络模型的训练过程参数;

迭代模块,用于基于所述固定比率和在线网络模型的训练过程参数对所述目标网络模型进行迭代更新,直至训练完成。

基于以上实施例,综合损失获取模块具体用于:

对所述第一在线表示进行聚类获取聚类结果,并得到聚类损失;

基于所述聚类结果、第一在线表示和第二在线表示获取跨图对比损失;

基于所述聚类结果、第一在线表示和第一目标表示获取跨网络对比损失;

基于所述聚类损失、跨图对比损失和跨网络对比损失获取在线网络模型和目标网络模型的综合损失。

基于以上实施例,综合损失获取模块具体用于:

将所述第一增强图和第二增强图输入至第一图神经网络中,并且经过第一多层感知机输出第一在线表示;

将所述第一在线表示输入至所述聚类层中输出正样本的聚类结果,并根据聚类结果获取聚类损失。

基于以上实施例,还包括:

相似度获取模块,用于获取第一在线表示在目标聚类点的第一相似度,以及所述第一目标表示在目标聚类点的第二相似度;

平均相似度获取模块,用于基于所述第一相似度和第二相似度获取平均相似度,并获取辅助目标分布,基于平均相似度以及辅助目标分布计算KL散度,并获取所属目标点聚类;

相似性获取模块,用于基于所属目标点聚类得到所述第一增强图经所述在线网络模型和目标网络模型进行对比学习的相似性;

基于所属目标点聚类得到所述第一增强图和第二增强图经所述在线网络模型进行对比学习的相似性。

图4示例了一种电子设备的实体结构示意图,如图4所示,该电子设备可以包括:处理器(processor)410、通信接口(Communications Interface)420、存储器(memory)430和通信总线440,其中,处理器410,通信接口420,存储器430通过通信总线440完成相互间的通信。处理器410可以调用存储器430中的逻辑指令,以执行基于图聚类优化的孪生网络对比表示学习方法,该方法包括:

获取原始图,并将所述原始图分别输入至训练好的在线网络模型和目标网络模型中,得到第一嵌入表示和第二嵌入表示;

其中,所述在线网络模型和目标网络模型均是通过原始图样本获取第一增强图和第二增强图,并基于所述第一增强图和第二增强图进行无监督的训练得到的;

所述目标网络模型的参数是通过动量更新机制更新在线网络模型的参数得到的;

基于所述第一嵌入表示和第二嵌入表示获取最终学习到的节点嵌入表示,并基于所述节点嵌入表示进行节点分类、节点聚类以及可视化的下游任务。

此外,上述的存储器430中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。

另一方面,本发明还提供一种计算机程序产品,所述计算机程序产品包括计算机程序,计算机程序可存储在非暂态计算机可读存储介质上,所述计算机程序被处理器执行时,计算机能够执行上述各方法所提供的基于图聚类优化的孪生网络对比表示学习方法,该方法包括:

获取原始图,并将所述原始图分别输入至训练好的在线网络模型和目标网络模型中,得到第一嵌入表示和第二嵌入表示;

其中,所述在线网络模型和目标网络模型均是通过原始图样本获取第一增强图和第二增强图,并基于所述第一增强图和第二增强图进行无监督的训练得到的;

所述目标网络模型的参数是通过动量更新机制更新在线网络模型的参数得到的;

基于所述第一嵌入表示和第二嵌入表示获取最终学习到的节点嵌入表示,并基于所述节点嵌入表示进行节点分类、节点聚类以及可视化的下游任务。

又一方面,本发明还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现以执行上述各方法提供的基于图聚类优化的孪生网络对比表示学习方法,该方法包括:

获取原始图,并将所述原始图分别输入至训练好的在线网络模型和目标网络模型中,得到第一嵌入表示和第二嵌入表示;

其中,所述在线网络模型和目标网络模型均是通过原始图样本获取第一增强图和第二增强图,并基于所述第一增强图和第二增强图进行无监督的训练得到的;

所述目标网络模型的参数是通过动量更新机制更新在线网络模型的参数得到的;

基于所述第一嵌入表示和第二嵌入表示获取最终学习到的节点嵌入表示,并基于所述节点嵌入表示进行节点分类、节点聚类以及可视化的下游任务。

以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。

通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。

最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

相关技术
  • 基于图神经网络和对比学习的分布式系统调用链表示学习方法
  • 一种基于对比孪生网络的具有目标任务指向性的自监督学习方法
技术分类

06120116496761