掌桥专利:专业的专利平台
掌桥专利
首页

一种图神经网络训练方法、装置、电子设备及存储介质

文献发布时间:2023-06-19 11:14:36


一种图神经网络训练方法、装置、电子设备及存储介质

技术领域

本申请涉及信息技术领域,特别是涉及一种图神经网络训练方法、装置、电子设备及存储介质。

背景技术

异质图是指含有多种不同类型节点和关系的图,在现实中通过异质图往往更能体现待分类目标之间的关系。例如,在对电影和演员进行分类时,同一演员可能参演多部电影,同一电影也可能包括多个演员。

然而,当前在对用于对异质图进行分类的图神经网络进行训练时,所需的样本图像往往较多,导致获取样本的成本往往较高。

发明内容

本申请实施例的目的在于提供一种图神经网络训练方法、装置、电子设备及存储介质,用以解决训练过程中,样本需求大的问题。具体技术方案如下:

本申请实施例的第一方面,首先提供了一种图神经网络训练方法,上述方法包括:

获取样本异质图,其中,样本异质图中包括用于表征待分类目标的多个节点;

利用待训练的图神经网络提取样本异质图中的不相关节点的负样本和不一致关系的负样本;

根据不相关节点的负样本和不一致关系的负样本,通过第一预设损失函数计算待训练的图神经网络的第一损失;

利用待训练的图神经网络提取样本异质图中的结构层面的正样本和基于结构层面的正样本的负样本;

根据结构层面的正样本和基于结构层面的正样本的负样本,通过第二预设损失函数计算待训练的图神经网络的第二损失;

根据第一损失和第二损失,计算待训练的图神经网络的综合损失;

根据综合损失对待训练的图神经网络的参数进行调整,返回利用待训练的图神经网络提取样本异质图中的不相关节点的负样本和不一致关系的负样本的步骤继续执行,直至综合损失满足预设条件,得到训练好的图神经网络。

本申请实施例的第二方面,提供了一种图神经网络训练装置,上述装置包括:

样本获取模块,用于获取样本异质图,其中,样本异质图中包括用于表征待分类目标的多个节点;

第一样本提取模块,用于利用待训练的图神经网络提取样本异质图中的不相关节点的负样本和不一致关系的负样本;

第一损失计算模块,用于根据不相关节点的负样本和不一致关系的负样本,通过第一预设损失函数计算待训练的图神经网络的第一损失;

第二样本提取模块,用于利用待训练的图神经网络提取样本异质图中的结构层面的正样本和基于结构层面的正样本的负样本;

第二损失计算模块,用于根据结构层面的正样本和基于结构层面的正样本的负样本,通过第二预设损失函数计算待训练的图神经网络的第二损失;

综合损失计算模块,用于根据第一损失和第二损失,计算待训练的图神经网络的综合损失;

模型获取模块,用于根据综合损失对待训练的图神经网络的参数进行调整,返回利用待训练的图神经网络提取样本异质图中的不相关节点的负样本和不一致关系的负样本的步骤继续执行,直至综合损失满足预设条件,得到训练好的图神经网络。

本申请实施例还提供了一种电子设备,包括处理器、通信接口、存储器和通信总线,其中,处理器,通信接口,存储器通过通信总线完成相互间的通信;

存储器,用于存放计算机程序;

处理器,用于执行存储器上所存放的程序时,实现上述任一图神经网络训练方法。

本申请实施例还提供了一种计算机可读存储介质,计算机可读存储介质内存储有计算机程序,计算机程序被处理器执行时实现上述任一图神经网络训练方法。

本申请实施例还提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述任一图神经网络训练方法。

本申请实施例有益效果:

本申请实施例提供的一种图神经网络训练方法,通过获取样本异质图;利用待训练的图神经网络提取样本异质图中的不相关节点的负样本和不一致关系的负样本;根据不相关节点的负样本和不一致关系的负样本,通过第一预设损失函数计算待训练的图神经网络的第一损失;利用待训练的图神经网络提取样本异质图中的结构层面的正样本和基于结构层面的正样本的负样本;根据结构层面的正样本和基于结构层面的正样本的负样本,通过第二预设损失函数计算待训练的图神经网络的第二损失;根据第一损失和第二损失,计算待训练的图神经网络的综合损失;根据综合损失对待训练的图神经网络的参数进行调整,返回利用待训练的图神经网络提取样本异质图中的不相关节点的负样本和不一致关系的负样本的步骤继续执行,直至综合损失满足预设条件,得到训练好的图神经网络。通过提取样本异质图对应的不相关节点的负样本和不一致关系的负样本,结构层面的正样本和基于结构层面的正样本的负样本,然后根据提取到的样本对待训练的图神经网络进行训练,从而可以充分利用当前获得的样本,减少所需的样本图像的数量。

当然,实施本申请的任一产品或方法并不一定需要同时达到以上所述的所有优点。

附图说明

为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的实施例。

图1为本申请实施例提供的图神经网络训练方法的一种流程示意图;

图2a为本申请实施例提供的计算第一损失的一种流程示意图;

图2b为本申请实施例提供的计算第二损失的一种流程示意图;

图3a为本申请实施例提供的一种异质图的示意图;

图3b为本申请实施例提供的异质图的网络关系的第一种示意图;

图3c为本申请实施例提供的异质图的网络关系的第二种示意图;

图3d为本申请实施例提供的异质图的网络关系的第三种示意图;

图3e为本申请实施例提供的异质图的网络关系的第四种示意图;

图4为本申请实施例提供的图神经网络训练装置的一种结构示意图;

图5为本申请实施例提供的一种电子设备的结构示意图。

具体实施方式

下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员基于本申请所获得的所有其他实施例,都属于本申请保护的范围。

本申请实施例的第一方面,首先提供了一种图神经网络训练方法,上述方法包括:

获取样本异质图,其中,样本异质图中包括用于表征待分类目标的多个节点;

利用待训练的图神经网络提取样本异质图中的不相关节点的负样本和不一致关系的负样本;

根据不相关节点的负样本和不一致关系的负样本,通过第一预设损失函数计算待训练的图神经网络的第一损失;

利用待训练的图神经网络提取样本异质图中的结构层面的正样本和基于结构层面的正样本的负样本;

根据结构层面的正样本和基于结构层面的正样本的负样本,通过第二预设损失函数计算待训练的图神经网络的第二损失;

根据第一损失和第二损失,计算待训练的图神经网络的综合损失;

根据综合损失对待训练的图神经网络的参数进行调整,返回利用待训练的图神经网络提取样本异质图中的不相关节点的负样本和不一致关系的负样本的步骤继续执行,直至综合损失满足预设条件,得到训练好的图神经网络。

可见,通过本申请实施例的图神经网络训练方法,可以提取样本异质图对应的不相关节点的负样本和不一致关系的负样本,结构层面的正样本和基于结构层面的正样本的负样本,然后根据提取到的样本对待训练的图神经网络进行训练,从而可以充分利用当前获得的样本,减少所需的样本图像的数量。

具体的,参见图1,图1为本申请实施例的图神经网络训练方法的一种流程示意图,包括:

步骤S11,获取样本异质图。

其中,样本异质图中包括用于表征待分类目标的多个节点。

本申请实施例中,异质图可以通过

本申请实施例的图神经网络训练方法应用于对图神经网络进行训练的智能终端,具体的该智能终端可以是电脑或服务器等。

步骤S12,利用待训练的图神经网络提取样本异质图中的不相关节点的负样本和不一致关系的负样本。

本申请中给定正的三元组

可选的,利用待训练的图神经网络提取样本异质图中的不相关节点的负样本和不一致关系的负样本,包括:

利用待训练的图神经网络,通过第一预设公式:

提取样本异质图中的不相关节点的负样本,其中,ε表示为边的集合,

利用待训练的图神经网络,通过第二预设公式:

提取样本异质图中的不一致关系的负样本,其中,*代表任意关系,-代表没有连边的节点,

步骤S13,根据不相关节点的负样本和不一致关系的负样本,通过第一预设损失函数计算待训练的图神经网络的第一损失。

可选的,根据不相关节点的负样本和不一致关系的负样本,通过第一预设损失函数计算待训练的图神经网络的第一损失,包括:

根据不相关节点的负样本和不一致关系的负样本,通过第一预设损失函数:

计算待训练的图神经网络的第一损失,其中,h

步骤S14,利用待训练的图神经网络提取样本异质图中的结构层面的正样本和基于结构层面的正样本的负样本。

在本申请实施例中,正样本可以通过原图来构造,元图可以被视为多个元路径的组合。元图可以表示为

本申请中,给定元图

可选的,利用待训练的图神经网络提取样本异质图中的结构层面的正样本和基于结构层面的正样本的负样本,包括:

利用待训练的图神经网络,通过第三预设公式:

提取样本异质图中的结构层面的正样本,其中,

利用待训练的图神经网络,通过第四预设公式:

提取样本异质图中的基于结构层面的正样本的负样本,其中,t-1表示为上一次训练因此前几次训练的正样本作为负样本,

本申请实施例中的负样本,通过在训练过程中,基于先前的正样本,通过添加最新的正样本并移除最旧的正样本来生成负样本。

步骤S15,根据结构层面的正样本和基于结构层面的正样本的负样本,通过第二预设损失函数计算待训练的图神经网络的第二损失。

可选的,根据结构层面的正样本和基于结构层面的正样本的负样本,通过第二预设损失函数计算待训练的图神经网络的第二损失,包括:

根据结构层面的正样本和基于结构层面的正样本的负样本,通过第二预设损失函数:

计算待训练的图神经网络的第二损失,其中,

步骤S16,根据第一损失和第二损失,计算待训练的图神经网络的综合损失。

其中,计算第一损失和第二损失可以参见图2a和图2b,根据第一损失和第二损失,计算待训练的图神经网络的综合损失,可以通过求和的方式计算,例如,通过预设公式:

步骤S17,根据综合损失对待训练的图神经网络的参数进行调整,返回利用待训练的图神经网络提取样本异质图中的不相关节点的负样本和不一致关系的负样本的步骤继续执行,直至综合损失满足预设条件,得到训练好的图神经网络。

其中,预设条件可以为综合损失小于某一预设阈值。

通过本申请实施例的图神经网络训练方法得到的训练好的图神经网络模型后,可以根据该训练好的图神经网络对待识别图像进行图像的识别,从而得到识别结果。

可见,通过本申请实施例的图神经网络训练方法,可以提取样本异质图对应的不相关节点的负样本和不一致关系的负样本,结构层面的正样本和基于结构层面的正样本的负样本,然后根据提取到的样本对待训练的图神经网络进行训练,从而可以充分利用当前获得的样本,减少所需的样本图像的数量。

本申请中,通过使用DBLP,Yelp和Aminer进行实验对比,对于每个数据集,均将整个图形随机分成两个图形,用于预训练和微调,得到三个数据集的详细统计数据,如下:

DBLP摘自某网站。根据发表论文的领域,DBLP作者被划分为数据库、数据挖掘、人工智能和信息检索四个研究领域。将DBLP随机分为预训练图和微调图,分别包含50%的作者和其他相关节点。具体的,可以参见图3a、图3b、图3c、图3d、图3e,其中,A表示作者,P表示论文,C表示会议,T表示主题,a

Yelp是为一种广泛使用的基准数据集。按照业务节点3:1的比例,将Yelp随机拆分为预训练图和微调图

Aminer是一个书目图表。Aminer中的论文标注了人工智能等17个研究领域,用于节点分类。

表1.三个数据集的统计信息

对比模型。将提出的模型与基线模型比较,包括无预训练方法、三种基于图形神经网络的无监督目标方法(即GAE、EdgePred、DGI)和预训练方法(即GPT-GNN)。无预训练方法采用GNN模型学习节点表示,然后在微调图上执行下游任务GAE专注于传统的链路预测任务,随机屏蔽掉固定比例的边缘,并训练模型来重建这些被屏蔽的边缘。EdgePred预测节点对的连通性,并强制连接的节点具有相似的节点嵌入。DGI通过图的面片表示最大化局部互信息。GPT-GNN是一个用于预处理神经网络的先进模型,通过重构输入图的属性和结构,从输入图中学习可转移的知识。

其中,CPT-HG可以在不同的GNN模式下实施。本申请实施例中,主要研究HGT,最具表现力和最先进的GNN异质图形架构。

参数设置通过用PyTorch实现CPT-HG,并采用自适应矩估计(Adam)优化器来训练建议的CPT-HG。在预训练过程中,将节点表示的维数设置为64,将基本GNN层数设置为2,并将所有方法的关注点设置为1。学习率从[0.01,0.008,0.005,0.001]开始排列。对于基线的其他参数,可以根据经验进行优化。对于CPT-HG,来自不一致关系和不相关节点的负样本大小分别设置为50和200。排队负样本的大小设置为100。使用基于验证集性能的提前停止,耐心等待10个阶段进行模型训练。

评价指标根据前面的工作,首先通过利用预训练图中的自监督信息来预训练模型(包括基线和我们的CPT-HG)。然后,使用下游任务中的标记信息(例如,链路预测)来微调预先训练的模型。下游实验用10个随机种子运行,在测试集上报告平均实验结果和标准偏差。

根据经验比较了CPT-HG和两个下游任务中的基线,包括链路预测和节点分类链路预测在预训练的静力触探图和基线之后,将预训练的模型应用到微调图上以预测边缘。具体来说,考虑DBLP数据集中的论文术语预测、Yelp数据集中的商业定位以及Aminer数据集中的论文作者和论文会议。在微调过程中,以8:1:1的比例随机划分要预测的边(如Aminer中的论文作者),以构建训练集、验证集和测试集。随机抽取与训练集相同数量的未连接节点对作为模型优化的负样本。最后,最小化交叉熵损失来训练微调过程中的GNN模型,并用MRR度量来评估预测性能。

表2展示了三个数据集上的链接预测性能。总体而言,与最佳基线相比,MRR改进了2.16%-6.81%。显著的改进归功于异质图的结构和语义信息建模。与无预训练基线相比,CPT-HG在三个数据集上的链路预测性能分别显著提高了5.83%、2.64%和10.85%。这些改进表明,异质图上的对比预训练能够为下游任务学习可转移的信息知识。在不同的基线中,传统的基于图神经网络的方法(例如GAE)由于预训练图的使用不足而获得不令人满意的性能。GPT-GNN通过在子分类上的生成性预训练表现得更好,以便学习可转移的知识。

表2.在三个数据集上的链接预测任务的实验结果(MRR标准)

最好的方法是加粗,其次是下划线节点分类。为了评估模型在节点分类任务中的性能,由预先训练的模型学习的节点表示被馈送到线性分类器以预测节点标签。根据以1:2:7的比例随机分割标记节点,用于训练、验证和测试集。由于Yelp数据集中没有标签信息,在DBLP和Aminer数据集上进行了实验,并采用精度作为评价指标。如表3所示,可以发现CPT-HG在两个数据集上的表现始终比所有基线好。

表3.在DBLP和Aminer数据集上的节点分类任务中的实验结果

表4.不同下游任务中不同烧蚀模型的分析

进一步的,对于CPT-HG

总的来说,完整的CPT-HG在大多数情况下实现了最大的改进,这表明了为预训练异质图联合捕获语义关系和子图结构的必要性。与CPT-HG

表5.在Aminer数据集上链接预测中不同GNN体系结构的分析

本申请中,CPT-HG不限于GNNs的体系结构,进一步将CPTHG应用于五个GNN体系结构,包括两个异质GNNs(即HGT、RGCN)和三个同质GNNs(即GCN、GAT、GraphSAGE),用于研究CPT-HG的普适性。由于在三个数据集中观察到相似的趋势,只报告最大Aminer数据集中的链接预测性能。

如表5所示,CPT-HG能够提高大多数GNN架构的下游任务性能。此外,在所有GNN车型中,经过预先训练的HGT获得了最佳性能增益。因为CPT-HG可以利用异质图上可转移的语义和结构特性来提高GNN模型的性能。同时,预先训练的GAT性能较差。

进一步的,本申请中,通过研究了实验设置对模型性能的影响,包括元图的影响和预训练子图的大小。与之前的分析类似,获取Aminer数据集上的结果。

通过使用不同的元图对CPT-HG的性能进行了实证验证,包括PAP、PCP、PATP和PACP。例如,只使用元图PAP来执行子图级别的预训练任务,表示为CPT-HG

进一步的,为了研究预训练子图大小的影响。本申请还探讨了预训练子图的大小将如何影响模型性能,并检查了{10%,50%,100%}百分比的预训练子图。在表7中,CPT-HG通过更多的预训练数据集持续提高了链路预测性能。当训练前的图形非常小(例如10%)时,CPT-HG很难为下游任务学习到有用的语义和结构信息,导致性能较差。

表6.Aminer数据集上节点分类中不同元图的分析

表7.将预训练性能增益与不同百分比的预训练数据集进行比较

通过本申请对应的实验,在异质图上预训练GNN模型,并提出了一种新的异质图上神经网络的对比预训练策略——CPT-HG。通过对比学习来利用关系级和子图级的预训练任务,这利用了异质图固有的自监督信息。并在关系层,设计了一个预训练任务来区分两个节点之间的关系类型,它编码了异质图的基本特征。在子图层,还提出了一个预训练任务来区分不同元图的子图实例,对高阶语义上下文进行编码。

本申请实施例的第二方面,参见图4,提供了一种图神经网络训练装置,上述装置包括:

样本获取模块401,用于获取样本异质图,其中,样本异质图中包括用于表征待分类目标的多个节点;

第一样本提取模块402,用于利用待训练的图神经网络提取样本异质图中的不相关节点的负样本和不一致关系的负样本;

第一损失计算模块403,用于根据不相关节点的负样本和不一致关系的负样本,通过第一预设损失函数计算待训练的图神经网络的第一损失;

第二样本提取模块404,用于利用待训练的图神经网络提取样本异质图中的结构层面的正样本和基于结构层面的正样本的负样本;

第二损失计算模块405,用于根据结构层面的正样本和基于结构层面的正样本的负样本,通过第二预设损失函数计算待训练的图神经网络的第二损失;

综合损失计算模块406,用于根据第一损失和第二损失,计算待训练的图神经网络的综合损失;

模型获取模块407,用于根据综合损失对待训练的图神经网络的参数进行调整,返回利用待训练的图神经网络提取样本异质图中的不相关节点的负样本和不一致关系的负样本的步骤继续执行,直至综合损失满足预设条件,得到训练好的图神经网络。

可选的,第一样本提取模块,包括:

第一预设公式子模块,用于利用待训练的图神经网络,通过第一预设公式:

提取样本异质图中的不相关节点的负样本,其中,ε表示为边的集合,

第二预设公式子模块,用于利用待训练的图神经网络,通过第二预设公式:

提取样本异质图中的不一致关系的负样本,其中,*代表任意关系,-代表没有连边的节点,

可选的,第一损失计算模块,具体用于:根据不相关节点的负样本和不一致关系的负样本,通过第一预设损失函数:

计算待训练的图神经网络的第一损失,其中,h

可选的,第二样本提取模块,包括:

第三预设公式子模块,用于利用待训练的图神经网络,通过第三预设公式:

提取样本异质图中的结构层面的正样本,其中,

第四预设公式子模块,用于利用待训练的图神经网络,通过第四预设公式:

提取样本异质图中的基于结构层面的正样本的负样本,其中,t-1表示为上一次训练因此前几次训练的正样本作为负样本,

可选的,第二损失计算模块,具体用于:

根据结构层面的正样本和基于结构层面的正样本的负样本,通过第二预设损失函数:

计算待训练的图神经网络的第二损失,其中,

可见,通过本申请实施例的图神经网络训练装置,可以提取样本异质图对应的不相关节点的负样本和不一致关系的负样本,结构层面的正样本和基于结构层面的正样本的负样本,然后根据提取到的样本对待训练的图神经网络进行训练,从而可以充分利用当前获得的样本,减少所需的样本图像的数量。

本申请实施例还提供了一种电子设备,如图5所示,包括处理器501、通信接口502、存储器503和通信总线504,其中,处理器501,通信接口502,存储器503通过通信总线504完成相互间的通信,

存储器503,用于存放计算机程序;

处理器501,用于执行存储器503上所存放的程序时,实现如下步骤:

获取样本异质图,其中,样本异质图中包括用于表征待分类目标的多个节点;

利用待训练的图神经网络提取样本异质图中的不相关节点的负样本和不一致关系的负样本;

根据不相关节点的负样本和不一致关系的负样本,通过第一预设损失函数计算待训练的图神经网络的第一损失;

利用待训练的图神经网络提取样本异质图中的结构层面的正样本和基于结构层面的正样本的负样本;

根据结构层面的正样本和基于结构层面的正样本的负样本,通过第二预设损失函数计算待训练的图神经网络的第二损失;

根据第一损失和第二损失,计算待训练的图神经网络的综合损失;

根据综合损失对待训练的图神经网络的参数进行调整,返回利用待训练的图神经网络提取样本异质图中的不相关节点的负样本和不一致关系的负样本的步骤继续执行,直至综合损失满足预设条件,得到训练好的图神经网络。

上述电子设备提到的通信总线可以是外设部件互连标准(Peripheral ComponentInterconnect,PCI)总线或扩展工业标准结构(Extended Industry StandardArchitecture,EISA)总线等。该通信总线可以分为地址总线、数据总线、控制总线等。为便于表示,图中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。

通信接口用于上述电子设备与其他设备之间的通信。

存储器可以包括随机存取存储器(Random Access Memory,RAM),也可以包括非易失性存储器(Non-Volatile Memory,NVM),例如至少一个磁盘存储器。可选的,存储器还可以是至少一个位于远离前述处理器的存储装置。

上述的处理器可以是通用处理器,包括中央处理器(Central Processing Unit,CPU)、网络处理器(Network Processor,NP)等;还可以是数字信号处理器(Digital SignalProcessor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。

在本申请提供的又一实施例中,还提供了一种计算机可读存储介质,该计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现上述任一图神经网络训练方法的步骤。

在本申请提供的又一实施例中,还提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述实施例中任一图神经网络训练方法。

在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本申请实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘Solid State Disk(SSD))等。

需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。

本说明书中的各个实施例均采用相关的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于装置、电子设备、存储介质、计算机程序产品实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。

以上所述仅为本申请的较佳实施例,并非用于限定本申请的保护范围。凡在本申请的精神和原则之内所作的任何修改、等同替换、改进等,均包含在本申请的保护范围内。

相关技术
  • 一种图神经网络训练方法、装置、电子设备及存储介质
  • 一种去偏差图神经网络的训练方法、装置和电子设备
技术分类

06120112858437