掌桥专利:专业的专利平台
掌桥专利
首页

基于反事实的图神经网络可解释性方法

文献发布时间:2023-06-19 12:14:58


基于反事实的图神经网络可解释性方法

技术领域

本发明涉及图神经网络解释方法技术领域,具体涉及基于反事实的图神经网络可解释性方法。

背景技术

随着人工智能的快速发展,机器学习、深度学习等算法在数据挖掘、社交网络分等重要领域的应用越来越广泛,并且表现出了极其优秀的性能。然而绝大多数机器学习、深度学习算法都是一个“黑箱模型”,即它们只提供决策结果却不提供可解释性的判别依据,导致人类无法真正理解这些模型。因此机器学习、深度学习等算法的可解释性问题受到了广泛关注,可解释性是指人们对算法预测结果的理解程度,如果一个模型的决策比另一个模型更容易理解让人理解,那么该模型就具有更高的解释性。

机器学习、深度学习等算法的可解释性技术根据其是否接触模型可以分为模型无关的解释方法和特定于模型的解释方法。特定于模型的解释方法针对于特定的模型类,例如线性模型中的权重系数解释,本质上可解释模型的解释通常就是属于这一类的。模型无关的解释方法理论上可以应用于任何机器学习算法并在模型经过训练后应用,这些模型无关的方法通过分析输入特征和输出结果之间的关联来给出解释,这些方法通常不能访问模型的内部信息,如模型结构信息。

针对通用机器学习算法的可解释性方法包括敏感性分析解释方法,重要性分数解释方法、代理模型解释方法、局部近似解释方法、Shapley值解释方法、反事实解释方法等等。其中敏感性分析解释方法是通过分析改变输入特征时对输出产生的影响大小从而找出重要因素作为解释,重要性分数解释方法是通过分解模型的预测结果来评估输入特征的正面贡献和负面贡献,代理模型解释方法是使用解释器模型来模拟目标模型的预测结果从而作出解释,Shapley值解释方法是公平地为每个特征分配特定预测的重要性值,反事实解释方法是找出影响预测结果最大的特征作为反事实解释。上述可解释性方法着重于解释机器学习算法,然而却非为图机器学习算法所专门设计的,针对图机器学习算法的可解释性方法主要是敏感性分析解释方法和代理模型解释方法,目前反事实解释方法还未应用于解释图机器学习算法。

可解释性的鲁棒性研究也受到了极大的关注,解释的鲁棒性是指解释受到扰动时是否会产生变化,如果一个解释受到攻击扰动时会产生很大的变化,那么该解释被信任的程度会大大降低,现有多数方法都致力于提高解释算法寻找到解释的鲁棒性,然而这些研究大多都是针对机器学习算法可解释性方法的,针对图机器学习算法可解释性方法的鲁棒性研究目前还较少。

现有的图神经网络解释方法通常使用模拟预测结果的方法来简化计算,忽略了人类感知和计算的反事实推理,现有形式的解释的可理解性更弱。解释的鲁棒性也是十分重要的,如果一个解释的鲁棒性较差,那么其可信度也会随之降低,提高解释鲁棒性的同时也会增强解释结果的可信度,使得人们更能接受该解释,但是现有的图神经网络解释方法还未针对解释结果的鲁棒性进行研究。

发明内容

为了解决上述问题,本发明提供基于反事实的图神经网络可解释性方法。

本发明为解决技术问题所采用的技术方案如下:

基于反事实的图神经网络可解释性方法,包括:

步骤一、根据待解释的大图G和大图上的目标节点v

步骤二、对每个枚举得到的解释子图计算可模拟性和反事实相关性,对所有G

步骤三、分析最优G

本发明的有益效果是:

本发明基于反事实的图神经网络可解释性方法提出了图神经网络预测反事实解释的两个度量指标可模拟性和反事实相关性,基于此设计了一种基于图表的反事实解释形式,更易于人类理解。本发明设计了一个双目标优化问题来搜索最优解释,还设计了一种子图枚举算法来有效地搜索这两个指标的帕累托最优解。本发明研究了图神经网络解释的鲁棒性,提出了图神经网络解释的鲁棒性评估指标,提高解释的鲁棒性也有利于提高解释的可信度,证明算法在鲁棒性和敏感性之间达到很好的平衡。采用本发明基于反事实的图神经网络可解释性方法得到的反事实解释可以更好地被人们所理解和接受。

附图说明

图1为本发明的基于反事实的图神经网络可解释性方法的基于图表的反事实解释形式的示意图。

图2为本发明的基于反事实的图神经网络可解释性方法的算法流程图。

具体实施方式

在下面的描述中阐述了很多具体细节以便于充分理解本发明,但是,本发明还可以采用其他不同于在此描述的其他方式来实施,因此,本发明的保护范围并不受下面公开的具体实施例的限制。

本发明基于反事实的图神经网络可解释性方法,本发明将图神经网络的反事实解释定义为简单子图解释及简单子图解释上的反事实解释,图神经网络预测结果y

可模拟性是指预测结果的解释应当可以很好地模拟预测结果,忠诚度指标能够衡量两个预测结果之间的距离,当忠诚度指标值很小时说明解释的可模拟性强。预测结果的解释还应当保证简单性,解释的简单性与人类认知带宽的极限有关,人类通常接受简单的解释而拒绝复杂的解释,稀疏性被用作简单性的替代,子图的忠诚度或保真度用于衡量预测结果的解释再现预测结果的程度,利用大图上预测结果y

反事实相关性用于衡量反事实解释中差异的大小,定义子图的反事实是子图的扰动,并将反事实限制为解释子图的严格子图

图模型为由节点和节点之间的边组成的图结构模型,所述边的两端各设有一个节点,节点包括目标节点v

其中,

如图1为反事实解释示例,图1虚竖线左侧的上部为大图G,大图G的每个圆圈表示一个节点,大图G的1*至12*为采用广度优先搜索对变量节点进行规范化编号,虚竖线左侧的下部为大图上预测结果y

本发明中的反事实解释技术包含三个主要部分:子图枚举模块、最优解释搜素模块、解释鲁棒性模块。

本发明提出了搜索图神经网络反事实解释的GNNCFE算法(基于反事实的图神经网络可解释性方法),算法将反事实解释的优化问题定义为一个双目标优化问题,该问题的目标优化函数是两个解释指标度量的向量,分别是可模拟性和反事实相关性,因为人们不希望将一个解释目标换成另一个解释目标,例如将反事实关联性转换成可模拟性或者将可模拟性转换成反事实关联性,可模拟性低或反事实相关性低都会抑制人类对反事实解释的接受度,本发明不使用单一的标量目标函数,例如

采用子图枚举模块进行步骤一、根据待解释的大图G和大图上的目标节点v

GNNCFE算法使用深度优先搜索算法(DFS)来进行子图的枚举,深度优先搜索算法被应用于探索待解释的大图上的子图空间,由于目标节点的预测结果仅取决于目标节点的邻域,包括离目标节点最多为L跳的邻域节点(L为正整数,为设定的一个数值,用于限定目标节点的邻域),因此深度优先搜索算法的范围仅限于该邻域,本发明通过设置最大搜索距离D来设置子图搜索范围,通常情况下最大搜索距离被设置为D≤L,其中当D=L时算法考虑所有影响目标节点的因素,而当D<L时算法将忽略最大搜索距离D之外的因素。除了最大搜索距离之外,本发明还考虑设置最大子图复杂度C来限制解释子图G

对于给定图模型和其上的目标节点,本发明采用分治法来枚举连接的非循环子图,其中枚举过程被分为两个部分,第一部分是从目标节点开始,本发明通过深度优先搜索探索包含更多边的子图,每次从新探索的节点出发来探索距离更远的节点,第二部分是当从最远节点出发且没有其余节点可以探索的时候,本发明从子图上的其他节点去探索递归地扩展子图。在枚举过程中深度优先搜索算法已完成枚举的边将被标记成禁止访问,这样深度优先搜索在以后的搜索中就不会访问它们,从而保证了枚举子图的非重复性。在探索过程中,新探索的边在遇到下面几种情况下将不会添加到子图中:1)这条边已经被标记为禁止访问,2)若添加这条边会导致子图中产生循环,3)若添加这条边会使子图中节点个数大于设置好的最大子图复杂度,4)若添加这条边会使子图中的解释节点与目标节点间的距离超过最大搜索距离,其中第一条规则是确保子图枚举的完整性,并且保证了避免枚举重复,最后两个规则是为了降低枚举成本。在完全处理完前一条边之前,另一条边是不会被处理的,只有当包含前一条边的所有子图都完成枚举之后,才会开始处理另一条边的枚举。

在运行本发明的算法之前,每条边的规范排序由大图G上的广度优先搜索算法确定,本发明使用广度优先搜索算法对变量节点进行规范化编号,相同的子图将由具有规范变量编号的唯一边沿数组表示,规范化编号操作加速了深度优先搜索算法在子图枚举过程中的效率,从而避免在子图枚举期间进行图形同构测试,而且还能保证没有枚举重复子图。

采用最优解释搜索模块进行步骤二、对每个枚举得到的解释子图计算可模拟性和反事实相关性,对所有G

在搜索最优解释时,最优解释搜索模块需要在每个子图上运行一遍(评价每一个子图),从而对每个子图计算可模拟性v(G

本发明的优化目标是要同时最大化两个指标可模拟性和反事实相关性,但是最大化两个指标中的任意一个指标都有可能会导致另一个指标的降低,由于存在多个合理的解释和相应的反事实,而不是需要一个优于所有其他解决方案的单一解决方案,因此本发明允许在这两个指标中在任一指标中略微次优来收集一组解释,这些解释的两个指标都在所有解释的前百分比以内,称为帕雷托前沿解,又称帕雷托最优解,若某一解释子图的反事实相关性位于其帕雷托前沿解中但该子图的可模拟性较低,那么该解释子图是没有用的,同样若某一子图的可模拟性位于其帕雷托前沿解中但该子图的反事实相关性未位于其帕雷托前沿解,那么该解释子图也是没有用的,因为解释的多样性对最终用户来说很重要。

本发明搜索帕雷托前沿解的方法是对解释的两个指标进行联合排名,最终解释的两个指标应当都处于所有解释的最前列,具体通过将所有子图的可模拟性v(G

采用解释鲁棒性模块进行步骤三、分析最优G

若鲁棒性强(达到预设阈值)则采用最优G

GNNCFE算法通过子图枚举来搜索反事实解释的帕雷托前沿解,然而图神经网络解释的鲁棒性也十分重要,算法生成的解释应当根据预测结果的不同而有所不同,且应当如实反映如何产生变化的预测,并且在无关紧要的情况下应保持相同。本发明定义图神经网络解释子图的鲁棒性为其在受到扰动后解释子图的变化程度,该扰动应当与产生预测结果的机制无关。如果解释不能通过鲁棒性检查的话,则表示解释不能反应图神经网络编码的输入和输出之间的关系,如果解释能通过鲁棒性检查,则意味着这些解释可以揭示对模型或数据的恶意攻击。

图神经网络根据结果性质可以进行划分,例如图卷积网络、图注意力网络、图自动编码器、图生成网络和图时空网络等,但是可以使用统一的消息传递更新框架来对图模型的图神经网络进行描述:

首先,图模型计算v

现有方法还未针对图结构数据的图神经网络进行鲁棒性检验,因此本发明提出图神经网络解释的鲁棒性评估指标,考虑到影响图神经网络预测结果的因素包括有邻居节点传递的消息

另一种是扰动图神经网络模型的参数,原始图神经网络模型参数为

在经过上述两种扰动中的一种扰动攻击后,图模型最终的输出结果y

其中,d

本发明的基于反事实解释流程的举例如图2所示,输入的节点包括节点1’至20’。

基于反事实的图神经网络可解释性方法提出了图神经网络预测反事实解释的两个度量指标可模拟性和反事实相关性,基于此设计了一种基于图表的反事实解释形式,更易于人类理解。本发明设计了一个双目标优化问题来搜索最优解释,还设计了一种子图枚举算法来有效地搜索这两个指标的帕累托最优解。本发明研究了图神经网络解释的鲁棒性,提出了图神经网络解释的鲁棒性评估指标,证明算法在鲁棒性和敏感性之间达到很好的平衡。

现有的图神经网络解释方法通常侧重于简化计算,忽略了人类感知和计算的反事实推理,可解释性的重点在于让人们来理解模型决策的过程,提高解释的可理解性是十分重要的,而反事实解释的形式就是人们天然可理解的,相比于传统的一些解释形式例如重要性分数等,人们对反事实解释的理解能力更强,基于此本发明还设计了一种基于图表的反事实解释形式,从而进一步增强了解释的可理解性,同时本发明还关注了解释的鲁棒性评估问题,提高解释的鲁棒性也有利于提高解释的可信度,最终本发明方法得到的反事实解释可以更好地被人们所理解和接受。

相关技术
  • 基于反事实的图神经网络可解释性方法
  • 基于反事实多智能体学习的图像场景图的生成方法和系统
技术分类

06120113227996