掌桥专利:专业的专利平台
掌桥专利
首页

机器学习模型解释方法、装置以及存储介质

文献发布时间:2023-06-19 16:06:26



技术领域

本公开涉及人工智能技术领域,尤其涉及一种机器学习模型解释方法、装置以及存储介质。

背景技术

近年来机器学习技术蓬勃发展,在各行各业中已得到广泛应用。在机器学习模型的应用中,通常通过机器学习建模进行分类或回归预测,对于给定的输入信息进行反馈并输出结论,属于“黑盒”应用。在运营商移动网络优化等业务场景中,不仅需要构建机器学习模型来实现对网络质量的优劣分类,还需要了解模型内部对诸多输入特征的权重分析、判断策略以及门限值的选择,掌握网络质量优劣与诸多特征的数学关系,进而对关键特征进行针对性的优化,彻底解决网络质量问题。因此,需要一种能够进行机器学习模型解释的技术方案。

发明内容

有鉴于此,本发明要解决的一个技术问题是提供一种机器学习模型解释方法、装置以及存储介质。

根据本公开的第一方面,提供一种机器学习模型解释方法,包括:获取网络性能数据,基于所述网络性能数据训练第一机器学习模型;在所述第一机器学习模型训练完成之后,获取与所述网络性能数据中包含的各个特征相对应的特征权重;基于所述特征权重从所述网络性能数据中包含的全部特征中选取模型特征;基于所述模型特征对所述网络性能数据进行处理,用以构建训练集;使用所述训练集对第二机器学习模型进行训练,获取与所述第二机器学习模型相对应的决策树结构;其中,所述决策树结构中的决策节点用于表征模型特征判断,并设置有特征判断信息;根据所述特征判断信息在所述决策树结构中确定判断选择路径,作为所述第二机器学习模型的解释性工作路径。

可选地,所述第二机器学习模型包括:决策树模型;所述根据所述特征判断信息在所述决策树结构中确定判断选择路径包括:在所述决策树结构中,获取待判断决策节点的多个孩子决策节点;基于各个孩子决策节点的特征判断信息,从所述多个孩子决策节点中确定一个判决目标节点;将所述待判断决策节点和所述判决目标节点之间的路径,确定为所述判断选择路径。

可选地,所述特征判断信息包括:基尼系数、本节点样本覆盖数量;所述从所述多个孩子决策节点中确定一个判决目标节点包括:基于所述基尼系数、所述样本覆盖数量,从所述多个孩子决策节点中确定一个判决目标节点。

可选地,所述多个孩子决策节点的数量为两个;所述基于所述基尼系数、所述样本覆盖数量,从所述多个孩子决策节点中确定一个判决目标节点包括:从所述两个孩子决策节点中选取所述基尼系数较小并且所述样本覆盖数量较多的孩子决策节点,作为所述判决目标节点。

可选地,计算所述网络性能数据之间的皮尔逊相关系数;基于所述皮尔逊相关系数对所述网络性能数据进行筛选处理。

可选地,所述基于所述特征权重从所述网络性能数据中包含的全部特征中选取模型特征包括:基于所述特征权重对所述全部特征进行排序;根据排序结果选取特征权重最高的多个特征,作为所述模型特征。

可选地,所述第一机器学习模型包括:随机森林模型;所述网络性能数据包括:小区性能数据。

根据本公开的第二方面,提供一种机器学习模型解释装置,包括:第一训练模块,用于获取网络性能数据,基于所述网络性能数据训练第一机器学习模型;权重获取模块,用于在所述第一机器学习模型训练完成之后,获取与所述网络性能数据中包含的各个特征相对应的特征权重;特征选取模块,用于基于所述特征权重从所述网络性能数据中包含的全部特征中选取模型特征;数据处理模块,用于基于所述模型特征对所述网络性能数据进行处理,用以构建训练集;第二训练模块,用于使用所述训练集对第二机器学习模型进行训练,获取与所述第二机器学习模型相对应的决策树结构;其中,所述决策树结构中的决策节点用于表征模型特征判断,并设置有特征判断信息;路径选取模块,用于根据所述特征判断信息在所述决策树结构中确定判断选择路径,作为所述第二机器学习模型的解释性工作路径。

可选地,所述第二机器学习模型包括:决策树模型;其中,所述路径选取模块,包括:节点获取单元,用于在所述决策树结构中,获取待判断决策节点的多个孩子决策节点;节点选取单元,用于基于各个孩子决策节点的特征判断信息,从所述多个孩子决策节点中确定一个判决目标节点;路径确定单元,用于将所述待判断决策节点和所述判决目标节点之间的路径,确定为所述判断选择路径。

可选地,所述特征判断信息包括:基尼系数、本节点样本覆盖数量;其中,所述节点选取单元,具体用于基于所述基尼系数、所述样本覆盖数量,从所述多个孩子决策节点中确定一个判决目标节点。

可选地,所述多个孩子决策节点的数量为两个;其中,所述节点选取单元,具体用于从所述两个孩子决策节点中选取所述基尼系数较小并且所述样本覆盖数量较多的孩子决策节点,作为所述判决目标节点。

可选地,所述第一训练模块,还用于计算所述网络性能数据之间的皮尔逊相关系数;基于所述皮尔逊相关系数对所述网络性能数据进行筛选处理。

可选地,所述特征选取模块,具体用于基于所述特征权重对所述全部特征进行排序;根据排序结果选取特征权重最高的多个特征,作为所述模型特征。

根据本公开的第三方面,提供一种机器学习模型解释装置,包括:存储器;以及耦接至所述存储器的处理器,所述处理器被配置为基于存储在所述存储器中的指令,执行如上所述的方法。

根据本公开的第四方面,提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机指令,所述指令被处理器执行如上的机器学习模型解释方法。

本公开的机器学习模型解释方法、装置以及存储介质,基于网络性能数据训练第一机器学习模型,获取与网络性能数据中包含的各个特征相对应的特征权重,基于特征权重选取模型特征;基于模型特征对第二机器学习模型进行训练,获取与第二机器学习模型相对应的决策树结构;在决策树结构中确定判断选择路径,作为解释性工作路径;通过对解决的问题进行复杂度整理并对特征进行裁剪,降低了算法复杂度;通过决策树模型进行可解释性工作,流程简单、操作便捷高效,可以准确地获取机器学习模型的决策依据,兼顾了简便性与准确性。

附图说明

为了更清楚地说明本公开实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其它的附图。

图1为根据本公开的机器学习模型解释方法的一个实施例的流程示意图;

图2为各个特征对模型结果的影响重要度评价示意图;

图3为根据本公开的机器学习模型解释方法的一个实施例中的确定判断选择路径的流程示意图;

图4为决策树结构中的节点的可视化显示示意图;

图5A-5D为特征取值分布的示意图;

图6为根据本公开的机器学习模型解释装置的一个实施例的模块示意图;

图7为根据本公开的机器学习模型解释系统的一个实施例中的路径选取模块的模块示意图;

图8为根据本公开的机器学习模型解释装置的另一个实施例的模块示意图。

具体实施方式

下面参照附图对本公开进行更全面的描述,其中说明本公开的示例性实施例。下面将结合本公开实施例中的附图,对本公开实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本公开一部分实施例,而不是全部的实施例。基于本公开中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本公开保护的范围。下面结合各个图和实施例对本公开的技术方案进行多方面的描述。

为了解决机器学习模型的黑盒问题,业界进行了机器学习可解释性的研究。可解释性指对模型内部机制的理解以及对模型结果的理解,代表了人类能够理解决策原因的程度。对于机器学习模型解释的研究处于初级阶段,仍然有很多问题尚未解决。目前,比较典型的问题是机器学习的可解释性受模型复杂度的制约,为了获得清晰直观的可解释性,用户往往会选择结构简单的模型,但这类模型并不一定是实际问题的最优模型。而当用户使用诸如深度学习等复杂模型时,虽然能够更加贴切的反映并解决实际问题,但其可解释性又较差。

图1为根据本公开的机器学习模型解释方法的一个实施例的流程示意图,如图1所示:

步骤101,获取网络性能数据,基于网络性能数据训练第一机器学习模型。

在一个实施例中,网络性能数据可以为小区性能数据等;第一机器学习模型可以为多种模型,例如为随机森林模型等。随机森林指的是利用多棵树对样本进行训练并预测的一种分类器,本公开可以使用现有的随机森林模型,可以使用现有的训练方法使用网络性能数据训练随机森林模型。

步骤102,在第一机器学习模型训练完成之后,获取与网络性能数据中包含的各个特征相对应的特征权重。

在一个实施例中,网络性能数据中包含的特征包括小区编号、小区位置、小区带宽等,获取与小区编号、小区位置、小区带宽等各个特征相对应的特征权重。

步骤103,基于特征权重从网络性能数据中包含的全部特征中选取模型特征。

步骤104,基于模型特征对网络性能数据进行处理,用以构建训练集。

在一个实施例中,基于模型特征对网络性能数据进行裁剪处理,使每条网络性能数据仅包括模型特征,基于裁剪后的网络性能数据构建训练集。

步骤105,使用训练集对第二机器学习模型进行训练,获取与第二机器学习模型相对应的决策树结构;其中,决策树结构中的决策节点用于表征模型特征判断,并设置有特征判断信息。

在一个实施例中,第二机器学习模型可以为决策树模型等,决策树模型是一种非参数分类器,计算速度较快,结果容易解释,而且稳健性强。本公开可以使用现有的决策树模型。

在一个实施例中,将第一机器学习模型与第二机器学习模型的学习能力进行评估,判断第二机器学习模型的学习能力是否不低于第一机器学习的学习能力,如果是,则进入步骤106,如果否,则重复进行101-104步骤,直到选出合适的特征、或者流程终结。例如,如果第一机器学习模型的正确率、查准率等评估指标与第二机器学习模型对应的正确率、查准率等评估指标之间的差值小于预设的阈值,则确定第二机器学习模型的学习能力不低于第一机器学习的学习能力。

步骤106,根据特征判断信息在决策树结构中确定判断选择路径,作为第二机器学习模型的解释性工作路径。

在一个实施例中,计算网络性能数据之间的皮尔逊相关系数,基于皮尔逊相关系数对网络性能数据进行筛选处理。网络性能数据为移动通信网的无线网络性能指标,特征主要包括KPI,KQI、MR等,分别记录了网元关键指标、网元用户体验指标、基站测量报告信息,从不同层面描述了电信系统的运行状态,指标数量较多且呈现较强的时空关联性。在时间上,相邻时刻的指标之间耦合度较大,而在空间上,相邻基站的指标之间会相互影响。

利用皮尔逊系数分析特征之间的线性关系,对数据做标准化,进行皮尔逊相关系数选择。可以使用现有的方法计算所述网络性能数据之间的皮尔逊相关系数,并基于所述皮尔逊相关系数对所述网络性能数据进行筛选处理。例如,计算网络性能数据之间的皮尔逊相关系数,将皮尔逊相关系数的绝对值低于或高于等于预设的系数阈值的网络性能数据删除。

在一个实施例中,基于特征权重从网络性能数据中包含的全部特征中选取模型特征可以采用多种方法。例如,基于特征权重对全部特征进行排序,根据排序结果选取特征权重最高的多个特征,作为模型特征。模型特征的数量可以设置,例如为20,30个等。

借助随机森林模型的并行特点,充分的对输入的特征进行分析学习,最终通过各决策树的集成加权找出对目标影响较大的特征。例如,使用sklearn工具库中的RandomForestClassifier方法构建随机森林模型,n_estimators为决策树的棵树参数,设置为20-100之间,其他参数采用默认值。

随机森林模型训练完成后,可视化输出feature_importances特征权重,获取与网络性能数据中包含的各个特征相对应的特征权重,按特征权重的降序排列截取位于Top20的特征,作为模型特征,如图2所示。

图3为根据本公开的机器学习模型解释方法的一个实施例中的确定判断选择路径的流程示意图,如图3所示:

步骤301,在决策树结构中,获取待判断决策节点的多个孩子决策节点。孩子决策节点也可以称为叶子决策节点或叶子节点。

步骤302,基于各个孩子决策节点的特征判断信息,从多个孩子决策节点中确定一个判决目标节点。

步骤302,将待判断决策节点和判决目标节点之间的路径,确定为判断选择路径。

在一个实施例中,特征判断信息包括基尼系数、本节点样本覆盖数量等;基于基尼系数、样本覆盖数量,从多个孩子决策节点中确定一个判决目标节点。例如,多个孩子决策节点的数量为两个,从两个孩子决策节点中选取基尼系数较小并且样本覆盖数量较多的孩子决策节点,作为判决目标节点。

或者,对于基尼系数较小并且样本覆盖数量较小的孩子决策节点,以及基尼系数较大并且样本覆盖数量较多的孩子决策节点,可以采用预设的评分规则计算各个孩子决策节点的评分。评分规则可以为多种,例如,设置与基尼系数对应的第一评分表,设置与样本覆盖数量相对应的第二评分表,通过查询第一评分表和第二评分表确定与基尼系数、本节点样本覆盖数量对应的第一分数和第二分数;将第一分数和第二分数之和较高的孩子决策节点,作为判决目标节点。

在一个实施例中,借助随机森林模型对输入特征的强大筛选能力,可以获取到20个对网络优化目标起到关键作用的模型特征。决策树模型基于这些模型特征进行建模工作,一方面解决了模型自身对海量特征筛选能力较弱的问题,另一方面其良好的可读性对下一步模型可解释工作起到了便利作用。

例如,使用sklearn工具库中的DecisionTreeClassifier方法来构建决策树模型,为便于后续解释工作,max_depth决策树深度参数设置为3-4较浅级别,其他参数采用默认值。

通过sklearn工具库的export_graphviz方法,将训练好的决策树模型可视化输出,获取与决策树模型相对应的决策树结构,如图4所示。图4中的每个节点(决策节点)代表一个模型特征判断,节点中可以直观的看到基尼系数(gini)、本节点处理样本数(samples)、本节点分类样本数等信息(特征判断信息)。选择基尼系数较低、覆盖样本量较多的一条路径,作为可解释性的工作路径,即解释性工作路径。

如图4所示,在决策树结构中,获取待判断决策节点的两个孩子决策节点,左侧孩子节点的基尼系数为0.0、本节点样本覆盖数量为50;右侧孩子节点的基尼系数为0.5、本节点样本覆盖数量为100。采用预设的评分规则计算这两个孩子决策节点的评分,从两个孩子决策节点中选取评分较高的左侧孩子决策节点,作为判决目标节点。

本公开提供一种对问题复杂度进行降维处理的机器学习解释方法。对于简单机器学习模型无法胜任的复杂问题,首先构建高级模型通过嵌入式特征选择来提取出关键特征(模型特征),在确保特征与目标的内涵关联价值基本不变的前提下,将原本庞大而复杂的特征集合裁剪为数量可控、复杂度可控的关键特征子集,对复杂问题进行降维。最后在该特征子集上构建可解释性高的模型进行事前解释。

例如,在无线网络质量优化工作中,将决策树模型的深度设置为3层,可视化输出后可以获得直观的决策树结构,基于决策树结构中的每个决策节点的基尼系数、样本覆盖数量选择解释分支,即确定判断选择路径。

在一个实施例中,实验数据集选择某地市5日内的小区性能数据(KPI),每条记录包含667项特征,特征包括小区编号、小区位置、小区带宽等。本数据集中共有12337条记录,其中包含正样本1980例,负样本10357例,不平衡比例为1:5.23。将T1日到T3日的数据作为训练集,T4日的数据作为测试集,T5日的数据为验证集。

随机森林模型基于全量特征的学习结果为:Accuracy正确率=73.72%、Precesion查准率=72.94%、Recall召回率=77%。从667项特征中选取Top20特征,作为模型特征,分别是附加E-RAB建立成功次数、无线连接成功率、下行平均激活用户数、RRC连接重建比例、E-RAB数据传输时长、下行PRB平均占用率等特征。

决策树模型基于上述Top20模型特征的学习结果为:Accuracy正确率=75.79%、Precesion查准率=74.69%、Recall召回率=80.37%。可以看到在特征裁剪、模型变更之后,决策树的学习能力并不弱于随机森林模型,甚至有所超越,说明模型特征的选择有效,这两个模型对特征和目标的学习能力基本一致,后续基于决策树的可解释性分析是充分可靠的。

在决策树模型中,依据算法公式按每个节点的基尼系数、样本覆盖率(数量)来选择解释分支。例如,在本组实验数据中,最后选择samples样本覆盖数>1500和gini基尼系数<0.32的节点,并且最终叶子节点分类属性为1的路径。可解释性工作获得的关键特征和阈值如下表1所示:

表1-可解释性工作获得的关键特征和阈值

由上可知,当小区内UE发起的RRC连接成功率不大于0.998,并且用户面下行包平均时延不小于117.531毫秒,并且小区PDCP层下行有效吞吐率不大于7.065的时候,该小区的网络质量大概率是存在劣化可能的。运用该结论在训练集中筛选出网络质量劣化的样本,正确率为81.144%。

进行结果验证:首先对T5日验证集数据中的各特征取值分布,与T1-T4日的特征取值分布进行对比。图5A-5D为对比结果,可以发现二者数据分布特征高度一致,因此基于训练集所得到的模型可解释性结论,具备一定泛化能力。

按照得到的可解释性结论(表1中的三个关键指标和阈值),对验证集样本数据进行分类判断,准确率为77.83%,具备一定的可用性。建议在网优日常工作中,重点关注上述指标的运行质量情况。可解释性工作结论在训练集和验证集的正确率对比如下表2所示:

表2-可解释性工作结论在训练集和验证集的正确率对比

根据上述解释工作得到结论:当小区内UE发起的RRC连接成功率不大于0.998,并且用户面下行包平均时延不小于117.531毫秒,并且小区PDCP层下行有效吞吐率不大于7.065的时候,该小区的网络质量大概率是存在劣化可能的。运用该结论在训练集中筛选出网络质量劣化的样本,正确率为81.144%。

在一个实施例中,如图6所示,本公开提供一种机器学习模型解释装置60,包括:第一训练模块61、权重获取模块62、特征选取模块63、数据处理模块64、第二训练模块65和路径选取模块66。

第一训练模块61获取网络性能数据,基于网络性能数据训练第一机器学习模型。权重获取模块62在第一机器学习模型训练完成之后,获取与网络性能数据中包含的各个特征相对应的特征权重。特征选取模块63基于特征权重从网络性能数据中包含的全部特征中选取模型特征。

数据处理模块64基于模型特征对网络性能数据进行处理,用以构建训练集。第二训练模块65使用训练集对第二机器学习模型进行训练,获取与第二机器学习模型相对应的决策树结构;其中,决策树结构中的决策节点用于表征模型特征判断,并设置有特征判断信息。路径选取模块66根据特征判断信息在决策树结构中确定判断选择路径,作为第二机器学习模型的解释性工作路径。

在一个实施例中,第一训练模块61计算网络性能数据之间的皮尔逊相关系数,基于皮尔逊相关系数对网络性能数据进行筛选处理。特征选取模块63基于特征权重对全部特征进行排序,根据排序结果选取特征权重最高的多个特征,作为模型特征。

在一个实施例中,第二机器学习模型包括决策树模型;如图7所示,路径选取模块66包括节点获取单元661、节点选取单元662和路径确定单元663。节点获取单元661在决策树结构中,获取待判断决策节点的多个孩子决策节点。节点选取单元662基于各个孩子决策节点的特征判断信息,从多个孩子决策节点中确定一个判决目标节点。路径确定单元663将待判断决策节点和判决目标节点之间的路径,确定为判断选择路径。

特征判断信息包括基尼系数、本节点样本覆盖数量等。节点选取单元662基于基尼系数、样本覆盖数量,从多个孩子决策节点中确定一个判决目标节点。例如,多个孩子决策节点的数量为两个,节点选取单元662从两个孩子决策节点中选取基尼系数较小并且样本覆盖数量较多的孩子决策节点,作为判决目标节点。

在一个实施例中,图8为根据本公开的机器学习模型解释装置的另一个实施例的模块示意图。如图8所示,该装置可包括存储器801、处理器802、通信接口803以及总线804。存储器801用于存储指令,处理器802耦合到存储器801,处理器802被配置为基于存储器801存储的指令执行实现上述的机器学习模型解释方法。

存储器801可以为高速RAM存储器、非易失性存储器(non-volatile memory)等,存储器801也可以是存储器阵列。存储器801还可能被分块,并且块可按一定的规则组合成虚拟卷。处理器802可以为中央处理器CPU,或专用集成电路ASIC(Application SpecificIntegrated Circuit),或者是被配置成实施本公开的机器学习模型解释方法的一个或多个集成电路。

在一个实施例中,本公开提供一种计算机可读存储介质,计算机可读存储介质存储有计算机指令,指令被处理器执行时实现如上任一个实施例中的机器学习模型解释方法。

上述实施例提供的机器学习模型解释方法、装置以及存储介质,基于网络性能数据训练第一机器学习模型,获取与网络性能数据中包含的各个特征相对应的特征权重,基于特征权重选取模型特征;基于模型特征对第二机器学习模型进行训练,获取与第二机器学习模型相对应的决策树结构;在决策树结构中确定判断选择路径,作为解释性工作路径;通过对解决的问题进行复杂度整理并对特征进行裁剪,降低了算法复杂度;通过决策树模型进行可解释性工作,流程简单、操作便捷高效,可以准确地获取机器学习模型的决策依据,兼顾了简便性与准确性。

可能以许多方式来实现本公开的方法和系统。例如,可通过软件、硬件、固件或者软件、硬件、固件的任何组合来实现本公开的方法和系统。用于方法的步骤的上述顺序仅是为了进行说明,本公开的方法的步骤不限于以上具体描述的顺序,除非以其它方式特别说明。此外,在一些实施例中,还可将本公开实施为记录在记录介质中的程序,这些程序包括用于实现根据本公开的方法的机器可读指令。因而,本公开还覆盖存储用于执行根据本公开的方法的程序的记录介质。

本公开的描述是为了示例和描述起见而给出的,而并不是无遗漏的或者将本公开限于所公开的形式。很多修改和变化对于本领域的普通技术人员而言是显然的。选择和描述实施例是为了更好说明本公开的原理和实际应用,并且使本领域的普通技术人员能够理解本公开从而设计适于特定用途的带有各种修改的各种实施例。

技术分类

06120114708035