掌桥专利:专业的专利平台
掌桥专利
首页

有监督学习的标注异常处理方法、装置、存储介质及设备

文献发布时间:2023-06-19 10:27:30


有监督学习的标注异常处理方法、装置、存储介质及设备

技术领域

本申请涉及深度学习技术领域,具体而言,涉及一种有监督学习的标注异常处理方法、装置、存储介质及设备。

背景技术

深度学习技术广泛的实际应用到现实生活中,如人脸识别、语音识别和智能客服等方面。深度学习模型通常由一组神经网络构成,在应用之前都需要经过训练系统进行样本训练,以提高学习的准确性。基于是否需要提前对训练样本打上标签,可以将训练过程分为有监督训练和无监督训练,有监督的训练需要提前准备好打上类别标签的样本,如一张图片属于“水果”还是“动物”。

基于深度学习的训练系统采用梯度下降法更新模型参数,训练过程中从样本集每次取一小批样本出来训练更新参数,每一批样本数量可以是数个样本也可以是数千个,直到取完所有样本算完成一轮训练,训练过程中往往需要重复多轮训练,直到没办法朝着梯度下降的方向更新参数。现有技术中,难以避免出现错误的样本标注,这种标注异常的样本会使得模型做出较大的参数调整以适应该样本,从而降低模型对标注正常的样本预测的置信度,因此需要降低标注异常的样本对模型的影响。

发明内容

本申请的目的在于提供一种有监督学习的标注异常处理方法、装置、存储介质及设备,用以有效的改善现有技术解决标注异常中存在的通用性差和准确率不高的技术缺陷。

第一方面,本申请实施例提供了一种有监督学习的标注异常处理方法,方法应用于深度学习的训练系统,方法包括以下步骤:S11:基于样本集中的第一样本子集构建的第一元训练装置分别计算当前N个分类模型中每个分类模型对应的第一下降梯度;其中,N为大于0的整数;S12:基于当前N个第一下降梯度确定出的综合梯度对当前第一元模型朝着梯度下降的方向更新参数,并将更新后获得的元模型确定为第二元模型;其中,第一样本子集与第二样本子集在样本集的基础上采用不同的采样方式分别获得,元模型用于定义深度学习的训练系统的神经网络架构,元训练装置用于根据样本集训练元模型,分类模型为基于第二样本子集构建的第二元训练装置训练获得,每个分类模型分别对应一个第二训练装置; S13:判断综合梯度的值是否不再下降,若是,将当前的第二元模型确定为目标模型;若否,基于所述样本集中的新的第一样本子集重复S11和S12。

在上述实现过程中,采用元模型作为目标模型,在训练过程中使用基于样本集中的多个第二样本子集训练获得多个分类模型,在这个训练过程中不能直接更新目标模型参数,从而,样本集中即使存在标注异常的样本也无法直接影响目标模型的参数,减少训练系统存在的异常波动问题;使用基于样本集中的一个第一样本子集在多个分类模型上计算下降梯度,再综合所有分类模型上的下降梯度获得综合梯度,根据获得的综合梯度更新元模型后获得目标模型,使用综合梯度的方式更新元模型的参数,最大程度消除了异常样本对目标模型的影响。

结合第一方面,在第一种可能的实现方式中,在步骤S11之前,方法还包括:基于样本集中的若干个第二样本子集构建出L个第二元训练装置,其中,L为大于0的整数;基于当前第一元模型拷贝构建M个第一元模型副本,确定每个第二元训练装置对应一个第一元模型副本,其中,M为大于0的整数,第一元模型副本分别与对应的第一元模型参数结构一致;每个第二元训练装置分别对对应的第一元模型副本以梯度下降的方式更新参数,获得当前每个第二元训练装置对应的分类模型,共N个。

在上述实现过程中,基于若干个第二样本子集构建的分别对应的第二元训练装置训练元模型从而获得对应的分类模型,这是基于拷贝第一元模型得到的第一元模型副本进行的,从而,即使某一批样本数据有问题,存在异常样本,也无法直接影响目标模型的参数,从而减小了异常样本对目标模型的波动影响。

结合第一方面,在第二种可能的实现方式中,步骤S12中,基于当前N个第一下降梯度确定出的综合梯度对当前第一元模型朝着梯度下降的方向更新参数,并将更新后获得的元模型确定为第二元模型,具体包括:从样本集中采样一组样本确定为当前第一样本子集,根据当前第一样本子集构建当前第一元训练装置;当前第一元训练装置分别对当前对应的每个分类模型计算梯度,获得当前每个分类模型对应的第一下降梯度;根据当前所有的第一下降梯度,确定出当前的综合梯度,并使用当前的综合梯度对第一元模型朝着梯度下降的方向更新参数,将更新后的元模型确定为第二元模型。

结合第一方面的第二种可能的实现方式,在第三种可能的实现方式中,根据当前所有的第一下降梯度,确定出当前的综合梯度,包括:获得当前所有的第一下降梯度;使用加法、求均值或非加法中的任一种方式对当前所有的第一下降梯度进行梯度综合,确定出当前的综合梯度。

结合第一方面,在第四种可能的实现方式中,S13中,判断综合梯度的值是否不再下降,若是,将当前的第二元模型确定为目标模型;若否,基于样本集中的新的第一样本子集重复S11和S12,具体包括:获得当前综合梯度,判断当前综合梯度的值是否不再下降,若是,将当前的第二元模型确定为目标模型;若否,将当前的第二元模型更新确定成为新的第一元模型,并使用样本集中的新的第一样本子集构建新的第一元训练装置以重复S11和S12。

结合第一方面,在第五种可能的实现方式中,在S13之后,方法还包括:使用目标模型对未知样本集预测对应的标签,检验目标模型的准确性,其中,未知样本集用于表示未参与训练系统中的训练过程的样本集。

第二方面,本申请实施例提供了一种有监督学习的标注异常处理装置,装置包括:计算模块,用于基于样本集中的第一样本子集构建的第一元训练装置分别计算当前N个分类模型中每个分类模型对应的第一下降梯度,其中,N为大于0的整数;运算模块,用于基于当前N个第一下降梯度确定出的综合梯度对当前第一元模型朝着梯度下降的方向更新参数,将更新后获得的元模型确定为第二元模型,其中,第一样本子集与第二样本子集在样本集的基础上采用不同的采样方式分别获得,元模型用于定义深度学习的训练系统的神经网络架构,元训练装置用于根据样本集训练元模型,分类模型为基于第二样本子集构建的第二元训练装置训练获得,每个分类模型分别对应一个第二训练装置;判断模块,用于判断综合梯度的值是否不再下降;第一处理模块,用于在综合梯度的值不再下降时,将当前的第二元模型确定为目标模型;第二处理模块,用于在综合梯度的值下降时,基于样本集中的新的第一样本子集重复执行计算模块和运算模块所执行的步骤。

第三方面,本申请实施例提供了一种存储介质,存储介质上存储有计算机程序,计算机程序被计算机运行时执行第一方面及第一方面任一种可能的实现方式提供的有监督学习的标注异常处理方法。

第四方面,本申请实施例提供了一种电子设备,电子设备包括:处理器、通信总线、通信接口以及存储器;通信总线分别连接处理器、通信接口和存储器;存储器存储有计算机可读取指令,当处理器执行可读取指令时,运行如第一方面及第一方面任一种可能的实现方式提供的有监督学习的标注异常处理方法。

与现有技术相比,本发明的有益效果为:一方面,本申请使用元模型作为目标模型,在训练中样本使用不同的样本更新对应的目标模型的副本,通过这样的新型训练结构使得训练过程中每一批样本不能直接更新目标模型参数,从而,样本集中即使存在标注异常的样本也无法直接影响目标模型的参数,减少训练系统存在的异常波动问题,提高目标模型的准确性。另一方面,本申请解决的是标注异常的异常样本带来的问题,与样本集的领域以及具体的神经网络模型架构无关,从而适用于有监督学习模式下的任何领域和任何架构的神经网络模型,获得的目标模型的通用性高。

附图说明

为了更清楚地说明本申请实施例的技术方案,下面将对本申请实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本申请的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。

图1为本申请实施例提供的一种设备的结构框图;

图2为本申请实施例提供的一种有监督学习的标注异常处理方法的流程示意图;

图3为本申请实施例提供的一种有监督学习的标注异常处理方法的另一示例性流程示意图;

图4为本申请实施例提供的一种有监督学习的标注异常处理装置的结构框图。

具体实施方式

下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行描述。

应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。同时,在本申请的描述中,术语“第一”、“第二”等仅用于区分描述,而不能理解为指示或暗示相对重要性。

请参阅图1,本申请一些可能的实施例提供了一种设备10。设备10可以为个人电脑(Personal Computer,PC)、平板电脑、智能手机、个人数字助理(Personal DigitalAssistant,PDA)等,或设备10可以为网络服务器、数据库服务器、云服务器或由多个子服务器构成的服务器集成等。

进一步地,设备10可以包括:存储器111、通信接口112、通信总线113和处理器114,其中,处理器114、通信接口112和存储器111通过通信总线113连接。处理器114用于执行存储器111中存储的可执行模块,例如计算机程序。图1所示的电子设备10的组件和结构只是示例性的,而非限制性的,根据需要,设备10也可以具有其他组件和结构。

其中,存储器111可能包含高速随机存取存储器(Random Access Memory RAM),也可能还包括非不稳定的存储器(non-volatile memory),例如至少一个磁盘存储器。

通信总线113可以是ISA总线((Industry Standard Architecture,工业标准体系结构)、PCI总线(Peripheral Component Interconnect,外设部件互连标准)或EISA总线(Extended Industry Standard Architecture,扩展工业标准结构)等。通信总线可以分为地址总线、数据总线、控制总线等。为便于表示,图1中仅用一个双向箭头表示,但并不表示仅有一根总线或一种类型的总线。

处理器114可能是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法的各步骤可以通过处理器114中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器114可以是通用处理器,包括中央处理器(Central Processing Unit,CPU)、网络处理器(Network Processor,NP)等;还可以是数字信号处理器(Digital SignalProcess ,DSP)、专用集成电路(Application SpecificIntegrated Circuit ,ASIC)、现场可编程门阵列(Field Programmable Gate Array ,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件,可以实现或者执行本发明实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本发明实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。

本发明实施例定义的装置所执行的方法可以应用于处理器114中,或者由处理器114实现。处理器114可以通过与设备10中其它模块或者元器件配合,从而执行有监督学习的标注异常处理方法。下面将对有监督学习的标注异常处理方法的执行进行详细地说明。

请参阅图2和图3,本申请一些可能的实施例提供了一种有监督学习的标注异常处理方法。该有监督学习的标注异常处理方法可以由设备执行,方法包括:S11、S12和S13。

S11:基于样本集中的第一样本子集构建的第一元训练装置分别计算当前N个分类模型中每个分类模型对应的第一下降梯度;其中,N为大于0的整数;

S12:基于当前N个第一下降梯度确定出的综合梯度对当前第一元模型朝着梯度下降的方向更新参数,并将更新后获得的元模型确定为第二元模型;其中,所述第一样本子集与第二样本子集在所述样本集的基础上采用不同的采样方式分别获得,元模型用于定义深度学习的训练系统的神经网络架构,元训练装置用于根据所述样本集训练元模型,所述分类模型为基于所述第二样本子集构建的第二元训练装置训练获得,每个所述分类模型分别对应一个所述第二训练装置;

S13:判断所述综合梯度的值是否不再下降,若是,将当前的第二元模型确定为目标模型;若否,基于所述样本集中的新的第一样本子集重复S11和S12。

下面对该有监督学习的标注异常处理方法的执行流程做详细的说明。

在本申请实施例中,有监督学习是基于深度学习提出的一种方法,是从标签化训练数据集中推断出函数的机器学习任务,即需要提前准备具有类别标签的样本集,经过训练系统进行具有类别标签的样本训练,得到更新后的模型。而标注错误的异常样本或者差异性较大的样本会给模型学习过程中带来收敛的异常波动,导致梯度下降朝错误的方向更新参数,因此,需要让模型不要过度关注异常样本,基于此,提出本申请实施例中的有监督学习的标注异常处理方法。

S11:基于样本集中的第一样本子集构建的第一元训练装置分别计算当前N个分类模型中每个分类模型对应的第一下降梯度;其中,N为大于0的整数。

在本申请实施例中,在步骤S11之前,有监督学习的标注异常处理方法还包括:基于样本集中的若干个第二样本子集构建出L个第二元训练装置,其中,L为大于0的整数;基于当前第一元模型拷贝构建M个第一元模型副本,确定每个第二元训练装置对应一个第一元模型副本,其中,M为大于0的整数,第一元模型副本分别与对应的第一元模型参数结构一致;每个第二元训练装置分别对对应的第一元模型副本以梯度下降的方式更新参数,获得当前每个第二元训练装置对应的分类模型,共N个。

详细地,元训练装置是基于训练过程的样本集进行训练的一个装置,其中,该样本集中的每个样本包括进行样本的特征和与该样本对应的标签其中,样本可以是图片、文本、语义或者视频,标签可以为样本所对应的类别。元训练装置的作用是使用梯度下降对模型更新参数,具体地,元训练装置的训练流程为:每个样本经过元训练装置中的特征处理装置提取出每个样本对应的特征,再将该样本对应的标签和该样本的特征分别输入至机器学习算法装置中进行学习,从而获得可以将样本的特征映射到对应标签的模型。

由于训练过程是每次从样本集取一小批样本出来训练更新参数,每一批样本数量可以是数个样本也可以是数千个样本,直到将该样本集中所有的样本取完表示完成一轮训练,训练过程中往往需要重复多轮训练。因此,在本申请实施例中,将样本集按照采样方式的不同可以分别将样本集划分成若干个第一样本子集或若干个第二样本子集,每次训练使用一个第一样本子集或者第二样本子集进行训练。第一元训练装置是基于样本集中的第一样本子集构建,第二元训练装置是基于样本集中的第二样本子集构建,第一样本子集与第二样本子集不同。

需要说明的是,本申请实施例定义了一种元模型,从而构建随机初始化的神经网络模型,其具体的内部结构可以为BERT、BI-LSTM或者CNN神经网络。元模型构建了一个基础模型,确定了模型的基本构架,再通过样本训练更新模型中的参数,获得目标模型。在本申请实施例中,训练过程中使用的元模型都是基于预先定义的元模型架构,即获得的分类模型以及目标模型中的架构均与预先定义的元模型架构一致,而具体参数不同。

作为一种可能的实施方式,样本集包括若干个第二样本子集,通过若干个第二样本子集构建出L个第二元训练装置,L为大于0的整数。每个第二元训练装置的差别在于各个第二元训练装置之间的样本和标签不同,其结构一致,L的具体数值与样本集大小以及运行方法的硬件装置相关。由于分类任务中的样本提前标注好标签,标签确定样本的所属类别,因此,可以基于样本类别分布的差异对不同的第二元训练装置采用不同的第二样本子集进行训练。作为一种可能的实现方式,所有第二元训练装置训练用的样本类别分布是一样的;作为另一种可能的实现方式,每个第二元训练装置训练用的样本类别分布是有差异。

可选地,可以基于样本类别分布的维度,在每个第二元训练装置对应的第二样本子集的选择上,选择每个第二样本子集的样本类别分布维度差异尽可能大的,以学习到多个领域中对应的知识,提高学习的准确率。

使用L个第二元训练装置分别对对应的第一元模型副本利用梯度下降更新参数,为了便于理解,可以将一个第二元训练装置理解为现实中的一个专家,利用第二元训练装置和第二样本子集对对应的第一元模型副本进行学习训练,是为了使得该专家学习对应领域的知识,L个第二元训练装置则表示各个专家学习各个对应领域的知识。

在样本集中的若干个第二样本子集构建出L个第二元训练装置的基础上,将预先定义的元模型确定为当前的第一元模型,基于当前第一元模型拷贝构建M个第一元模型副本,第一元模型与第一元模型副本参数结构一致;使用每个第二元训练装置,分别对对应的第一元模型副本利用梯度下降更新参数,从而获得N个更新参数后的分类模型,其中,L、M和N的数值相同。

与现有技术中的先识别异常样本再处理的方式,本申请实施例中的通过将元模型作为目标模型,并在训练中样本将首先使用不同数据分别更新其对应的元模型副本的这种方式,与具体的领域或者使用的具体模型架构无关,即适用于有监督训练模式下任何领域,也适用于任何结构的神经网络模型。

S12:基于当前N个第一下降梯度确定出的综合梯度对当前第一元模型朝着梯度下降的方向更新参数,并将更新后获得的元模型确定为第二元模型;其中,第一样本子集与第二样本子集在样本集的基础上采用不同的采样方式分别获得,元模型用于定义深度学习的训练系统的神经网络架构,元训练装置用于根据所述样本集训练元模型,分类模型为基于第二样本子集构建的第二元训练装置训练获得,每个分类模型分别对应一个第二训练装置。

详细地,从样本集中采样一组样本确定为当前第一样本子集,根据当前第一样本子集构建当前第一元训练装置;当前第一元训练装置分别对当前对应的每个分类模型计算梯度,获得当前每个分类模型对应的第一下降梯度;根据当前所有的第一下降梯度,确定出当前的综合梯度,并使用当前的综合梯度对第一元模型朝着梯度下降的方向更新参数,将更新后的元模型确定为第二元模型。

需要说明的是,从样本集中采样一组样本确定为当前第一样本子集,根据当前第一样本子集构建第一元训练装置;第一元训练装置与第二元训练装置的内部结构一致,区别在于训练第一训练装置使用的第一样本子集是重新从样本集中采样的一批,与第二样本子集不同。

使用第一元训练装置分别对每个分类模型计算一次梯度,获得当前每个分类模型对应的第一下降梯度。使用加法、求均值或非加法中的任一种方式对当前所有的第一下降梯度进行综合梯度,确定出当前的综合梯度。使用梯度综合法是将N个分类模型的当前梯度进行综合,获得一个综合梯度。梯度综合法是为了综合不同第二元训练装置学到的知识,降低异常知识的影响,类似盲人摸象,综合所有人意见。

为了便于理解,梯度综合下降方式可以理解为针对某事做出决定之前,参考多个专家对此事的看法,然后综合所有意见做出最优决策。在本申请实施例中,综合了L个第二元训练装置对同一批样本数据的梯度结果。可选地,也可以使用求均值的方法以综合梯度。

使用通过综合计算获得的当前综合梯度对第一元模型朝着梯度下降的方向进行参数更新,从而获得新的第一元模型,并将获得的新的第一元模型确定为第二元模型。

通过使用第一元训练装置分别计算N个分类模型中每个分类模型对应的第一下降梯度,第一元模型朝着基于第一下降梯度确定出的综合梯度对应的下降方向更新参数,将新的第一元模型确定为第二元模型,其中,每个分类模型基于第一元模型副本进行参数更新获得的。通过这样的方式,一方面,可以使得训练过程中每一批样本子集不能直接更新目标模型的参数,从而使得某一批样本子集中存在异常样本,也无法直接影响目标模型的参数;另一方面,后续过程中获得多个更新参数后的第一元模型副本,然后再使用新的一批第一样本子集在这些更新参数后的第一元模型副本上计算梯度,每个第一元模型副本将得到一个梯度,综合所有的梯度后才开始真正更新第一元模型参数,这样可以最大限度消除了偶然的异常样本对目标模型带来的影响。

S13:判断所述综合梯度的值是否不再下降,若是,将当前的第二元模型确定为目标模型;若否,基于所述样本集中的新的第一样本子集重复S11和S12。

详细地,获得当前综合梯度,判断当前综合梯度的值是否不再下降,若是,将当前的第二元模型确定为目标模型。当综合梯度不再下降时,说明当前经过多次的迭代计算,已经达到收敛,接近最优值。

计算当前综合梯度与当前综合梯度相邻的上一次综合梯度相比,判断是否不再下降。若是,说明第二元模型无法朝着梯度下降的方向更新参数,则将当前的第二元模型确定为目标模型;若否,使用新的第一样本子集训练,获得新的第一元训练装置,并将当前的第二元模型确定为新的第一元模型,基于新的第一元模型拷贝构建新的第一元模型副本,每个第二元训练装置分别对对应的新的第一元模型副本利用梯度下降更新参数,获得新的N个分类模型,再使用新的第一元训练装置分别对N个分类模型计算一次梯度,然后获得新的综合梯度,使用新的综合梯度对新的第一元模型朝着梯度下降的方向进行参数更新,得到新的第二元模型。该过程为一个迭代更新的过程,使得模型朝着梯度下降的方向进行参数更新,直至综合梯度不再下降即当前综合梯度足够收敛,停止更新参数。

作为另一种可能的实施方式,获得当前综合梯度和与当前综合梯度相邻的上一次的综合梯度,将两者之间的差值确定为第一差值;判断第一差值是否小于预设阈值,若是,将当前的第二元模型确定为目标模型;若否,将当前的第二元模型确定为新的第一元模型,并使用样本集中的另一第一样本子集构建新的第一元训练装置以重复S11和S12。

作为另一种可能的实施方式,通过预先设置预设迭代总次数,当迭代总次数达到预设迭代总次数时,停止迭代,该方法的执行流程结束。

作为一种可能的实施方式,有监督学习的标注异常处理方法还包括:使用目标模型对未知样本集预测对应的标签,检验目标模型的准确性,其中,未知样本集用于表示未参与训练系统中的训练过程的样本集。通过梯度下降方法获得训练好的目标模型,可以对未知样本预测对应标签,从而校验目标模型的准确性。

一方面,通过本申请实施例中的技术方案,可以处理各个领域的样本训练过程中异常样本对目标模型的波动影响,即与具体的领域无关,也与具体的模型架构无关。通过直接改进训练系统解决异常样本带来的问题,适用于有监督学习训练模式下的任何领域,也适用于任何结构的神经网络模型。另一方面,无需额外标注异常样本,也不需训练异常样本识别模型,降低成本,提升了效率。

请参阅图4,本申请实施例提供了一种有监督学习的标注异常处理装置20,装置20包括:

计算模块210,用于基于样本集中的第一样本子集构建的第一元训练装置分别计算当前N个分类模型中每个分类模型对应的第一下降梯度,其中,N为大于0的整数;

运算模块220,用于基于当前N个第一下降梯度确定出的综合梯度对当前第一元模型朝着梯度下降的方向更新参数,将更新后获得的元模型确定为第二元模型,其中,第一样本子集与第二样本子集在样本集的基础上采用不同的采样方式分别获得,元模型用于定义深度学习的训练系统的神经网络架构,元训练装置用于根据样本集训练元模型,分类模型为基于第二样本子集构建的第二元训练装置训练获得,每个分类模型分别对应一个第二训练装置;

判断模块230,用于判断综合梯度的值是否不再下降;

第一处理模块240,用于在综合梯度的值不再下降时,将当前的第二元模型确定为目标模型;

第二处理模块250,用于在综合梯度的值下降时,基于样本集中的新的第一样本子集重复执行计算模块和运算模块所执行的步骤。

综上所述,本申请实施例提供一种有监督学习的标注异常处理方法,方法应用于深度学习的训练系统,方法包括以下步骤:S11:基于样本集中的第一样本子集构建的第一元训练装置分别计算当前N个分类模型中每个分类模型对应的第一下降梯度;其中,N为大于0的整数;S12:基于当前N个第一下降梯度确定出的综合梯度对当前第一元模型朝着梯度下降的方向更新参数,并将更新后获得的元模型确定为第二元模型;其中,所述第一样本子集与第二样本子集在样本集的基础上采用不同的采样方式分别获得,元模型用于定义深度学习的训练系统的神经网络架构,元训练装置用于根据样本集训练元模型,分类模型为基于第二样本子集构建的第二元训练装置训练获得,每个分类模型分别对应一个所述第二训练装置;S13:判断综合梯度的值是否不再下降,若是,将当前的第二元模型确定为目标模型;若否,基于样本集中的新的第一样本子集重复S11和S12。

以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以权利要求的保护范围为准。

相关技术
  • 有监督学习的标注异常处理方法、装置、存储介质及设备
  • 测井曲线异常值标注方法、装置、计算机设备和存储介质
技术分类

06120112552965