掌桥专利:专业的专利平台
掌桥专利
首页

模型训练方法、装置、设备及存储介质

文献发布时间:2024-04-18 19:58:53


模型训练方法、装置、设备及存储介质

技术领域

本公开涉及人工智能领域,具体涉及计算机视觉和深度学习等技术领域,可应用于图像分类、文字识别等场景下,尤其涉及一种模型训练方法、装置、设备及存储介质。

背景技术

神经网络是一种重要的人工智能技术,在图像识别、自然语言处理、医疗和金融等领域得到了广泛应用,通过对构建的神经网络进行训练,可以得到实现预期功能(如图像识别、音频识别)的神经网络模型。

神经网络模型的训练过程,是通过向初始神经网络输入足够多的样本,使用一定算法更新神经网络的参数,使神经网络的输出与预期值相符,从而得到可以根据输入值输出预期值来实现预期功能的神经网络模型。

为了提高神经网络模型(如分类模型)的训练速度以及性能,对分类模型进行训练时,可以先在一个超大规模数据集上对初始神经网络进行预训练得到预训练的分类模型,得到具有更好的泛化效果的模型参数,然后根据实际应用场景的具体任务对应的数据集进行模型微调,得到针对实际应用场景的具体任务的分类模型。

发明内容

本公开提供了一种模型训练方法、装置、设备及存储介质,可以提高训练得到的分类模型的准确度。

根据本公开的第一方面,提供了一种模型训练方法,包括:

根据预训练的分类模型,构建超网络,预训练的分类模型为根据预训练样本对初始神经网络进行训练得到的;其中,超网络的全连接层的权重包括预训练权重和微调权重,预训练权重为预训练的分类模型中全连接层的权重,微调权重是根据预设的低秩矩阵所确定的;根据微调样本对超网络进行训练,更新微调权重,得到目标超网络,目标超网络包括至少两个子网络;基于至少两个子网络确定目标子网络;根据目标子网络,生成目标分类模型。

根据本公开的第二方面,提供了一种模型训练装置,该装置包括:构建模块、训练模块、确定模块和生成模块。

构建模块,用于根据预训练的分类模型,构建超网络,预训练的分类模型为根据预训练样本对初始神经网络进行训练得到的;其中,超网络的全连接层的权重包括预训练权重和微调权重,预训练权重为预训练的分类模型中全连接层的权重,微调权重是根据预设的低秩矩阵所确定的。

训练模块,用于根据微调样本对超网络进行训练,更新微调权重,得到目标超网络,目标超网络包括至少两个子网络。

确定模块,用于基于至少两个子网络确定目标子网络。

生成模块,用于根据目标子网络,生成目标分类模型。

根据本公开的第三方面,提供了一种电子设备,包括:至少一个处理器;以及与至少一个处理器通信连接的存储器;其中,存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行如第一方面的方法。

根据本公开的第四方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,计算机指令用于使计算机执行根据第一方面的方法。

根据本公开的第五方面,提供了一种计算机程序产品,包括计算机程序,计算机程序在被处理器执行时实现根据第一方面的方法。

应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。

附图说明

附图用于更好地理解本方案,不构成对本公开的限定。其中:

图1为本公开实施例提供的模型训练方法的流程示意图;

图2为本公开实施例提供的模型训练方法的另一种流程示意图;

图3为本公开实施例提供的模型训练方法的又一种流程示意图;

图4为本公开实施例提供的模型训练方法的又一种流程示意图;

图5为本公开实施例提供的模型训练装置的组成示意图;

图6为本公开实施例提供的电子设备的组成示意图。

具体实施方式

以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。

应当理解,在本公开各实施例中,字符“/”一般表示前后关联对象是一种“或”的关系。术语“第一”、“第二”等仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。

神经网络是一种重要的人工智能技术,在图像识别、自然语言处理、医疗和金融等领域得到了广泛应用,通过对构建的神经网络进行训练,可以得到实现预期功能(如图像识别、音频识别)的神经网络模型。

神经网络的训练过程,是通过向神经网络输入足够多的样本,使用一定算法更新神经网络的参数,使神经网络的输出与预期值相符,从而得到可以根据输入值输出预期值来实现预期功能的神经网络模型。

为了提高神经网络模型(如分类模型)的训练速度以及性能,对分类模型进行训练时,可以先在一个超大规模数据集上对初始神经网络进行预训练得到预训练的分类模型,得到具有更好的泛化效果的模型参数,然后根据实际应用场景的具体任务对应的数据集进行模型微调,得到针对实际应用场景的具体任务的分类模型。

例如,在用于识别图像中物体的分类模型的训练时,实际应用场景的具体任务为识别图像中的长颈鹿,而包含长颈鹿的样本图像数量较少或者样本图像质量较差时,可以先用已有的包含其他动物(如猫、狗等)的样本图像先对初始神经网络进行训练,得到预训练的图像分类模型,再使用包含长颈鹿的样本图像数量对预训练的图像分类模型进行模型微调,从而使得最终得到的图像分类模型可以对图像中的长颈鹿进行识别。

目前,模型微调方法一般包括在预训练的分类模型的基础上进行参数全量微调,或者将预训练的分类模型的主干网络参数进行冻结,只微调最后的全连接层。

但是,进行参数全量微调容易使分类模型遗忘预训练阶段学习到的知识,只微调最后的全连接层容易导致模型欠拟合,最终都会导致训练得到的分类模型的准确度不高。参数全量微调可能会对预训练的分类模型的模型参数造成干扰,导致模型遗忘预训练阶段学习到的知识,即对预训练的分类模型的模型参数造成较大的影响,最终导致训练得到的分类模型的准确度降低;只微调最后的全连接层时,由于微调的参数量较少,可能会导致得到的模型出现欠拟合的情况,也会造成分类模型的准确度降低。

在此背景技术下,本公开提供了一种模型训练方法,可以提高训练得到的分类模型的准确度。

本公开实施例提供的模型训练方法的执行主体可以是计算机或服务器,或者还可以是其他具有数据处理能力的电子设备;或者,该方法的执行主体也可以是上述电子设备中的处理器(例如中央处理器(central processing unit,CPU));再或者,该方法的执行主体还可以是上述电子设备中安装的能够实现该方法的功能的应用程序(application,APP);又或者,该方法的执行主体又可以是上述电子设备中具有该方法的功能的功能模块或单元等。在此对该方法的执行主体不作限制。

下面结合附图对该模型训练方法进行示例性说明。

图1为本公开实施例提供的模型训练方法的流程示意图。如图1所示,该方法可以包括:

S101、根据预训练的分类模型,构建超网络,预训练的分类模型为根据预训练样本对初始神经网络进行训练得到的。

其中,超网络的全连接层的权重包括预训练权重和微调权重,预训练权重为预训练的分类模型中全连接层的权重,微调权重是根据预设的低秩矩阵所确定的。

示例性地,初始神经网络可以为包括全连接层的卷积神经网络(convolutionalneural networks,CNN)、循环神经网络(recurrent neural networks,RNN)等,此处不作限制。此外,对初始神经网络中的全连接层的数量也不做限制。例如,初始神经网络可以为以Transformer结构构建的包含48个全连接层的Vit-Base网络。

示例性地,可以将预训练样本作为初始神经网络的输入,将预训练样本对应的分类标签作为初始神经网络的输出,对初始神经网络进行训练,得到预训练的分类模型。

示例地,预训练样本与训练样本的类型可以一致,均可以包括图像、音频、文本中的至少一种,分类模型可以为图像分类模型、音频分类模型、文本分类模型。

示例性地,以训练样本为包括长颈鹿的图像,分类模型的目标分类任务为识别图像中的长颈鹿、预训练样本为包含猫、狗的图像为例,在通过预训练样本完成对初始神经网络的训练后,得到预训练的分类模型,预训练的分类模型并不能直接识别图像中的长颈鹿,只学习到了关于猫、狗的特征知识。

示例性地,超网络中的全连接层的权重可以为预训练权重与微调权重之和,超网络中的全连接层的表达式可以为y=Wx+ΔWx+b,其中,x表示全连接层的输入,y表示全连接层的输出,W表示预训练权重,ΔW表示微调权重,为残差形式可学习参数,b表示偏置。

应当理解,超网络中的全连接层的权重还可以为预训练权重与微调权重的乘积或比值等,对此不做限制。

示例性地,微调权重可以表示为两个低秩矩阵的乘积或比值或和值等,对微调权重的表示方式不做限制。

S102、根据微调样本对超网络进行训练,更新微调权重,得到目标超网络。

其中,目标超网络包括至少两个子网络。

示例性地,可以将微调样本(即训练样本)作为超网络的输入,将预训练样本对应的分类标签作为超网络的输出,对超网络进行训练,得到目标超网络。训练过程中,可以冻结除全连接层的微调权重之外的所有模型参数,实现仅对微调权重进行更新。

示例性地,训练过程的每次迭代过程中,各全连接层可以从对应的预设候选值集合中随机选择两个或多个值,作为各全连接层中的微调权重对应的低秩矩阵的列数或行数。

S103、基于至少两个子网络确定目标子网络。

示例性地,以超网络为基础,可以衍生出一系列子网络,其中,子网络的各全连接层中的微调权重对应的低秩矩阵的列数或行数,可以被选择为预设候选值集合中的任一值。通过在预设候选值集合中选择各全连接层的微调权重对应的低秩矩阵的列数或行数,可以在超网络的基础上构造出相应的子网络。可以再对构造出的子网络进行测试,可以将性能最优的子网络作为目标子网络。或者通过搜索算法从目标超网络中得到目标子网络。

S104、根据目标子网络,生成目标分类模型。

示例性地,在模型推理阶段,可以根据目标子网络的网络结构及各网络参数,直接生成与目标子网络的网络结构及各网络参数完全一致的分类模型作为目标分类模型。

一些可能的实施例中,前述的预训练的分类模型,还可以是已经训练好的分类模型。例如,分类模型M为已经训练好的识别动物的图像分类模型,可以将微调样本设置为模型可识别的动物的图像,通过S101至S104,对图像分类模型M再次进行训练,从而得到更准确的图像分类模型。

本公开实施例通过根据预训练的分类模型构建包括微调权重的超网络,根据微调样本对超网络进行训练,更新微调权重,可以得到以对低秩矩阵更新代替对原有预训练参数更新的目标超网络,有效地保留预训练阶段学习的知识,再从目标超网络对应的至少两个子网络中确定出目标子网络,根据目标子网络,可以得到有效保留了预训练知识且对较多模型参数进行更新的目标分类模型,能够减小模型微调阶段对预训练阶段学习的知识的破坏,以及提高对模型微调阶段的数据的拟合程度,避免欠拟合,从而提高训练得到的分类模型的准确度。

下面以分类模型为图像分类模型对该模型训练方法进行示例性说明,该方法可以包括:

步骤1,根据预训练的图像分类模型,构建超网络,预训练的图像分类模型为根据预训练样本对初始神经网络进行训练得到的。

其中,超网络的全连接层的权重包括预训练权重和微调权重,预训练权重为预训练的分类模型中全连接层的权重,微调权重是根据预设的低秩矩阵所确定的;预训练样本的类型为图像。

步骤2,根据微调样本对超网络进行训练,更新微调权重,得到目标超网络。其中,目标超网络包括至少两个子网络;微调样本的类型为图像。

步骤3,基于至少两个子网络确定目标子网络。

步骤4,根据目标子网络,生成目标图像分类模型。

根据上述步骤1至步骤4,即可实现提高训练得到的图像分类模型的准确度。

应当理解,本公开的模型训练方法也可以应用于文本识别分类模型、音频分类模型等神经网络模型,以提高神经网络模型的准确度。本公开对该模型训练方法的具体应用对象(即神经网络模型的类别)并不作限制。

例如,分类模型为音频分类模型时,预训练样本和训练样本可以为音频,分类模型为文本识别分类模型时,预训练样本和训练样本可以为包含文本的图像、视频等。

一些可能的实施方式中,预设的低秩矩阵包括第一低秩矩阵和第二低秩矩阵,微调权重为第一低秩矩阵与第二低秩矩阵的乘积矩阵。

示例性地,超网络的全连接层的表达式可以为y=Wx+ΔWx+b=Wx+ABx+b,其中,A表示第一低秩矩阵,B表示第二低秩矩阵。

示例地,第一低秩矩阵和第二低秩矩阵的矩阵尺寸可以相同,也可以不同,对此不作限制。

本实施例通过限定预设的低秩矩阵包括第一低秩矩阵和第二低秩矩阵,微调权重为第一低秩矩阵与第二低秩矩阵的乘积矩阵,可以在超网络进行训练时提高更新的微调权重的准确性,进一步提高训练得到的分类模型的准确度。

一些可能的实施方式中,第一低秩矩阵的列数与第二低秩矩阵的行数相等,第一低秩矩阵的列数与第二低秩矩阵的行数为预设候选值集合中的任一值,第一低秩矩阵与第二低秩矩阵的乘积矩阵的尺寸与预训练权重对应的矩阵的尺寸相同。

示例性地,矩阵尺寸即为矩阵的行数和列数,通常以“行数×列数”来表示矩阵尺寸。

示例性地,预训练权重的矩阵尺寸由预训练的分类模型决定,对预训练权重的矩阵尺寸不作限制。例如,预训练权重的矩阵尺寸可以为d×d,或者,预训练权重的矩阵尺寸可以为d×p,其中d、p均为正整数。同样的,对微调权重的矩阵尺寸也不做限制。

示例地,同一个全连接层中的预训练权重的矩阵尺寸与第一低秩矩阵与第二低秩矩阵的乘积矩阵(即微调权重)的矩阵尺寸相同,不同的全连接层之间矩阵尺寸可以相同也可以不同。例如,在超网络中,全连接层Q1的预训练权重的矩阵尺寸为100×100,微调权重的矩阵尺寸为100×100;全连接层Q2的预训练权重的矩阵尺寸可以为100×200,微调权重的矩阵尺寸可以为100×200;全连接层Q3的预训练权重的矩阵尺寸可以为100×100,微调权重的矩阵尺寸可以为100×100。

示例地,当预训练权重

示例性地,预设候选值集合中可以包括小于预训练权重的矩阵行数及矩阵列数的正整数。例如,以预训练权重的矩阵尺寸为100×100为例,预设候选值集合可以包括2、4、6、8,对预设候选值集合中的数据的数量、大小均不作限制。

示例性地,当超网络中包括多个全连接层时,各全连接层对应的预设候选值集合可以相同或不同。

本实施例通过限定第一低秩矩阵的列数与第二低秩矩阵的行数相等,第一低秩矩阵的列数与第二低秩矩阵的行数为预设候选值集合中的任一值,第一低秩矩阵与第二低秩矩阵的乘积矩阵的尺寸与预训练权重对应的矩阵的尺寸相同,可以在超网络进行训练时进一步提高更新的微调权重的准确性。

图2为本公开实施例提供的模型训练方法的另一种流程示意图。如图2所示,根据目标子网络,生成目标分类模型,可以包括:

S201、根据目标子网络中的各全连接层的预训练权重与微调权重,更新目标子网络中的各全连接层的权重。

示例性地,在目标子网络的全连接层的权重为预训练权重与微调权重之和时,可以将目标子网络的全连接层的权重更新为预训练权重与微调权重之和;在目标子网络的全连接层的权重为预训练权重与微调权重的乘积时,可以将目标子网络的全连接层的权重更新为预训练权重与微调权重的乘积。

S202、根据更新权重后的目标子网络,生成目标分类模型。

示例性地,在模型推理阶段,目标子网络中的各全连接层的微调权重均已通过前述的训练得到,根据更新权重后的目标子网络,使得根据更新权重后的目标子网络生成的目标分类模型的模型参数的个数与预训练的分类模型的模型参数的个数相同,不增加任何额外参数。

本实施例通过根据目标子网络中的各全连接层的预训练权重与微调权重,更新目标子网络中的各全连接层的权重,根据更新权重后的目标子网络,可以生成模型参数的个数不变的目标分类模型,实现模型推理阶段的耗时及内存占用不再增加,从而降低分类模型后期维护和升级成本,以及实现分类模型快速迭代更新。

一种可能的实施方式中,根据目标子网络中的各全连接层的预训练权重与微调权重,更新目标子网络中的各全连接层的权重,包括:

根据目标子网络中的各全连接层的预训练权重与微调权重,将目标子网络中的各全连接层的权重,更新为各全连接层的预训练权重与微调权重的和。

本实施例通过将目标子网络中的各全连接层的权重,更新为各全连接层对应的预训练权重与微调权重的和,可以快速地对目标子网络中的各全连接层的权重实现更新,提高生成目标分类模型的速度。

图3为本公开实施例提供的模型训练方法的又一种流程示意图。如图3所示,从至少两个子网络中,确定目标子网络,可以包括:

S301、根据测试样本,分别对目标超网络对应的各子网络进行测试,得到目标超网络对应的各子网络的测试结果。

示例性地,测试样本的内容类型可以与微调样本的内容类型一致。例如,当微调样本为包含长颈鹿的图像,则测试样本也为包含长颈鹿的图像。

示例性地,可以将测试样本作为目标超网络对应的各子网络的网络输入,目标超网络对应的各子网络分别输出相应的分类结果,将各子网络相应的分类结果与真实结果进行比对,得到目标超网络对应的各子网络的测试结果。

示例性地,测试结果可以包括子网络的分类的准确率、召回率等,对此不作限制。

S302、根据目标超网络对应的各子网络的测试结果,确定目标子网络。

示例性地,以测试结果为子网络的分类准确率为例,可以将分类准确率最大的子网络或准确率较大的任一子网络确定为目标子网络。

本实施例通过测试样本对目标超网络对应的各子网络进行测试,得到目标超网络对应的各子网络的测试结果,根据目标超网络对应的各子网络的测试结果,确定目标子网络,可以准确地得到目标子网络。

一种可能的实施方式中,目标超网络对应的各子网络的测试结果包括召回率、准确率,根据目标超网络对应的各子网络的测试结果,确定目标子网络,包括:

根据目标超网络对应的各子网络的召回率和目标超网络对应的各子网络的准确率,确定目标超网络对应的各子网络的评估值;基于评估值对应的子网络确定目标子网络。

示例性地,可以将目标超网络对应的各子网络的召回率和准确率之和作为评估值。

示例性地,可以为目标超网络对应的各子网络的召回率关联预设的第一权重,为目标超网络对应的各子网络的准确率关联预设的第二权重。第一权重和第二权重的和可以等于1,对第一权重、第二权重的大小不作限制。则评估值可以为目标超网络对应的各子网络的召回率和第一权重的乘积、与目标超网络对应的各子网络的准确率和第二权重的乘积之和。

示例性地,可以将所有子网络中评估值最高的子网络或评估值较高的任一子网络确定为目标子网络。

例如,以目标超网络对应的各子网络包括第一子网络和第二子网络,第一子网络的召回率为95%、准确率为90%,第二子网络的召回率为90%、准确率为95%,第一权重为0.3,第二权重为0.7为例,则第一子网络的评估值为0.95*0.3+0.90*0.7=0.915,第二子网络的评估值为0.90*0.3+0.95*0.7=0.9825,则确定评估值最高的第二子网络为目标子网络。

本实施例通过根据目标超网络对应的各子网络的召回率、目标超网络对应的各子网络的准确率,确定目标超网络对应的各子网络的评估值,确定最高评估值对应的子网络为目标子网络,可以从多个纬度共同对子网络进行评估,更准确地确定出目标子网络。

图4为本公开实施例提供的模型训练方法的又一种流程示意图。如图4所示,目标超网络对应的各子网络的测试结果包括召回率、准确率,根据目标超网络对应的各子网络的测试结果,确定目标子网络,可以包括:

S401、根据目标超网络对应的各子网络的召回率,确定候选子网络。

示例性地,候选子网络可以为召回率大于或等于预设的第一阈值的子网络,对第一阈值的大小不做限制。

S402、根据目标超网络对应的各子网络的准确率,从候选子网络中确定目标子网络。

示例性地,目标子网络可以为准确率大于或等于预设的第二阈值的任一候选子网络,对预设的第二阈值的大小不做限制。

示例性地,还可以将准确率大于或等于预设的第二阈值且准确率大于其他候选子网络的准确率的候选子网络确定为目标子网络。

本实施例通过根据目标超网络对应的各子网络的召回率,确定候选子网络,根据目标超网络对应的各子网络的准确率,从候选子网络中确定目标子网络,可以从多个纬度共同对子网络进行评估,更准确地确定出目标子网络。

一种可能的实施方式中,从至少两个子网络中,确定目标子网络,可以包括:

利用遗传算法对目标超网络进行神经网络结构搜索,基于子网络的适应度,确定目标子网络,适应度用于表征子网络的分类准确性。

示例性地,利用遗传算法对目标超网络进行神经网络结构搜索时,可以将目标超网络对应的子网络作为遗传算法中的染色体,并构造相应的适应度函数,通过各子网络对应的适应度函数计算得到各子网络的适应度的值。

示例性地,遗传算法依次应用选择,交叉和突变的遗传算子,然后对染色体个体进行重新评估,直到满足停止条件,选择适应度最高的个体作为搜索结果,适应度最高的个体即为根据适应度函数计算得到的适应度的值最大的个体。

示例地,停止条件可以是已达到最大世代数,或者,可以是在过去的几代中最佳适应度值没有明显的改进,或者,可以是遗传算法的持续时间超过预设阈值等,对停止条件不作限制。

本实施例通过利用遗传算法对目标超网络进行神经网络结构搜索,基于表征子网络的分类准确性的适应度,可以快速地从目标超网络中确定出目标子网络。

一种可能的实施方式中,预训练权重对应的矩阵的行数与预设候选值集合中的任一值的比值大于或等于第一预设值,预训练权重对应的矩阵的列数与预设候选值集合中的值的比值大于或等于第二预设值。

示例地,第一预设值与第二预设值的大小可以相同或不同。

示例性地,预训练权重对应的矩阵的行数与预设候选值集合中的任一值的比值大于或等于第一预设值,可以为预设候选值集合中的值与预训练权重对应的矩阵的行数相差至少两个数量级;预训练权重对应的矩阵的列数与预设候选值集合中的值的比值大于或等于第二预设值,可以为预设候选值集合中的值与预训练权重对应的矩阵的列数相差至少两个数量级。

例如,至少两个数量级可以为预训练权重对应的矩阵的行数与预设候选值集合中的任一值的比值大于或等于100,预训练权重对应的矩阵的列数与预设候选值集合中的任一值的比值大于或等于100。

本实施例通过限定预训练权重对应的矩阵的行数与预设候选值集合中的任一值的比值大于或等于第一预设值,预训练权重对应的矩阵的列数与预设候选值集合中的值的比值大于或等于第二预设值,可以使第一低秩矩阵的列数、第二低秩矩阵的行数均远小于预训练权重对应的矩阵的行数和列数,可以提高超网络的训练速度。

上述主要从方法的角度对本公开实施例提供的方案进行了介绍。为了实现上述功能,其包含了执行各个功能相应的硬件结构和/或软件模块。本领域技术目标应该很容易意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,本公开能够以硬件或硬件和计算机软件的结合形式来实现。某个功能究竟以硬件还是计算机软件驱动硬件的方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术目标可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本公开的范围。

在示例性实施例中,本公开实施例还提供一种模型训练装置,可以用于实现如前述实施例的模型训练方法。

图5为本公开实施例提供的模型训练装置的组成示意图。如图5所示,该装置可以包括:构建模块501、训练模块502、确定模块503和生成模块504。

构建模块501,用于根据预训练的分类模型,构建超网络,预训练的分类模型为根据预训练样本对初始神经网络进行训练得到的;其中,超网络的全连接层的权重包括预训练权重和微调权重,预训练权重为预训练的分类模型中全连接层的权重,微调权重是根据预设的低秩矩阵所确定的。

训练模块502,用于根据微调样本对超网络进行训练,更新微调权重,得到目标超网络,目标超网络包括至少两个子网络。

确定模块503,用于基于至少两个子网络确定目标子网络。

生成模块504,用于根据目标子网络,生成目标分类模型。

一种可能的实施方式中,预设的低秩矩阵包括第一低秩矩阵和第二低秩矩阵,微调权重为第一低秩矩阵与第二低秩矩阵的乘积矩阵。

一种可能的实施方式中,第一低秩矩阵的列数与第二低秩矩阵的行数相等,第一低秩矩阵的列数与第二低秩矩阵的行数为预设候选值集合中的任一值,第一低秩矩阵与第二低秩矩阵的乘积矩阵的尺寸与预训练权重对应的矩阵的尺寸相同。

一种可能的实施方式中,生成模块504,具体用于:

根据目标子网络中的各全连接层的预训练权重与微调权重,更新目标子网络中的各全连接层的权重;根据更新权重后的目标子网络,生成目标分类模型。

一种可能的实施方式中,生成模块504,具体用于:

根据目标子网络中的各全连接层的预训练权重与微调权重,将目标子网络中的各全连接层的权重,更新为各全连接层的预训练权重与微调权重的和。

一种可能的实施方式中,确定模块503,具体用于:

根据测试样本,分别对目标超网络对应的各子网络进行测试,得到目标超网络对应的各子网络的测试结果;根据目标超网络对应的各子网络的测试结果,确定目标子网络。

一种可能的实施方式中,目标超网络对应的各子网络的测试结果包括召回率、准确率,确定模块503,具体用于:

根据目标超网络对应的各子网络的召回率和目标超网络对应的各子网络的准确率,确定目标超网络对应的各子网络的评估值;基于评估值对应的子网络确定目标子网络。

一种可能的实施方式中,目标超网络对应的各子网络的测试结果包括召回率、准确率,确定模块503,具体用于:

根据目标超网络对应的各子网络的召回率,确定候选子网络;根据目标超网络对应的各子网络的准确率,从候选子网络中确定目标子网络。

一种可能的实施方式中,确定模块503,具体用于:

利用遗传算法对目标超网络进行神经网络结构搜索,基于子网络的适应度,确定目标子网络,适应度用于表征子网络的分类准确性。

一种可能的实施方式中,预训练权重对应的矩阵的行数与预设候选值集合中的任一值的比值大于或等于第一预设值,预训练权重对应的矩阵的列数与预设候选值集合中的值的比值大于或等于第二预设值。

需要说明的是,图5中对模块的划分是示意性的,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。例如,还可以将两个或两个以上的功能集成在一个处理模块中。本公开实施例对此不作限制。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。

本公开的技术方案中,所涉及的用户个人信息的获取,存储和应用等,均符合相关法律法规的规定,且不违背公序良俗。

根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。

示例性实施例中,电子设备,包括:至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如以上实施例所述的方法。该电子设备可以是上述计算机或服务器。

示例性实施例中,可读存储介质可以是存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使计算机执行根据以上实施例所述的方法。

示例性实施例中,计算机程序产品包括计算机程序,所述计算机程序在被处理器执行时实现根据以上实施例所述的方法。

图6示出了可以用来实施本公开的实施例的示例电子设备600的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。

如图6所示,电子设备600包括计算单元601,其可以根据存储在只读存储器(ROM)602中的计算机程序或者从存储单元608加载到随机访问存储器(RAM)603中的计算机程序,来执行各种适当的动作和处理。在RAM 603中,还可存储电子设备600操作所需的各种程序和数据。计算单元601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。

电子设备600中的多个部件连接至I/O接口605,包括:输入单元606,例如键盘、鼠标等;输出单元607,例如各种类型的显示器、扬声器等;存储单元608,例如磁盘、光盘等;以及通信单元609,例如网卡、调制解调器、无线通信收发机等。通信单元609允许电子设备600通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。

计算单元601可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元601的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)以及任何适当的处理器、控制器、微控制器等。计算单元601执行上文所描述的各个方法和处理,例如模型训练方法。例如,在一些实施例中,模型训练方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元608。在一些实施例中,计算机程序的部分或者全部可以经由ROM 602和/或通信单元609而被载入和/或安装到电子设备600上。当计算机程序加载到RAM 603并由计算单元601执行时,可以执行上文描述的模型训练方法的一个或多个步骤。备选地,在其他实施例中,计算单元601可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行模型训练方法。

本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置和该至少一个输出装置。

用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。

在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备或上述内容的任何合适组合。

为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。

可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)或者包括中间件部件的计算系统(例如,应用服务器)或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)或者包括这种后台部件、中间件部件或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。

计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,也可以为分布式系统的服务器,或者是结合了区块链的服务器。

应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。

上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。

相关技术
  • 机器学习模型训练方法、装置、存储介质和计算机设备
  • MR图像预测模型的训练方法、装置、设备及存储介质
  • CT图像预测模型的训练方法、装置、设备及存储介质
  • 语句输出、模型训练方法、装置、计算机设备及存储介质
  • 一种商品推荐模型训练方法、装置、设备及存储介质
  • 模型训练方法、模型训练装置、计算机设备和存储介质
  • 模型训练方法、模型训练装置、终端设备及存储介质
技术分类

06120116509922