掌桥专利:专业的专利平台
掌桥专利
首页

一种模型训练方法、装置、电子设备及存储介质

文献发布时间:2023-06-19 09:36:59


一种模型训练方法、装置、电子设备及存储介质

技术领域

本申请涉及人工智能领域,进一步涉及深度学习技术领域,尤其是一种模型训练方法、装置、电子设备及存储介质。

背景技术

随着大数据时代的到来,数据获取变得相对容易,但用于训练的数据往往需要人工筛选、标注后才可以训练。大量的训练数据意味着需要耗费大量的人力、时间、资金进行数据标注,极大的限制了人工智能模型的训练速度,进而影响模型迭代速度及模型上线时间。

在现有技术中,通常采用有监督的人工智能模型训练方法,以图像分类任务为例,人工标注适量带有标签的训练数据,基于传统的特征提取算子或基于深度学习网络等提取训练数据特征,对提取后的特征使用分类器进行分类预测,并将标注的标签作为期望输出进行训练。该方法依赖大量的人工标注数据,需要耗费大量的人力、资金和时间投入到数据标注工作中;当任务紧急的情况下,可能会出现无法获取大量的带有标注的数据的情况,进而导致模型短期内达不到性能要求无法上线;若该训练任务是需要控制极其重要的风险,那么如有风险漏出则会对公司造成无法挽回的后果。由此可见,采用现有的模型训练方法,不仅模型训练效率低,而且还可能会导致不可估量的后果。

发明内容

本申请提供了一种模型训练方法、装置、电子设备及存储介质,无需预先获取带有标注的训练样本即可实现模型训练,极大地减少了人力消耗和人工标注的资金成本。

第一方面,本申请提供了一种模型训练方法,所述方法包括:

接收用户输入的任务类别标签;

基于所述任务类别标签生成与其对应的至少一个训练样本;

在所述任务类别标签对应的全部训练样本中提取出一个训练样本作为当前训练样本;

响应于待训练的模型不满足预先设置的收敛条件,将所述当前训练样本输入至所述待训练的模型中,使用所述当前训练样本对所述待训练的模型进行训练;重复执行上述提取所述当前训练样本的操作,直到所述待训练的模型满足所述预先设置的收敛条件。

第二方面,本申请提供了一种模型训练装置,所述装置包括:接收模块、生成模块、提取模块和训练模块;其中,

所述接收模块,用于接收用户输入的任务类别标签;

所述生成模块,用于基于所述任务类别标签生成与其对应的至少一个训练样本;

所述提取模块,用于在所述任务类别标签对应的全部训练样本中提取出一个训练样本作为当前训练样本;

所述训练模块,用于响应于待训练的模型不满足预先设置的收敛条件,将所述当前训练样本输入至所述待训练的模型中,使用所述当前训练样本对所述待训练的模型进行训练;重复执行上述提取所述当前训练样本的操作,直到所述待训练的模型满足所述预先设置的收敛条件。

第三方面,本申请实施例提供了一种电子设备,包括:

一个或多个处理器;

存储器,用于存储一个或多个程序,

当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现本申请任意实施例所述的模型训练方法。

第四方面,本申请实施例提供了一种存储介质,其上存储有计算机程序,该程序被处理器执行时实现本申请任意实施例所述的模型训练方法。

根据本申请的技术解决了现有技术在训练模型时依赖大量的人工标注数据,需要耗费大量的人力、资金和时间投入到数据标注工作中的技术问题,本申请提供的技术方案,无需预先获取带有标注的训练样本即可实现模型训练,极大地减少了人力消耗和人工标注的资金成本。

应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。

附图说明

附图用于更好地理解本方案,不构成对本申请的限定。其中:

图1是本申请实施例提供的模型训练方法的第一流程示意图;

图2是本申请实施例提供的模型训练方法的第二流程示意图;

图3是本申请实施例提供的模型训练方法的第三流程示意图;

图4是本申请实施例提供的模型训练装置的结构示意图;

图5是本申请实施例提供的生成模块的结构示意图;

图6是用来实现本申请实施例的模型训练方法的电子设备的框图。

具体实施方式

以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。

实施例一

图1是本申请实施例提供的模型训练方法的第一流程示意图,该方法可以由模型训练装置或者电子设备来执行,该装置或者电子设备可以由软件和/或硬件的方式实现,该装置或者电子设备可以集成在任何具有网络通信功能的智能设备中。如图1所示,模型训练方法可以包括以下步骤:

S101、获取用户输入的任务类别标签。

在本步骤中,电子设备可以获取用户输入的任务类别标签。具体地,用户输入的任务类别标签为文本格式。例如,用户输入的任务类型标签为“狗”。

S102、基于任务类别标签生成与其对应的至少一个训练样本。

在本步骤中,电子设备可以基于任务类别标签生成与其对应的至少一个训练样本。具体地,电子设备可以先基于预先构建的知识图谱生成任务类型标签对应的至少一个下义词;然后将任务类型标签对应的各个下义词作为关键词抓取各个下义词对应的至少一个图像;再将各个下义词和各个下义词对应的各个图像组合为各个训练样本,得到任务类别标签对应的至少一个训练样本。例如,假设用户输入的任务类别标签为“狗”,则电子设备可以基于预先构建的知识图谱生成“狗”对应的下义词“哈士奇”和“柴狗”;然后将“哈士奇”和“柴狗”作为关键词抓取各自对应的至少一个图像。例如,“哈士奇”对应的图像为“哈士奇图像1”和“哈士奇图像2”;“柴狗”对应的图像为“柴狗图像1”和“柴狗图像2”。那么,电子设备可以将“哈士奇”和“哈士奇图像1”组合为一个训练样本;将“哈士奇”和“哈士奇图像2”组合为一个训练样本;将“柴狗”和“柴狗图像1”组合为一个训练样本;“柴狗”和“柴狗图像2”组合为一个训练样本。

S103、在任务类别标签对应的全部训练样本中提取出一个训练样本作为当前训练样本。

在本步骤中,电子设备可以在任务类别标签对应的全部训练样本中提取出一个训练样本作为当前训练样本。具体地,假设任务类别标签对应的训练样本为M个,M为大于1的自然数;电子设备可以在M个训练样本中提取出一个训练样本作为当前训练样本。

S104、响应于待训练的模型不满足预先设置的收敛条件,将当前训练样本输入至待训练的模型中,使用当前训练样本对待训练的模型进行训练;重复执行上述提取当前训练样本的操作,直到待训练的模型满足预先设置的收敛条件。

在本步骤中,电子设备可以响应于待训练的模型不满足预先设置的收敛条件,将当前样本图像输入至待训练的模型中,使用当前样本图像对待训练的模型进行训练;重复执行上述提取当前样本图像的操作,直到待训练的模型满足预先设置的收敛条件。具体地,电子设备可以根据当前样本图像对应的预测结果和当前样本图像对应的真实结果,计算当前样本图像对应的损失函数值;根据当前样本图像对应的损失函数值对待训练的模型进行训练;重复执行上述提取当前样本图像的操作,直到待训练的模型满足预先设置的收敛条件。具体地,电子设备可以根据当前样本图像集合对应的损失函数值对待训练的模型进行反向传播以逐层调整层级权重直至获取到下一个训练周期的模型。

本申请实施例提出的模型训练方法,先接收用户输入的任务类别标签;然后基于任务类别标签生成与其对应的至少一个训练样本;再在任务类别标签对应的全部训练样本中提取出一个训练样本作为当前训练样本;响应于待训练的模型不满足预先设置的收敛条件,将当前训练样本输入至待训练的模型中,使用当前训练样本对待训练的模型进行训练;重复执行上述提取当前训练样本的操作,直到待训练的模型满足预先设置的收敛条件。也就是说,本申请可以基于任务类别标签生成与其对应的至少一个训练样本,使用任务类型标签对应的至少一个训练样本进行模型训练。而在现有的模型训练方法中,在训练模型时依赖大量的人工标注数据,需要耗费大量的人力、资金和时间投入到数据标注工作中。因为本申请采用了基于任务类别标签生成与其对应的至少一个训练样本的技术手段,克服了现有技术中在训练模型时依赖大量的人工标注数据,需要耗费大量的人力、资金和时间投入到数据标注工作中的技术问题,本申请提供的技术方案,无需预先获取带有标注的训练样本即可实现模型训练,极大地减少了人力消耗和人工标注的资金成本;并且,本申请实施例的技术方案实现简单方便、便于普及,适用范围更广。

实施例二

图2是本申请实施例提供的模型训练方法的第二流程示意图。基于上述技术方案进一步优化与扩展,并可以与上述各个可选实施方式进行结合。如图2所示,模型训练方法可以包括以下步骤:

S201、获取用户输入的任务类别标签。

S202、基于预先构建的知识图谱生成任务类型标签对应的至少一个下义词。

在本步骤中,电子设备可以基于预先构建的知识图谱生成任务类型标签对应的至少一个下义词。具体地,电子设备可以将任务类别标签输入至知识图谱中,通过知识图谱得到任务类型标签对应的至少一个下义词。例如,电子设备可以将用户输入的任务类别标签“狗”输入至知识图谱中,通过知识图谱得到“狗”的下义词“哈士奇”和“柴狗”。

S203、将任务类型标签对应的各个下义词作为关键词抓取各个下义词对应的至少一个图像。

在本步骤中,电子设备可以将任务类型标签对应的各个下义词作为关键词抓取各个下义词对应的至少一个图像。假设用户输入的任务类别标签为“狗”,电子设备可以基于预先构建的知识图谱生成“狗”对应的下义词“哈士奇”和“柴狗”;然后将“哈士奇”和“柴狗”作为关键词抓取各自对应的至少一个图像。例如,“哈士奇”对应的图像为“哈士奇图像1”和“哈士奇图像2”;“柴狗”对应的图像为“柴狗图像1”和“柴狗图像2”。

S204、将各个下义词和各个下义词对应的各个图像组合为各个训练样本,得到任务类别标签对应的至少一个训练样本。

在本步骤中,电子设备可以将各个下义词和各个下义词对应的各个图像组合为各个训练样本,得到任务类别标签对应的至少一个训练样本。例如,下义词“哈士奇”对应的图像为“哈士奇图像1”和“哈士奇图像2”;下义词“柴狗”对应的图像为“柴狗图像1”和“柴狗图像2”。那么,电子设备可以将“哈士奇”和“哈士奇图像1”组合为一个训练样本;将“哈士奇”和“哈士奇图像2”组合为一个训练样本;将“柴狗”和“柴狗图像1”组合为一个训练样本;“柴狗”和“柴狗图像2”组合为一个训练样本。

S205、在任务类别标签对应的全部训练样本中提取出一个训练样本作为当前训练样本。

S206、响应于待训练的模型不满足预先设置的收敛条件,将当前样本图像输入至待训练的模型中,使用当前样本图像对待训练的模型进行训练;重复执行上述提取当前样本图像的操作,直到待训练的模型满足预先设置的收敛条件。

本申请实施例提出的模型训练方法,先接收用户输入的任务类别标签;然后基于任务类别标签生成与其对应的至少一个训练样本;再在任务类别标签对应的全部训练样本中提取出一个训练样本作为当前训练样本;响应于待训练的模型不满足预先设置的收敛条件,将当前训练样本输入至待训练的模型中,使用当前训练样本对待训练的模型进行训练;重复执行上述提取当前训练样本的操作,直到待训练的模型满足预先设置的收敛条件。也就是说,本申请可以基于任务类别标签生成与其对应的至少一个训练样本,使用任务类型标签对应的至少一个训练样本进行模型训练。而在现有的模型训练方法中,在训练模型时依赖大量的人工标注数据,需要耗费大量的人力、资金和时间投入到数据标注工作中。因为本申请采用了基于任务类别标签生成与其对应的至少一个训练样本的技术手段,克服了现有技术中在训练模型时依赖大量的人工标注数据,需要耗费大量的人力、资金和时间投入到数据标注工作中的技术问题,本申请提供的技术方案,无需预先获取带有标注的训练样本即可实现模型训练,极大地减少了人力消耗和人工标注的资金成本;并且,本申请实施例的技术方案实现简单方便、便于普及,适用范围更广。

实施例三

图3是本申请实施例提供的模型训练方法的第三流程示意图。基于上述技术方案进一步优化与扩展,并可以与上述各个可选实施方式进行结合。如图3所示,模型训练方法可以包括以下步骤:

S301、获取用户输入的任务类别标签。

S302、基于预先构建的知识图谱生成任务类型标签对应的至少一个下义词。

S303、将任务类型标签对应的各个下义词作为关键词抓取各个下义词对应的至少一个图像。

S304、在全部的下义词对应的图像中提取出一个图像作为当前图像。

在本步骤中,电子设备可以在任务训练标签对应的至少一个样本图像中提取出一个样本图像作为当前样本图像。具体地,假设任务训练标签对应的样本图像为N个,分别为:样本图像1、样本图像2、…、样本图像N;N为大于等于1的自然数。在本步骤中,电子设备可以在任务训练标签对应的N个样本图像提取出一个样本图像作为当前样本图像。

S305、采用预先设定的质量评估算法对当前样本图像进行质量评估,确定出当前图像为脏数据或者干净数据;重复执行上述操作,直到确定出各个下义词对应的各个图像为脏数据或者干净数据;得到各个下义词对应的干净数据。

在本步骤中,电子设备可以采用预先设定的质量评估算法对当前样本图像进行质量评估,确定出当前图像为脏数据或者干净数据;重复执行上述操作,直到确定出各个下义词对应的各个图像为脏数据或者干净数据;得到各个下义词对应的干净数据。具体地,预先设定的质量评估算法包括以下至少其中之一:清晰度检测、纯色图检测、图像损坏检测。电子设备采用上述一种或者多种质量评估方法对当前样本图像进行质量评估,确定出当前样本图像为脏数据样本或者干净数据样本。

较佳地,在本申请的具体实施例中,电子设备还可以采用预先设定的聚类算法对全部的下义词对应的干净数据进行聚类,得到全部的下义词对应的至少一组干净数据;然后在预先构建的知识图谱中确定出各组干净数据的位置;并计算各组干净数据的位置与预先确定的中心位置之间的距离;响应于在全部的干净数据中存在至少一组与预先确定的中心位置之间的距离大于或者等于预设阈值的干净数据,电子设备可以在全部的干净数据中除去与预先确定的中心位置之间的距离大于或者等于预设阈值的干净数据,得到与预先确定的中心位置之间的距离小于预设阈值的干净数据;将与预先确定的中心位置之间的距离小于预设阈值的干净数据样本作为全部的下义词对应的干净数据。具体地,预先设定的聚类算法包括以下至少其中之一:K均值聚类算法K-means、均值偏移聚类算法Mean-Shift。

较佳地,在本申请的具体实施例中,电子设备还可以采用预先设定的数据增广方法对各个下义词对应的各个干净数据进行数据增广,得到各个下义词对应的数据增广后的干净数据;将各个下义词对应的数据增广后的干净数据作为全部的下义词对应的干净数据。具体地,预先设定的数据增广方法包括以下至少其中之一:仿射变换、透视变换、颜色扰动、数据增强mixup、生成判别网络GAN。

S306、将各个下义词和各个下义词对应的各个干净数据组合为各个训练样本。

S307、在任务类别标签对应的全部训练样本中提取出一个训练样本作为当前训练样本。

S308、响应于待训练的模型不满足预先设置的收敛条件,将当前样本图像输入至待训练的模型中,使用当前样本图像对待训练的模型进行训练;重复执行上述提取当前样本图像的操作,直到待训练的模型满足预先设置的收敛条件。

需要说明的是,本申请实施例可以适用于图像分类任务的模型和目标检测任务的模型。在训练图像分类任务的模型时,先根据图像分类任务的类别标签基于知识图谱生成关键词,并利用生成的关键词进行网络图像抓取;对于抓取的图像,通过质量评估去除质量差的图像,利用聚类方法去除离聚类中心远的图像得到清洗后的图像,对清洗后的图像基于数据增广算法扩充训练数据,预处理后的图像和对应的类别标签组成训练数据;基于训练数据对待训练的图像分类任务的模型进行训练,训练结束时得到图像分类任务的模型。此外,在训练目标检测任务的模型时,先根据非目标标签基于知识图谱生成关键词,并利用生成的关键词进行网络图像抓取得到背景图像;对于抓取的背景图像,通过质量评估去除质量差的图像,使用预先准备的目标模板和背景图像基于数据增广方法获得训练数据;其中,训练数据可以包括目标的位置、目标的类别;基于训练数据对待训练的目标检测任务的模型进行训练,训练结束时得到目标检测任务的检测模型。

本申请实施例提出的模型训练方法,先接收用户输入的任务类别标签;然后基于任务类别标签生成与其对应的至少一个训练样本;再在任务类别标签对应的全部训练样本中提取出一个训练样本作为当前训练样本;响应于待训练的模型不满足预先设置的收敛条件,将当前训练样本输入至待训练的模型中,使用当前训练样本对待训练的模型进行训练;重复执行上述提取当前训练样本的操作,直到待训练的模型满足预先设置的收敛条件。也就是说,本申请可以基于任务类别标签生成与其对应的至少一个训练样本,使用任务类型标签对应的至少一个训练样本进行模型训练。而在现有的模型训练方法中,在训练模型时依赖大量的人工标注数据,需要耗费大量的人力、资金和时间投入到数据标注工作中。因为本申请采用了基于任务类别标签生成与其对应的至少一个训练样本的技术手段,克服了现有技术中在训练模型时依赖大量的人工标注数据,需要耗费大量的人力、资金和时间投入到数据标注工作中的技术问题,本申请提供的技术方案,无需预先获取带有标注的训练样本即可实现模型训练,极大地减少了人力消耗和人工标注的资金成本;并且,本申请实施例的技术方案实现简单方便、便于普及,适用范围更广。

实施例四

图4是本申请实施例提供的模型训练装置的结构示意图。如图4所示,所述装置400包括:接收模块401、生成模块402、提取模块403和训练模块404;其中,

所述接收模块401,用于接收用户输入的任务类别标签;

所述生成模块402,用于基于所述任务类别标签生成与其对应的至少一个训练样本;

所述提取模块403,用于在所述任务类别标签对应的全部训练样本中提取出一个训练样本作为当前训练样本;

所述训练模块404,用于响应于待训练的模型不满足预先设置的收敛条件,将所述当前训练样本输入至所述待训练的模型中,使用所述当前训练样本对所述待训练的模型进行训练;重复执行上述提取所述当前训练样本的操作,直到所述待训练的模型满足所述预先设置的收敛条件。

图5是本申请实施例提供的生成模块的结构示意图。如图5所示,所述生成模块402包括:生成子模块4021、抓取子模块4022和组合子模块4023;其中,

所述生成子模块4021,用于基于预先构建的知识图谱生成所述任务类型标签对应的至少一个下义词;

所述抓取子模块4022,用于将所述任务类型标签对应的各个下义词作为关键词抓取各个下义词对应的至少一个图像;

所述组合子模块4023,用于将各个下义词和各个下义词对应的各个图像组合为各个训练样本,得到所述任务类别标签对应的至少一个训练样本。

进一步的,所述生成模块402还包括:清洗子模块4024(图中未示出),用于在全部的下义词对应的图像中提取出一个图像作为当前图像;采用预先设定的质量评估算法对所述当前样本图像进行质量评估,确定出所述当前图像为脏数据或者干净数据;重复执行上述操作,直到确定出各个下义词对应的各个图像为脏数据或者干净数据;得到各个下义词对应的干净数据;执行将各个下义词和各个下义词对应的各个干净数据组合为各个训练样本的操作。

进一步的,所述生成模块402还包括:汇聚子模块4025(图中未示出),用于采用预先设定的聚类算法对全部的下义词对应的干净数据进行聚类,得到全部的下义词对应的至少一组干净数据;在所述预先构建的知识图谱中确定出各组干净数据的位置;并计算各组干净数据的位置与预先确定的中心位置之间的距离;响应于在全部的干净数据中存在至少一组与所述预先确定的中心位置之间的距离大于或者等于预设阈值的干净数据,在全部的干净数据中除去与所述预先确定的中心位置之间的距离大于或者等于所述预设阈值的干净数据,得到与所述预先确定的中心位置之间的距离小于所述预设阈值的干净数据;将与所述预先确定的中心位置之间的距离小于所述预设阈值的干净数据样本作为全部的下义词对应的干净数据。

进一步的,所述生成子模块402还包括:增广子模块4026(图中未示出),用于采用预先设定的数据增广方法对各个下义词对应的各个干净数据进行数据增广,得到各个下义词对应的数据增广后的干净数据;将各个下义词对应的数据增广后的干净数据作为全部的下义词对应的干净数据。

进一步的,所述预先设定的质量评估算法包括以下至少其中之一:清晰度检测、纯色图检测、图像损坏检测;所述预先设定的聚类算法包括以下至少其中之一:K均值聚类算法、均值偏移聚类算法;所述预先设定的数据增广方法包括以下至少其中之一:仿射变换、透视变换、颜色扰动、数据增强、生成判别网络。

上述模型训练装置可执行本申请任意实施例所提供的方法,具备执行方法相应的功能模块和有益效果。未在本实施例中详尽描述的技术细节,可参见本申请任意实施例提供的模型训练方法。

实施例五

根据本申请的实施例,本申请实施例还提供了一种电子设备和一种可读存储介质。

如图6所示,是根据本申请实施例的模型训练方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。

如图6所示,该电子设备包括:一个或多个处理器601、存储器602,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图6中以一个处理器601为例。

存储器602即为本申请所提供的非瞬时计算机可读存储介质。其中,所述存储器存储有可由至少一个处理器执行的指令,以使所述至少一个处理器执行本申请所提供的模型训练方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的模型训练方法。

存储器602作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的模型训练方法对应的程序指令/模块(例如,附图4所示的接收模块401、生成模块402、提取模块403和训练模块404)。处理器601通过运行存储在存储器602中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的模型训练方法。

存储器602可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据模型训练的电子设备的使用所创建的数据等。此外,存储器602可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器602可选包括相对于处理器601远程设置的存储器,这些远程存储器可以通过网络连接至模型训练的电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。

模型训练方法的电子设备还可以包括:输入装置603和输出装置604。处理器601、存储器602、输入装置603和输出装置604可以通过总线或者其他方式连接,图6中以通过总线连接为例。

输入装置603可接收输入的数字或字符信息,以及产生与模型训练的电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置604可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。

此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用ASIC(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。

这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。

为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。

可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)、互联网和区块链网络。

计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务中,存在的管理难度大,业务扩展性弱的缺陷。

根据本申请实施例的技术方案,先接收用户输入的任务类别标签;然后基于任务类别标签生成与其对应的至少一个训练样本;再在任务类别标签对应的全部训练样本中提取出一个训练样本作为当前训练样本;响应于待训练的模型不满足预先设置的收敛条件,将当前训练样本输入至待训练的模型中,使用当前训练样本对待训练的模型进行训练;重复执行上述提取当前训练样本的操作,直到待训练的模型满足预先设置的收敛条件。也就是说,本申请可以基于任务类别标签生成与其对应的至少一个训练样本,使用任务类型标签对应的至少一个训练样本进行模型训练。而在现有的模型训练方法中,在训练模型时依赖大量的人工标注数据,需要耗费大量的人力、资金和时间投入到数据标注工作中。因为本申请采用了基于所述任务类别标签生成与其对应的至少一个训练样本的技术手段,克服了现有技术中在训练模型时依赖大量的人工标注数据,需要耗费大量的人力、资金和时间投入到数据标注工作中的技术问题,本申请提供的技术方案,无需预先获取带有标注的训练样本即可实现模型训练,极大地减少了人力消耗和人工标注的资金成本;并且,本申请实施例的技术方案实现简单方便、便于普及,适用范围更广。

应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。

上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。

相关技术
  • 模型训练方法、模型训练装置、存储介质和电子设备
  • 模型训练方法、模型训练平台、电子设备和存储介质
技术分类

06120112232590