掌桥专利:专业的专利平台
掌桥专利
首页

一种视频内容识别及模型训练的方法、装置和设备

文献发布时间:2023-06-19 19:28:50


一种视频内容识别及模型训练的方法、装置和设备

技术领域

本申请涉及图像处理技术领域,尤其涉及一种视频内容识别方法、一种模型训练方法、一种视频内容识别装置、一种模型训练装置、一种电子设备、一种计算机可读存储介质以及一种计算机程序产品。

背景技术

随着以视频为载体的信息传播方式越来越流行,各种视频相关的应用也得到了极大的发展,因此,对于视频的相关技术提出了更高的要求,作为视频处理技术中的基础任务,视频内容识别技术得到了越来越多的关注。

相关技术提出的视频内容识别技术主要是应用深度学习技术,在大规模数据量级下拟合出具有一定泛化能力的参数后,对新数据进行识别。其中主要的特点是:大规模数据、数据纯度高、黑盒不可解析。

大规模数据:根据实际业务中的研发表明,深度学习在图片识别中需要的训练集动辄以十万、百万为单位;而对于视频动作识别,训练集已达到千万图片规模。国外的头部研究机构更以亿为单位的数据进行研究。需要大规模数据的特点会导致数据集搭建时间较长,因此研发迭代周期相对较长。

数据纯度高:仅有大规模数据仍然无法拟合出所需要的模型能力。因为数据的组成和纯度直接决定了模型识别的精度。在实际业务场景中,需要模型识别的数据有较高的精准度才能在审核或者机器打标应用中达到人力资源使用最优。

黑盒不可解析:深度学习或机器学习技术,是基于原始数据或特征数据在神经网络或机器学习算法中进行训练,训练出的模型参数,不能给出可理解的逻辑上的解析。对于使用者来说,仅能通过一定量的数据测试才能稍微摸清模型大致的能力边界,费时费力不说,而且如果对识别内容有稍微的改变,原模型参数需要重新训练,迁移能力差。

数据纯度高且需要结合大规模的量级,就导致训练集构建的成本非常高昂,而且黑盒不可解析的特性又导致各个业务直接不能直接迁移或重复使用,只能在各个业务上都跟据本业务数据进行模型的定制,反复耗费人力和机器资源。

发明内容

本申请提供了一种视频内容识别及模型训练的方法、装置和设备,以解决现有技术中需要大规模数据训练模型,以及,在较短周期内难以实现对多个业务下的复杂内容进行高效识别的问题。

根据本申请的第一方面,提供了一种视频内容识别方法,所述方法包括:

采用预先生成的通用检测模型对目标视频进行目标检测,获得第一检测结果;

根据所述第一检测结果,从预先生成的多个标签模型中选取一个或多个目标标签模型,其中,所述标签模型具有对应的内容标签,所述标签模型为采用预先生成的元模型对对应内容标签的训练数据集进行超参学习后,基于得到的超参数与所述训练数据集训练生成的模型;

采用所述一个或多个目标标签模型对所述目标视频进行标签检测,获得第二检测结果;

结合所述一个或多个目标标签模型的所述第二检测结果,生成视频内容识别结果。

根据本申请的第二方面,提供了一种模型训练方法,所述方法包括:

获取标签集合,所述标签集合中包含至少两个标签等级,各标签等级具有若干内容标签;

针对各内容标签,分别获取所述内容标签的训练数据集,所述训练数据集的数量小于设定小规模阈值;

采用预先生成的元模型对所述内容标签的训练数据集进行超参学习,以获得所述内容标签的超参数;

根据所述超参数以及所述内容标签的训练数据集训练所述内容标签的标签模型。

根据本申请的第三方面,提供了一种视频内容识别装置,所述装置包括:

通用检测模块,用于采用预先生成的通用检测模型对目标视频进行目标检测,获得第一检测结果;

目标标签模型确定模块,用于根据所述第一检测结果,从预先生成的多个标签模型中选取一个或多个目标标签模型,其中,所述标签模型具有对应的内容标签,所述标签模型为采用预先生成的元模型对对应内容标签的训练数据集进行超参学习后,基于得到的超参数与所述训练数据集训练生成的模型;

标签检测模块,用于采用所述一个或多个目标标签模型对所述目标视频进行标签检测,获得第二检测结果;

视频内容识别结果生成模块,用于结合所述一个或多个目标标签模型的所述第二检测结果,生成视频内容识别结果。

根据本申请的第四方面,提供了一种模型训练装置,所述装置包括:

标签集合获取模块,用于获取标签集合,所述标签集合中包含至少两个标签等级,各标签等级具有若干内容标签;

训练数据集获取模块,用于针对各内容标签,分别获取所述内容标签的训练数据集,所述训练数据集的数量小于设定小规模阈值;

超参数确定模块,用于采用预先生成的元模型对所述内容标签的训练数据集进行超参学习,以获得所述内容标签的超参数;

标签模块训练模块,用于根据所述超参数以及所述内容标签的训练数据集训练所述内容标签的标签模型。

根据本申请的第五方面,提供了一种电子设备,所述电子设备包括:

至少一个处理器;以及

与所述至少一个处理器通信连接的存储器;其中,

所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行上述第一方面或第二方面所述的方法。

根据本申请的第六方面,提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机指令,所述计算机指令用于使处理器执行时实现上述第一方面或第二方面所述的方法。

根据本申请的第七方面,提供了一种计算机程序产品,所述计算机程序产品包括计算机可执行指令,所述计算机可执行指令在被执行时用于实现上述第一方面或第二方面所述的方法。

在本实施例中,在对目标视频进行视频内容识别时,首先通过通用检测模型输出作为基础信号的第一检测结果,然后根据第一检测结果采用策略控制方法从预先生成的多个标签模型中选取一个或多个目标标签模型对目标视频进行标签检测,获得第二检测结果,综合各个目标标签模型的第二检测结果则可以得到视频内容识别结果。不同的业务有不同的策略控制,根据策略控制直接从预先生成的标签模型中选择目标标签模型,而无需根据不同的业务重新训练各个内容标签对应的网络模型,提高了标签模型的可迁移性和复用性,降低迁移或复用成本。

如果有新增的业务,本实施例也只需根据新业务的产品需求,开发出可解析的综合策略来确定目标标签模型或新增部分标签模型,在无需重新训练调整已有标签模型的情况下就可以直接复用,实现标签模型跨业务的迁移或复用。

而在训练标签模型时,通过细粒度的内容标签,以及各内容标签对应的维度单一的小规模训练数据集,结合元模式的超参学习过程,可以训练众多可复用、可迁移的标签模型,降低数据集的收集成本,并提升了数据集的数据纯度,从而得到精度更高的标签模型。

附图说明

为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。

图1是本申请实施例一提供的一种模型训练方法的流程图;

图2是本申请实施例二提供的一种视频内容识别方法的流程图;

图3是本申请实施例三提供的一种视频内容识别装置的结构示意图;

图4是本申请实施例四提供的一种模型训练装置的结构示意图;

图5是本申请实施例五提供的一种电子设备的结构示意图。

具体实施方式

为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分的实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。

需要说明的是,本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。

实施例一

图1为本申请实施例一提供的一种模型训练方法的流程图,该方法实施例可以应用于服务器中,用于对标签模型进行训练,该标签模型用于输出当前输入数据属于对应的内容标签的概率。

如图1所示,本实施例可以包括如下步骤:

步骤101,获取标签集合,所述标签集合中包含至少两个标签等级,各标签等级具有若干内容标签。

例如,若一个标签集合中包括一级标签、二级标签和三级标签这三个标签等级,假设一级标签的内容标签为初始内容标签,则二级标签的内容标签为对初始内容标签进行拆解后得到的内容标签,三级标签的内容标签为对二级标签的内容标签进一步拆解后得到的内容标签。

在一种实现中,对内容标签的拆解方式可以包括内容、数据格式等多个维度的拆解。比如,假设一级标签的内容标签为“美女舞蹈”,可以按照内容维度将“美女舞蹈”拆解成“美女”、“舞蹈”两个二级标签的内容标签。接着,还可以对各个二级标签的内容标签进一步拆解,将“美女”拆解成“性别”、“颜值”两个三级标签的内容标签,将“舞蹈”拆解成“流行舞蹈”、“传统舞蹈”、“体育舞蹈”三个三级标签的内容标签。

在一种实施例中,步骤101进一步可以包括如下步骤:

接收用户输入的配置数据,并从该配置数据中提取标签集合。

在实现时,服务器可以向用户(如开发人员或产品经理等)提供配置入口,用户通过该配置入口输入标签集合的配置数据。服务器收到该配置数据以后,解析出标签集合。

标签集合可以采用树状结构、列表结构、键值对等方式记录,本实施例对此不作限制,只要能区分出不同的标签等级以及每个标签等级下的内容标签即可。

需要说明的是,标签等级越多、内容标签的拆解粒度就越细,则覆盖的内容越清晰,这就降低了模型快速训练迭代过程中收集高纯度正样本的难度,而且粒度越细,需要的正样本数量级越少,可以进一步提高迭代速率。每个内容标签都可以参与到各个业务中,足够细粒度的内容标签可以避免在新增业务上需重新收集数据对标签进行训练,从而增强后续训练的模型的复用性和可迁移性。

步骤102,针对各内容标签,分别获取各内容标签的训练数据集。

其中,每个内容标签的训练数据集的数量小于设定小规模阈值,使得每个内容标签的训练数据集为小规模数据集,例如正样本数据是几万量级。根据项目中实际时耗,这种量级的正样本,一般在几天内可以完成收集和标注,而且算法人员可以较快平衡好训练数据集的组成结构,达到数据纯度较高、数据成分均衡性好的要求,从而提升模型的训练速度和精度,使得各标签模型的训练在研发的短周期内完成。

步骤103,采用预先生成的元模型对当前内容标签的训练数据集进行超参学习,以获得当前内容标签的超参数。

示例性地,本实施例需要训练的标签模型可以为深度学习模型。在实际中,小规模数据集虽然能够提升模型训练的速度和精度,但深度学习技术在小规模数据集上容易出现过拟合现象,使得模型达不到预期的泛化效果。

为了防止模型的过拟合现象,可选的处理手段可以包括:选择小而浅的网络结构、训练时候加入正则化手段、采用特定loss(损失)进行抑制、从采样步骤丰富数据组成等。此外,基于从大规模开源数据集上的公开预训练模型进行迁移学习也可以在一定程度上避免过拟合。

针对步骤101的标签集合,若内容标签的数量较多,如果每个细粒度的内容标签均从大规模开源数据集上预训练模型开始迭代,那么训练出准召性能好、泛化能力强的小模型,需要算法人员对各种超参的调节和训练迭代的设计都有比较强的经验要求。然而,一旦每个细粒度标签的模型训练都需要算法人员精心介入,就难以有效实现短周期快速迭代的计划,因为算法人力可能会给研发进度带来瓶颈。基于此,为了提高标签模型的训练效率,可以额外训练一个元模型对各内容标签的标签模型的超参进行指导学习。

在实际中,标签模型的神经网络,都是通过数据的迭代去学习模型的权重参数,而训练中所涉及的模型的学习率、衰减率、初始权重参数等超参需要算法人员手动调试设置。在实践中,在神经网络训练中,针对不同的数据集会使用不同的超参配置,当超参配置与数据集分布匹配得当时,是十分有助于更快速训练出较好的效果,可以较大提高训练效率。适配特定数据集的初始权重参数、学习率、衰减率等超参可以快速迭代出所要求的模型效果,而元模型的目的是为了把这个探索过程自动化,以提高算法人力的效率,最终达到使用少量算法人力就可以在短时间内迭代出众多满足效果的标签模型。

在一种实施例中,步骤103进一步可以包括如下步骤:

步骤103-1,从内容标签的训练数据集中随机抽取不超过第一设定比例的第一数据子集、以及不超过第二设定比例的第二数据子集。

本实施例意在采用少量数据学习到标签模型的超参数。因此可以从当前内容标签的训练数据集中随机抽取少量数据得到第一数据子集和第二数据子集。

其中,第一设定比例和第二设定比例可以为较少的比例,例如,第一设定比例可以设置为10%,第二设定比例可以设置为20%。这样可以保证最终训练阶段的泛化能力,让最终训练阶段学习的时候尽可能多的学习没有见过的数据,而且辅助以元模型,少量数据即可学习得到初始的超参。

较佳地,可以设置第一设定比例小于第二设定比例,这样,从步骤103-2到步骤103-3的更新过程中,数据量是递增的,避免模型过拟合,提升模型的泛化能力。

步骤103-2,采用第一数据子集对初始深度学习模型进行迭代,以获得初始权重参数。

该步骤中,采用第一数据子集简单迭代初始深度学习模型,从而学习出初始权重参数,记作Weights-1。

步骤103-3,采用第二数据子集继续迭代基于初始权重参数的深度学习模型,并计算每次迭代的损失和所述损失的梯度值。

在该步骤中,使用数据量更大的第二数据子集,在Weights-1的深度学习模型中继续进行迭代,并计算每次迭代的loss(损失)和和该loss的梯度值。本实施例对计算loss和梯度值的具体方式不作限定。

步骤103-4,将初始权重参数、每次迭代获得的损失以及梯度值输入至预先生成的元模型中进行超参学习,以获得内容标签的超参数。

本实施例使用一个元模型对多个不同内容标签的标签模型进行超参学习,对于元模型而言,需要具有一定的记忆功能,因为需要使用小量数据(第一数据子集和第二数据子集)快速找出各个不同内容的标签模型训练任务中的超参。因此,元模型可以采用带有记忆功能的网络结构,例如LSTM(Long short-term memory,长短期记忆)浅层网络、含有记忆单元的RNN(Recurrent Neural Network,循环神经网络)模型、transformer(使用注意力机制的神经网络)模型或者机器学习模型等。

通过元模型的记忆能力,可以将元模型应用于各个标签模型的训练中,从而实现了元模型的复用功能,达到了提升效率的目的。

当获得初始权重参数、每次迭代的损失以及梯度值以后,则将该初始权重参数、每次迭代的损失以及梯度值输入元模型,由元模型对深度学习模型中的初始权重参数、学习率和衰减率进行学习和更新,得到新的权重参数、学习率和衰减率作为当前内容标签的超参数。

在一种实现中,权重参数、学习率、衰减率和梯度值的关系如下:

其中,c

步骤104,根据超参数以及内容标签的训练数据集训练内容标签的标签模型。

在一种实现中,可以基于内容标签的超参数,采用全量的训练数据集进行模型训练,生成内容标签的标签模型。

具体的,当确定待训练的标签模型的超参数以后,则可以根据该超参数确定标签模型的结构,然后采用全量的训练数据集进行模型训练,获得准召率和泛化能力满足条件的最终的权重参数,并根据该最终的权重参数得到该内容标签的标签模型。

在实际中,对于不同的内容标签,其训练数据的形式也是不一样,例如,若内容标签包括具有时序特性的动作标签,则对应的训练数据集中的各训练数据为设定长度的帧序列,比如一个帧序列包括8帧或15帧的视频帧。而对于非动作类的内容标签,则一个训练数据为单帧视频帧。

本实施例的主要着重点在于如何使用少量数据搭建一套能在各个业务之间容易迁移或模型复用的框架,为了一套模型能在各个业务之间迁移或复用而且要兼顾在各业务中发挥出满意的效果,本实施例通过细粒度的内容标签,以及各内容标签对应的维度单一的小规模训练数据集,结合元模式的超参学习过程,可以训练众多可复用、可迁移的标签模型,以减少模型的迁移成本。同时在众多标签模型的训练阶段中可以节省大量的迭代开发时间,例如节省30%-50%的迭代开发时间。

实施例二

图2为本申请实施例二提供的一种视频内容识别方法的流程图,该方法实施例可以应用于服务器中,用于采用实施例一提及的标签模型,对视频内容进行识别,可应用于内容审核、内容打标等场景中,尤其适用于在较短研发周期时间内对多个业务下的复杂内容进行识别的场景。

如图2所示,本实施例可以包括如下步骤:

步骤201,采用预先生成的通用检测模型对目标视频进行目标检测,获得第一检测结果。

其中,通用检测模型可以包括为其他标签模型输出基础信号的检测模型,例如,用于输出人脸检测结果的人脸检测模型、用于输出场景类型的场景检测模型、用于输出目标位置的目标检测模型等。

目标视频可以来源于不同的业务,例如可以包括直播视频、用户导入的视频文件等,本实施例对此不作限制。

获得目标视频以后,可以首先将目标视频输入至通用检测模型中,由通用检测模型根据对目标视频进行相应的目标检测,输出第一检测结果。

其中,若通用检测模型的数量超过一个,根据预设的拓扑策略,可以将目标视频并行输入至不同的通用检测模型中,则每个通用检测模型的输出结果为第一检测结果;也可以将不同的通用检测模型串联起来,目标视频输入至第一个通用检测模型,然后第一个通用检测模型输出结果至第二个通用检测模型,以此类推,直到最后的通用检测模型处理完毕,获得最后的通用检测模型的输出结果作为第一检测结果,或者将各个检测模型的输出结果均作为第一检测结果。

步骤202,根据第一检测结果,从预先生成的多个标签模型中选取一个或多个目标标签模型。

其中,各标签模型具有对应的内容标签,标签模型为采用预先生成的元模型对对应内容标签的训练数据集进行超参学习后,基于得到的超参数与训练数据集训练生成的模型。关于标签模型的训练过程请参考实施例一的描述。

本实施例中的内容标签为细粒度的内容标签,每个内容标签具有对应的标签模型。则在确定作为基础信号的第一检测结果以后,可以从在先生成的所有标签模型中选择与第一检测结果匹配的标签模型作为目标标签模型。

在一种实施例中,步骤202可以包括如下步骤:

从预先生成的多个标签模型中,选取以该第一检测结果为输入信号的标签模型,作为目标标签模型。

例如,若某个内容标签为“年龄”标签,则为了检测人物的年龄,可以采用人脸检测模型进行人脸检测,获得人脸信号,然后将人脸信号输入给“年龄”标签模型,则可以得到对应的年龄类型。则,若人脸检测模型为通用检测模型,人脸信号为第一检测结果,则“年龄”标签模型为目标标签模型。也就是说,若通用检测模型为人脸检测模型,第一检测结果为人脸信号,则可以将所有以“人脸信号”为输入信号的标签模型作为目标标签模型。

步骤203,采用一个或多个目标标签模型对目标视频进行标签检测,获得第二检测结果。

在实现时,一个或多个目标标签模型可以并行运行,此时可以将目标视频分别输入至各目标标签模型进行处理,各目标标签模型的输出结果均作为第二检测结果;在其他实现中,多个目标标签模型也可以串行运行,此时前一个目标标签模型的输出可以作为下一个目标标签模型的输入,直到最后一个目标标签模型处理完毕,将其输出结果作为第二检测结果。

在一种实施例中,步骤203进一步可以包括如下步骤:

步骤203-1,获取各目标标签模型的优先级。

在实际中,各个标签模型还可以携带优先级信息,则可以根据目标标签模型的优先级信息确定目标标签模型的优先级。

在实现时,各标签模型的优先级信息可以由用户配置,

步骤203-2,根据优先级确定各目标标签模型的调用顺序。

例如,可以设置优先级高的目标标签模型优先被调用,则可以将目标标签模型按照优先级由高到低进行排序,然后将排序的顺序作为调用顺序。

步骤203-3,按照调用顺序依次调用各目标标签模型对所述目标视频进行对应的标签检测。

当确定调用顺序以后,则信号可以按照调用顺序在各目标标签模型间传递,并将排序在最后的目标标签模型输出的信号作为第二检测结果。

在一种实施例中,内容标签可以包括具有时序特性的动作标签,若采用动作标签对应的标签模型对目标视频进行标签检测,其检测过程可以包括:

将目标视频划分成若干视频片段;分别从各视频片段中选取若干视频帧作为输入数据,分别将输入数据输入至动作标签对应的标签模型,并获取该动作标签对应的标签模型输出的标签结果;整合动作标签对应的标签模型针对各视频片段的输入数据输出的标签结果,生成动作标签对应的标签模型的第二检测结果。

例如,可以将目标视频划分成3个视频片段,对于每个视频片段,每秒抽取3帧,如果某视频片段大于3秒超过9帧,则随机抽取连续9帧。然后将每个视频片段选取的9帧作为该视频片段输入数据输入至动作标签对应的标签模型,由动作标签对应的标签模型针对该视频片段输出标签结果。这样,3个视频片段可以得到3个标签结果,对这3个标签结果进行融合则可以得到当前动作标签对应的标签模型对应的第二检测结果。

该实施例通过将视频划分成视频片段,然后从各个视频片段中抽取视频帧作为输入数据,可以提高动作类的标签模型的研发效率,并极大降低了所需的正样本规模,在降低序列图片的采样间隔的情况下,仍然能在小模型和小规模数据(正样本视频数量3万左右)上达到满足需求的80%+的模型精度。

在一种实施例中,动作标签对应的标签模型输出的标签结果为输入数据符合对应动作标签的概率;则可以采用如下方式整合各视频片段的标签结果:

对动作标签对应的标签模型输出的各标签结果按照设定计算规则进行计算,并将计算结果作为第二检测结果。

示例性地,设定计算规则可以包括均值计算、加权计算方法等,本实施例对此不作限制。

步骤204,结合一个或多个目标标签模型的第二检测结果,生成视频内容识别结果。

其中,视频内容识别结果根据应用场景的不同有不同的处理,例如,可以将视频内容识别结果传递给推荐侧或者审核侧,用于推荐下发给用户观看或者处理违规风险。

在该步骤中,视频内容识别结果为综合了一个或多个目标标签模型的第二检测结果的多元化识别结果,满足了多元处理的情况,且可以提升识别精度。

例如,在安全类或者敏感类内容审核场景下,若目标标签模型包括“年龄”标签模型、“性别”标签模型和“身体裸露”标签模型,则可以结合这三种标签模型的输出结果,得到视频内容识别结果,如“男,成年,裸露上身”。

在进一步的实施例中,在确定视频内容识别结果时,还可以结合第一检测结果与第二检测结果得到。

例如,若采用“枪支”标签模型对目标视频检测时检测结果为存在枪支,则可以获取通用检测模型如场景检测模型的第一检测结果,如果第一检测结果为真实场景,则输出的视频内容识别结果“真实场景下存在枪支”,此时可以触发人工审核或者告警;而如果第一检测结果为游戏场景,则输出的视频内容识别结果“游戏场景下存在枪支”,此时则不触发人工审核或者告警,可以记录或忽略掉该识别结果。

在本实施例中,在对目标视频进行视频内容识别时,首先通过通用检测模型输出作为基础信号的第一检测结果,然后根据第一检测结果采用策略控制方法从预先生成的多个标签模型中选取一个或多个目标标签模型对目标视频进行标签检测,获得第二检测结果,综合各个目标标签模型的第二检测结果则可以得到视频内容识别结果。不同的业务有不同的策略控制,根据策略控制直接从预先生成的标签模型中选择目标标签模型,而无需根据不同的业务重新训练各个内容标签对应的网络模型,提高了标签模型的可迁移性和复用性,降低迁移或复用成本。

如果有新增的业务,本实施例也只需根据新业务的产品需求,开发出可解析的综合策略来确定目标标签模型或新增部分标签模型,在无需重新训练调整已有标签模型的情况下就可以直接复用,实现标签模型跨业务的迁移或复用。

实施例三

图3为本申请实施例三提供的一种视频内容识别装置的结构示意图,该装置设置于服务器中,可以包括如下模块:

通用检测模块301,用于采用预先生成的通用检测模型对目标视频进行目标检测,获得第一检测结果;

目标标签模型确定模块302,用于根据所述第一检测结果,从预先生成的多个标签模型中选取一个或多个目标标签模型,其中,所述标签模型具有对应的内容标签,所述标签模型为采用预先生成的元模型对对应内容标签的训练数据集进行超参学习后,基于得到的超参数与所述训练数据集训练生成的模型;

标签检测模块303,用于采用所述一个或多个目标标签模型对所述目标视频进行标签检测,获得第二检测结果;

视频内容识别结果生成模块304,用于结合所述一个或多个目标标签模型的所述第二检测结果,生成视频内容识别结果。

在一种实施例中,目标标签模型确定模块302具体用于:

从预先生成的多个标签模型中,选取以所述第一检测结果为输入信号的标签模型,作为目标标签模型。

在一种实施例中,标签检测模块303具体用于:

获取各目标标签模型的优先级;

根据所述优先级确定各目标标签模型的调用顺序;

按照所述调用顺序依次调用各目标标签模型对所述目标视频进行对应的标签检测。

在一种实施例中,所述内容标签包括具有时序特性的动作标签,若采用所述动作标签对应的标签模型对所述目标视频进行标签检测,标签检测模块303进一步可以包括如下模块:

视频划分模块,用于将所述目标视频划分成若干视频片段;

视频片段处理模块,用于分别从各视频片段中选取若干视频帧作为输入数据,分别将所述输入数据输入至所述动作标签对应的标签模型,并获取所述动作标签对应的标签模型输出的标签结果;

标签结果整合模块,用于整合所述动作标签对应的标签模型针对各视频片段的输入数据输出的标签结果,生成所述动作标签对应的标签模型的第二检测结果。

在一种实施例中,所述标签结果为所述输入数据符合对应动作标签的概率;

标签结果整合模块进一步用于:

对所述动作标签对应的标签模型输出的各标签结果按照设定计算规则进行计算,并将计算结果作为第二检测结果。

本申请实施例所提供的一种视频内容识别装置可执行本申请实施例二所提供的一种视频内容识别方法,具备执行方法相应的功能模块和有益效果。

实施例四

图4为本申请实施例四提供的一种模型训练装置的结构示意图,该装置设置于服务器中,可以包括如下模块:

标签集合获取模块401,用于获取标签集合,所述标签集合中包含至少两个标签等级,各标签等级具有若干内容标签;

训练数据集获取模块402,用于针对各内容标签,分别获取所述内容标签的训练数据集,所述训练数据集的数量小于设定小规模阈值;

超参数确定模块403,用于采用预先生成的元模型对所述内容标签的训练数据集进行超参学习,以获得所述内容标签的超参数;

标签模块训练模块404,用于根据所述超参数以及所述内容标签的训练数据集训练所述内容标签的标签模型。

在一种实施例中,超参数确定模块403进一步用于:

从所述内容标签的训练数据集中随机抽取不超过第一设定比例的第一数据子集、以及不超过第二设定比例的第二数据子集,所述第一设定比例小于所述第二设定比例;

采用所述第一数据子集对初始深度学习模型进行迭代,以获得初始权重参数;

采用所述第二数据子集继续迭代基于所述初始权重参数的深度学习模型,并计算每次迭代的损失和以及所述损失的梯度值;

将所述初始权重参数、每次迭代获得的所述损失以及所述梯度值输入至预先生成的元模型中进行超参学习,以获得所述内容标签的超参数。

在一种实施例中,标签模块训练模块404具体用于:

基于所述内容标签的超参数,采用全量的所述训练数据集进行模型训练,生成所述内容标签的标签模型。

在一种实施例中,所述内容标签包括具有时序特性的动作标签,则对应的训练数据集中的各训练数据为设定长度的帧序列。

在一种实施例中,标签集合获取模块401进一步用于:

接收用户输入的配置数据;

从所述配置数据中提取标签集合。

本申请实施例所提供的一种模型训练装置可执行本申请实施例一所提供的一种模型训练方法,具备执行方法相应的功能模块和有益效果。

实施例五

图5示出了可以用来实施本申请的方法实施例的电子设备10的结构示意图。如图5所示,电子设备10包括至少一个处理器11,以及与至少一个处理器11通信连接的存储装置,如只读存储器(ROM)12、随机访问存储器(RAM)13等,其中,存储装置存储有可被至少一个处理器执行的一个或多个计算机程序,处理器11可以根据存储在只读存储器(ROM)12中的计算机程序或者从存储单元18加载到随机访问存储器(RAM)13中的计算机程序,来执行各种适当的动作和处理。在RAM 13中,还可存储电子设备10操作所需的各种程序和数据。

在一些实施例中,实施例一或实施例二中的方法可被实现为计算机程序,其被有形地包含于计算机可读存储介质,例如存储单元18。在一些实施例中,计算机程序的部分或者全部可以经由ROM 12和/或通信单元19而被载入和/或安装到电子设备10上。当计算机程序加载到RAM 13并由处理器11执行时,可以执行上文描述的实施例一或实施例二中的方法的一个或多个步骤。

在一些实施例中,实施例一或实施例二中的方法可被实现为计算机程序产品,该计算机程序产品包括计算机可执行指令,该计算机可执行指令在被执行时用于执行上文描述的实施例一或实施例二中的方法的一个或多个步骤。

相关技术
  • 一种针对直播场景视频的内容审核模型训练方法及装置
  • 一种人脸表情识别模型训练方法、装置及设备
  • 车牌识别模型训练方法、车牌识别方法、装置及设备
  • 一种图像识别模型的训练方法、图像识别方法和相关装置
  • 基于视频获取人脸识别模型训练数据的方法、装置和介质
  • 视频内容的植入方法、模型训练方法、装置及电子设备
  • 视频内容分类模型的训练方法、装置、计算机设备及介质
技术分类

06120115927434