掌桥专利:专业的专利平台
掌桥专利
首页

模型训练方法、商品信息处理方法及相关装置

文献发布时间:2023-06-19 19:16:40


模型训练方法、商品信息处理方法及相关装置

技术领域

本发明涉及计算机技术领域,尤其涉及一种模型训练方法、商品信息处理方法及相关装置。

背景技术

NLP(Natural language processing,自然语言处理)技术目前的发展非常快。语言模型预训练作为NLP技术的热点,当前最常用的预训练语言模型为BERT模型,其可以对输入的文本进行遮掩字符预测和下句预测。

但是,预训练语言模型很难学习到特殊领域的特定知识,对于一些特殊领域的特征也很难加入到预训练语言模型中,导致无法在更多特殊领域达到预期的效果。例如在电商领域中,商品的特定知识、逻辑关系复杂,预训练语言模型在处理这些特殊领域的信息时,效果较差。

因此,目前亟需一种可以适用于特殊领域中的预训练语言模型,以实现特殊领域,特别是电商领域的信息处理。

发明内容

有鉴于此,本发明实施例提供一种模型训练方法、商品信息处理方法及相关装置,以解决采用现有技术中预训练语言模型无法在特殊领域达到预期效果的问题。

为实现上述目的,本发明实施例提供如下技术方案:

本发明实施例第一方面公开了一种模型训练方法,所述方法包括:

获取目标领域的第一样本文本和第二样本文本,所述第一样本文本和所述第二样本文本包含各自的文本信息和要素边界;

将所述第一样本文本和所述第二样本文本作为输入样本,输入至预训练语言模型中进行遮掩字符预测、下句预测和要素边界预测,并输出遮掩字符预测结果、下句预测结果和要素边界预测结果;

判断所述遮掩字符预测结果、下句预测结果和要素边界预测结果是否满足预测要求;

若不满足,调整所述预训练语言模型中的模型参数,再次基于所述输入样本进行遮掩字符预测、下句预测和要素边界预测,直至所述遮掩字符预测结果、下句预测结果和要素边界预测结果满足预测要求,得到能够用于目标领域信息处理的预训练语言模型。

可选的,若所述预训练语言模型为单预训练语言模型或者孪生预训练语言模型,在所述预训练语言模型中进行遮掩字符预测、下句预测和要素边界预测之前,还包括:

利用特征符标记所述第一样本文本和所述第二样本文本;

将标记后的第一样本文本和第二样本文本拼接成一个第三样本文本,将所述第三样本文本作为输入样本。

可选的,所述将输入样本输入至预训练语言模型中进行要素边界预测,包括:

对所述输入样本进行编码处理,得到输入样本对应的语义序列,所述语义序列中包含所述输入样本中每个字的语义;

基于所述语义序列和预设损失函数,计算所述输入样本中每个字的要素边界概率;

确定要素边界概率大于预设概率的字为所述输入样本的文本边界字。

可选的,所述将输入样本输入至预训练语言模型中进行遮掩字符预测,包括:

对所述输入样本进行预处理,得到携带有遮掩标记的文本序列,所述遮掩标记用于标记所述文本序列中被遮掩的文字;

基于遮掩字符预测方式对所述文本序列进行处理,确定所述遮掩标记遮掩掉的文字。

可选的,所述将输入样本输入至预训练语言模型中进行下句预测,包括:

对所述输入样本进行拆分处理,得到包含多个句子的数据集;

基于所述数据集进行下句预测,确定每一个句子对应的下一个句子。

本发明实施例第二方面公开了一种商品信息处理方法,适用于本发明实施例第一方面公开的模型训练方法生成的预训练语言模型,所述方法包括:

获取待预测的文本信息,所述文本信息用于表征商品;

利用所述预训练语言模型对所述待预训练的文本信息进行预测,得到要素边界字。

可选的,还包括:

基于所述要素边界字划分对象的类型,所述对象为所述待训练的文本信息所表征的商品。

本发明实施例第三方面公开了一种模型训练装置,所述装置包括:

获取模块,用于获取目标领域的第一样本文本和第二样本文本,所述第一样本文本和所述第二样本文本包含各自的文本信息和要素边界;

训练模块,用于将所述第一样本文本和所述第二样本文本作为输入样本,输入至预训练语言模型中进行遮掩字符预测、下句预测和要素边界预测,并输出遮掩字符预测结果、下句预测结果和要素边界预测结果;判断所述遮掩字符预测结果、下句预测结果和要素边界预测结果是否满足预测要求;若不满足,调整所述预训练语言模型中的模型参数,再次基于所述输入样本进行遮掩字符预测、下句预测和要素边界预测,直至所述遮掩字符预测结果、下句预测结果和要素边界预测结果满足预测要求,得到能够用于目标领域信息处理的预训练语言模型。

可选的,所述将输入样本输入至预训练语言模型中进行要素边界预测的训练模块,具体用于:

对所述输入样本进行编码处理,得到输入样本对应的语义序列,所述语义序列中包含所述输入样本中每个字的语义;基于所述语义序列和预设损失函数,计算所述输入样本中每个字的要素边界概率;确定要素边界概率大于预设概率的字为所述输入样本的文本边界字。

本发明实施例第四方面公开了一种商品信息处理装置,包括:

获取模块,用于获取待预测的文本信息,所述文本信息用于表征商品;

处理模块,用于利用预训练语言模型对待预训练的文本信息进行预测,得到要素边界字,所述预训练语言模型基于本发明第一方面公开的模型训练方法生成。

本发明实施例第五方面公开了一种电子设备,所述电子设备用于运行程序,其中,所述程序运行时执行如本发明实施例第一方面公开的模型训练方法,或者,执行如本发明实施例第二方面公开的商品信息处理方法。

本发明实施例第六方面公开了一种计算机存储介质,所述存储介质包括存储程序,其中,在所述程序运行时控制所述存储介质所在设备执行如本发明实施例第一方面公开的模型训练方法,或者,执行如本发明实施例第二方面公开的商品信息处理方法。

基于上述本发明实施例提供的一种模型预训练方法、商品信息处理方法及相关装置,通过获取目标领域的第一样本文本和第二样本文本,所述第一样本文本和所述第二样本文本包含各自的文本信息和要素边界;将所述第一样本文本和所述第二样本文本作为输入样本,输入至预训练语言模型中进行遮掩字符预测、下句预测和要素边界预测,并输出遮掩字符预测结果、下句预测结果和要素边界预测结果;判断所述遮掩字符预测结果、下句预测结果和要素边界预测结果是否满足预测要求;若不满足,调整所述预训练语言模型中的模型参数,再次基于所述输入样本进行遮掩字符预测、下句预测和要素边界预测,直至所述遮掩字符预测结果、下句预测结果和要素边界预测结果满足预测要求,得到能够用于目标领域信息处理的预训练语言模型。在本方案中,在预训练语言模型的训练过程中,利用对不同特殊领域内的对象的要素边界的预测学习,达到学习特殊领域内的特征的目的,使预训练语言模型在特殊领域达到预期的效果。

附图说明

为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。

图1为本发明实施例公开的一种模型训练方法的流程示意图;

图2为本发明实施例公开的第一样本文本示意图;

图3为本发明实施例公开的第二样本文本示意图;

图4为本发明实施例公开的一示例中的文本信息示意图。

具体实施方式

下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。

在本申请中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。

由背景技术可知,目前的预训练语言模型很难学习到特殊领域的特定知识,因此本发明实施例提供了一种可以适用于特殊领域中的预训练语言模型。在预训练语言模型的训练过程中,利用对不同特殊领域内的对象的要素边界的预测学习,达到学习特殊领域内的特征的目的,使预训练语言模型在特殊领域达到预期的效果。尤其是电商领域。具体通过以下实施例进行说明。

如图1所示,为本发明实施例提供了一种模型训练方法的流程图,主要包括以下步骤:

S101:获取目标领域的第一样本文本和第二样本文本。

在S101中,目标领域包括但不限于特殊领域,如电商领域。

所述第一样本文本和所述第二样本文本包含各自的文本信息和要素边界。

要素边界指文本的文本开始和文本结束时的字。可以通过文本中的每个字的要素边界概率确定文本开始和文本结束时的字。

在本发明公开的一实施例中,当前待构建的预训练语言模型为能够处理电商领域的预训练语言模型。

如图2所示,第一样本文本为:“我是颜值控,家也是我的秀场,气质不能落下,华贵金激发对美食的无穷想象”。该样本文本所表征的商品为颜值高的冰箱。

如图3所示,第二样本文本为:“我拥有大容量,吃是我的爱好,也是我的事业,每天醒来的事情就是吃吃吃,多人份才能满足我的大胃口”。该样本文本所表征的商品为大容量的冰箱。

其中,第一样本文本中的要素边界概率最大的字为“我”和“象”,即要素边界为“我”和“象”。

第二样本文本中的要素边界概率最大的字为“我”和“口”,即要素边界为“我”和“口”。

S102:将所述第一样本文本和所述第二样本文本作为输入样本,输入至预训练语言模型中进行遮掩字符预测、下句预测和要素边界预测,并输出遮掩字符预测结果、下句预测结果和要素边界预测结果。

在S102中,本发明实施例公开的预训练语言模型为BERT根据类型不同其具体进行训练的过程有所不同。但其主要的训练目标均涉及遮掩字符预测、下句预测和要素边界预测。

在一实施例中,若所述预训练语言模型BERT为单预训练语言模型或者孪生预训练语言模型,在所述预训练语言模型BERT中进行遮掩字符预测、下句预测和要素边界预测之前,还包括:

首先,利用特征符标记所述第一样本文本和所述第二样本文本。

其次,将标记后的第一样本文本和第二样本文本拼接成一个第三样本文本,将所述第三样本文本作为输入样本。

也就是说,当所述预训练语言模型BERT为单预训练语言模型或者孪生预训练语言模型时,在预训练语言模型BERT进行遮掩字符预测、下句预测和要素边界预测之前需要将第一样本文本和第二样本文本拼接为一个完整的文本,即输入样本。

在一实施例中,具体将输入样本输入至预训练语言模型BERT中进行要素边界预测的过程包括:

首先,对所述输入样本进行编码处理,得到输入样本对应的语义序列,所述语义序列中包含所述输入样本中每个字的语义。

在进行编码处理后,得到的输入样本对应的语义序列,即为输入样本的语义表示h=(h

其次,基于所述语义序列和预设损失函数,计算所述输入样本中每个字的要素边界概率。

要素边界概率y的计算公式如公式(1)所示:

y

预设损失函数如公式(2)所示:

LOSS=CrossEntropy(y

其中,z

最后,确定要素边界概率大于预设概率的字为所述输入样本的文本边界字。

基于图2和图3的举例,第一样本文本中的“我”和“象”的要素边界概率大于预设概率,则确定第一样本文本的要素边界为“我”和“象”。

第二样本文本中的“我”和“口”的要素边界概率大于预设概率,则确定第二样本文本的要素边界为“我”和“口”。

在一实施例中,具体将输入样本输入至预训练语言模型中进行遮掩字符预测的过程包括:

首先,对所述输入样本进行预处理,得到携带有遮掩标记的文本序列,所述遮掩标记用于标记所述文本序列中被遮掩的文字;

其次,基于遮掩字符预测方式对所述文本序列进行处理,确定所述遮掩标记遮掩掉的文字。

基于图2和图3的举例,对第一样本文本“我是颜值控,家也是我的秀场,气质不能落下,华贵金激发对美食的无穷想象”进行预处理,将“颜”字掩盖,则“我是颜值控”变为“我就是[M]值控”,预训练语音模型训练目标是预测“颜”字。

在一实施例中,具体将输入样本输入至预训练语言模型中进行下句预测的过程包括:

首先,对所述输入样本进行拆分处理,得到包含多个句子的数据集。

其次,基于所述数据集进行下句预测,确定每一个句子对应的下一个句子。

基于图2和图3的举例,对第二样本文本“我拥有大容量,吃是我的爱好,也是我的事业,每天醒来的事情就是吃吃吃,多人份才能满足我的大胃口”。进行拆分。

其中,在进行下句预测时,其预测的是“我拥有大容量”的下句是“吃是我的爱好”,而预测“吃是我的爱好”的下句为“也是我的事业”。

S103:判断所述遮掩字符预测结果、下句预测结果和要素边界预测结果是否满足预测要求,若不满足,执行S104;若满足,执行S105。

S104:调整所述预训练语言模型中的模型参数,返回执行S102,再次基于所述输入样本进行遮掩字符预测、下句预测和要素边界预测。

需要说明的是,S102至S104实际上为循环计算的过程,若遮掩字符预测结果、下句预测结果和要素边界预测结果与样本中的内容不同,则调整预训练语言模型BERT中的模型参数,再次对输入样本进行遮掩字符预测、下句预测和要素边界预测,一直到遮掩字符预测结果、下句预测结果和要素边界预测结果与样本中的内容相同。

S105:得到能够用于目标领域信息处理的预训练语言模型。

后续基于得到的预训练语言模型可以针对目标领域内的信息进行处理。例如,该目标领域为电商领域,执行上述S101至S105可以得到用于处理电商领域信息的预训练语言模型。

在本发明实施例公开的模型训练方法中,通过获取目标领域的第一样本文本和第二样本文本,所述第一样本文本和所述第二样本文本包含各自的文本信息和要素边界;将所述第一样本文本和所述第二样本文本作为输入样本,输入至预训练语言模型中进行遮掩字符预测、下句预测和要素边界预测,并输出遮掩字符预测结果、下句预测结果和要素边界预测结果;判断所述遮掩字符预测结果、下句预测结果和要素边界预测结果是否满足预测要求;若不满足,调整所述预训练语言模型中的模型参数,再次基于所述输入样本进行遮掩字符预测、下句预测和要素边界预测,直至所述遮掩字符预测结果、下句预测结果和要素边界预测结果是否满足预测要求,得到能够用于目标领域信息处理的预训练语言模型。在本方案中,在预训练语言模型的训练过程中,利用对不同特殊领域内的对象的要素边界的预测学习,达到学习特殊领域内的特征的目的,使预训练语言模型在特殊领域达到预期的效果。

基于上述本发明实施例公开的模型训练方法,本发明实施例还公开了一种商品信息处理方法,该商品信息处理方法适用于采用图1公开的模型训练方法生成的能够处理该商品信息的预训练语言模型。该商品信息处理方法主要包括如下步骤:

S201:获取待预测的文本信息。

在S201中,该文本信息用于表征商品。

如图4所示,假设该文本信息为“超大电池,超大内存,畅拍一整天”,该文本信息用于表征具有超长待机和内存的手机。

S202:利用预训练语言模型对待预训练的文本信息进行预测,得到要素边界字。

基于图4的举例,执行S202基于可以处理电商领域信息的预训练语言模型对S201所获取到的文本信息进行预测,可以得到要素边界字“超”和“天”。

具体执行S202之后,还包括:

S203:基于所述要素边界字划分对象的类型,所述对象为所述待训练的文本信息所指示的商品。

基于图4的举例,经过要素边界的预测,得到文本信息中的要素边界为“超”和“天”,由此可以确定具体的商品类型。

在本发明另一实施例中,基于上述S201至S203,还可以对不同的文本信息进行处理,并根本得到的要素边界判断不同的文本信息是否表征了相同的商品。

在本发明实施例公开的商品信息处理方法中,利用预训练语言模型对文本信息进行处理,可以快速的得到该文本信息表征的商品的要素边界,进而基于该要素边界确认商品。

基于上述本发明实施例公开的模型训练方法,本发明实施例还对应公开了一种模型训练装置。该模型训练装置包括:第一获取模块和训练模块。

第一获取模块,用于获取目标领域的第一样本文本和第二样本文本,所述第一样本文本和所述第二样本文本包含各自的文本信息和要素边界。

训练模块,用于将所述第一样本文本和所述第二样本文本作为输入样本,输入至预训练语言模型中进行遮掩字符预测、下句预测和要素边界预测,并输出遮掩字符预测结果、下句预测结果和要素边界预测结果;判断所述遮掩字符预测结果、下句预测结果和要素边界预测结果是否满足预测要求;若不满足,调整所述预训练语言模型中的模型参数,再次基于所述输入样本进行遮掩字符预测、下句预测和要素边界预测,直至所述遮掩字符预测结果、下句预测结果和要素边界预测结果满足预测要求,得到能够用于目标领域信息处理的预训练语言模型。

若所述预训练语言模型为单预训练语言模型或者孪生预训练语言模型,所述训练模块在所述预训练语言模型中进行遮掩字符预测、下句预测和要素边界预测之前,还用于:

利用特征符标记所述第一样本文本和所述第二样本文本;将标记后的第一样本文本和第二样本文本拼接成一个第三样本文本,将所述第三样本文本作为输入样本。

在一实施例中,所述将输入样本输入至预训练语言模型中进行要素边界预测的训练模块,具体用于:

对所述输入样本进行编码处理,得到输入样本对应的语义序列,所述语义序列中包含所述输入样本中每个字的语义;基于所述语义序列和预设损失函数,计算所述输入样本中每个字的要素边界概率;确定要素边界概率大于预设概率的字为所述输入样本的文本边界字。

在一实施例中,所述将输入样本输入至预训练语言模型中进行要素边界预测的训练模块,具体用于:

对所述输入样本进行编码处理,得到输入样本对应的语义序列,所述语义序列中包含所述输入样本中每个字的语义;基于所述语义序列和预设损失函数,计算所述输入样本中每个字的要素边界概率;确定要素边界概率大于预设概率的字为所述输入样本的文本边界字。

在一实施例中,所述将输入样本输入至预训练语言模型中进行遮掩字符预测的训练模块,具体用于:

对所述输入样本进行预处理,得到携带有遮掩标记的文本序列,所述遮掩标记用于标记所述文本序列中被遮掩的文字;基于遮掩字符预测方式对所述文本序列进行处理,确定所述遮掩标记遮掩掉的文字。

在一实施例中,所述将输入样本输入至预训练语言模型中进行下句预测的训练模块,具体用于:

对所述输入样本进行拆分处理,得到包含多个句子的数据集;基于所述数据集进行下句预测,确定每一个句子对应的下一个句子。

在本发明实施例公开的模型训练装置中,通过在预训练语言模型的训练过程中,利用对不同特殊领域内的对象的要素边界的预测学习,达到学习特殊领域内的特征的目的,使预训练语言模型在特殊领域达到预期的效果。

基于上述本发明实施例公开的模型训练方法,本发明实施例还对应公开了一种商品信息处理装置。该商品信息处理装置包括:第二获取模块和处理模块。

第二获取模块,用于获取待预测的文本信息,所述文本信息用于表征商品。

处理模块,用于利用预训练语言模型对待预训练的文本信息进行预测,得到要素边界字,所述预训练语言模型基于图1公开的模型训练方法生成。

在一实施例中,处理模块,还用于基于所述要素边界字划分对象的类型,所述对象为所述待训练的文本信息所表征的商品。

在本发明实施例公开的商品信息处理装置中,利用预训练语言模型对文本信息进行处理,可以快速的得到该文本信息表征的商品的要素边界,进而基于该要素边界确认商品。

基于上述本发明实施例公开的一种模型训练方法,本发明实施例还公开了一种计算机存储介质,该存储介质包括存储程序,其中,在所述程序运行时控制所述存储介质所在设备执行上述图1公开的模型训练方法。

基于上述本发明实施例公开的一种模型训练方法,本发明实施例还公开了一种电子设备。该电子设备用于运行程序,其中,所述程序运行时执行上述图1公开的模型训练方法。

本发明实施例中的电子设备可以是服务器、PC、PAD、手机等。

该电子设备包括至少一个处理器,以及与处理器连接的至少一个存储器,以及总线。

处理器、存储器通过总线完成相互间的通信。

处理器,用于执行存储器中存储的程序。

存储器,用于存储程序,该程序至少用于:

获取目标领域的第一样本文本和第二样本文本,所述第一样本文本和所述第二样本文本包含各自的文本信息和要素边界;将所述第一样本文本和所述第二样本文本作为输入样本,输入至预训练语言模型中进行遮掩字符预测、下句预测和要素边界预测,并输出遮掩字符预测结果、下句预测结果和要素边界预测结果;判断所述遮掩字符预测结果、下句预测结果和要素边界预测结果是否满足预测要求;若不满足,调整所述预训练语言模型中的模型参数,再次基于所述输入样本进行遮掩字符预测、下句预测和要素边界预测,直至所述遮掩字符预测结果、下句预测结果和要素边界预测结果满足预测要求,得到能够用于目标领域信息处理的预训练语言模型。

本申请还提供了一种计算机程序产品,当在电子设备上执行时,适于执行初始化有如下方法步骤的程序:

获取目标领域的第一样本文本和第二样本文本,所述第一样本文本和所述第二样本文本包含各自的文本信息和要素边界;将所述第一样本文本和所述第二样本文本作为输入样本,输入至预训练语言模型中进行遮掩字符预测、下句预测和要素边界预测,并输出遮掩字符预测结果、下句预测结果和要素边界预测结果;判断所述遮掩字符预测结果、下句预测结果和要素边界预测结果是否满足预测要求;若不满足,调整所述预训练语言模型中的模型参数,再次基于所述输入样本进行遮掩字符预测、下句预测和要素边界预测,直至所述遮掩字符预测结果、下句预测结果和要素边界预测结果满足预测要求,得到能够用于目标领域信息处理的预训练语言模型。

本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。

在一个典型的配置中,设备包括一个或多个处理器(CPU)、存储器和总线。设备还可以包括输入/输出接口、网络接口等。

存储器可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM),存储器包括至少一个存储芯片。存储器是计算机可读介质的示例。

计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。

本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统或系统实施例而言,由于其基本相似于方法实施例,所以描述得比较简单,相关之处参见方法实施例的部分说明即可。以上所描述的系统及系统实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。

专业人员还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。

对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

相关技术
  • 图像处理方法及其模型的训练方法、装置和电子系统
  • 一种模型训练方法、合成说话表情的方法和相关装置
  • 模型训练方法、广告推荐方法、相关装置、设备及介质
  • 一种图像识别模型的训练方法、图像识别方法和相关装置
  • 神经网络、训练方法、图像处理方法及图像处理装置
  • 语言模型的预训练方法、商品信息处理方法及相关装置
  • 一种图像处理方法和相关模型训练方法及相关装置
技术分类

06120115849497