掌桥专利:专业的专利平台
掌桥专利
首页

一种面部信息的处理方法、装置、电子设备及存储介质

文献发布时间:2023-06-19 09:58:59


一种面部信息的处理方法、装置、电子设备及存储介质

技术领域

本公开涉及图像处理技术领域,具体而言,涉及一种面部信息的处理方法、装置、电子设备及存储介质。

背景技术

随着人工智能技术的发展,图像处理技术在虚拟形象的应用场景越来越多,比如游戏、动漫和社交等。

在不同的应用场景中,可以构建不同风格的虚拟人脸模型,比如古典风格、现代风格、西式风格、中式风格等,针对不同的应用风格,一般需要设置对应每种应用风格的虚拟人脸模型的构建方式,灵活性较差且效率较低。

发明内容

本公开实施例至少提供一种面部信息的处理方案。

第一方面,本公开实施例提供了一种面部信息的处理方法,包括:

获取第一人脸图像,以及多张第二人脸图像在预设风格下分别对应的稠密点数据;

基于所述第一人脸图像和所述多张第二人脸图像在预设风格下分别对应的稠密点数据,确定所述第一人脸图像在所述预设风格下的稠密点数据;

基于所述第一人脸图像对应的稠密点数据,生成所述第一人脸图像在所述预设风格下的虚拟人脸模型。

本公开实施例中,可以根据多张第二人脸图像在不同风格下分别对应的稠密点数据,快速确定出第一人脸图像在对应风格下的虚拟人脸模型,从而使得虚拟人脸模型的生成过程更加灵活,以提高人脸图像在预设风格下的虚拟人脸模型的生成效率。

在一种可能的实施方式中,所述基于所述第一人脸图像和所述多张第二人脸图像在预设风格下分别对应的稠密点数据,确定所述第一人脸图像在所述预设风格下的稠密点数据,包括:

提取所述第一人脸图像的人脸参数值,以及所述多张第二人脸图像分别对应的人脸参数值;其中,所述人脸参数值包含表征人脸形状的参数值和表征人脸表情的参数值;

基于所述第一人脸图像的人脸参数值、以及所述多张第二人脸图像分别对应的人脸参数值和稠密点数据,确定所述第一人脸图像在所述预设风格下的稠密点数据。

本公开实施例中,提出在确定第一人脸图像在预设风格下的稠密点数据的过程中,可以结合第一人脸图像和多张第二人脸图像的人脸参数值来确定,因为在通过人脸参数值表示人脸时使用的参数值数量较少,因此能够更加快速的确定出第一人脸图像在预设风格下的稠密点数据。

在一种可能的实施方式中,所述基于所述第一人脸图像的人脸参数值、以及所述多张第二人脸图像分别对应的人脸参数值和稠密点数据,确定所述第一人脸图像在所述预设风格下的稠密点数据,包括:

基于所述第一人脸图像的人脸参数值,以及所述多张第二人脸图像分别对应的人脸参数值,确定所述第一人脸图像和所述多张第二人脸图像之间的线性拟合系数;

根据所述多张第二人脸图像分别对应的稠密点数据和所述线性拟合系数,确定所述第一人脸图像在所述预设风格下的稠密点数据。

本公开实施例中,可以提出通过数量较少的人脸参数值快速得到表示第一人脸图像和多张第二人脸图像之间的关联关系的线性拟合系数,进一步可以根据该线性拟合系数对多张第二人脸图像在预设风格下的稠密点数据进行调整,可以快速得到第一人脸图像在预设风格下的稠密点数据。

在一种可能的实施方式中,所述基于所述第一人脸图像的人脸参数值,以及所述多张第二人脸图像分别对应的人脸参数值,确定所述第一人脸图像和所述多张第二人脸图像之间的线性拟合系数,包括:

获取当前线性拟合系数;其中,在所述当前线性拟合系数为初始的线性拟合系数的情况下,所述初始的线性拟合系数为预先设置;

基于所述当前线性拟合系数和所述多张第二人脸图像分别对应的人脸参数值,预测所述第一人脸图像的当前人脸参数值;

基于预测的所述第一人脸图像的当前人脸参数值和提取的所述第一人脸图像的人脸参数值,确定所述提取的所述第一人脸图像的人脸参数值和预测的所述第一人脸图像的人脸参数值之间的当前损失值;

基于所述当前损失值以及预设的所述线性拟合系数对应的约束范围,调整所述当前线性拟合系数,得到调整后的线性拟合系数,将调整后的线性拟合系数作为所述当前线性拟合系数,返回执行预测所述第一人脸图像的当前人脸参数值的步骤,直至对所述当前线性拟合系数的调整操作符合调整截止条件的情况下,得到线性拟合系数。

本公开实施例中,在调整第一人脸图像和多张第二人脸图像之间的线性拟合系数的过程中,通过损失值和/或调整次数对线性拟合系数进行多次调整,可以提高线性拟合系数的准确度;另一方面在调整过程中通过预设的线性拟合系数的约束范围进行调整约束,这样得到线性拟合系数,能够更加合理的确定第一人脸图像对应的稠密点数据。

在一种可能的实施方式中,所述稠密点数据包括稠密点的坐标值;所述根据所述多张第二人脸图像分别对应的稠密点数据和所述线性拟合系数,确定所述第一人脸图像在所述预设风格下的稠密点数据,包括:

基于所述多张第二人脸图像分别对应的所述稠密点的坐标值,确定所述稠密点的坐标均值;

基于所述多张第二人脸图像分别对应的所述稠密点的坐标值、和所述稠密点的坐标均值,确定所述多张第二人脸图像分别对应的所述稠密点的坐标值相对于所述稠密点的坐标均值的坐标差异值;

基于所述多张第二人脸图像分别对应的所述坐标差异值和所述线性拟合系数,确定所述第一人脸图像对应的稠密点的坐标值相对于所述稠密点的坐标均值的坐标差异值;

基于所述第一人脸图像对应的坐标差异值和所述稠密点的坐标均值,确定所述第一人脸图像对应的稠密点数据。

本公开实施例中,在第二人脸图像较少的情况下,可以通过多样性的第二人脸图像的稠密点数据准确的表示出不同的第一人脸图像在预设风格下的稠密点数据。

在一种可能的实施方式中,所述处理方法还包括:

响应于更新风格触发操作,获取所述多张第二人脸图像在更换后的风格下的稠密点数据;

基于所述第一人脸图像和所述多张第二人脸图像分别在更换后的风格下的稠密点数据,确定所述第一人脸图像在所述更换后的风格下的稠密点数据;

基于所述第一人脸图像在所述更换后的风格下的稠密点数据,生成所述第一人脸图像在所述更换后的风格下的虚拟人脸模型。

本公开实施例中,在检测到更新风格触发操作后,可以直接基于预先存储多张第二人脸图像在更换后的风格下的稠密点数据,快速得到第一人脸图像在更换后的风格下的虚拟人脸模型,从而提高确定第一人脸图像在不同风格下对应的虚拟人脸模型的效率。

在一种可能的实施方式中,所述处理方法还包括:

获取与所述第一人脸图像对应的装饰信息和肤色信息;

基于所述装饰信息、所述肤色信息和生成的所述第一人脸图像的虚拟人脸模型,生成所述第一人脸图像对应的虚拟人脸图像。

本公开实施例中,可以根据用户选定的装饰信息和肤色信息,来生成第一人脸图像对应的虚拟人脸图像,提高与用户的交互性,增加用户体验度。

在一种可能的实施方式中,所述人脸参数值由预先训练的神经网络提取,所述神经网络基于预先标注人脸参数值的样本图像训练得到。

本公开实施例中,提出通过预先训练的神经网络来提取人脸图像的人脸参数值,可以提高人脸参数值的提取效率和准确度。

在一种可能的实施方式中,按照以下方式预先训练所述神经网络:

获取样本图像集,所述样本图像集包含多张样本图像以及每张样本图像对应的标注人脸参数值;

将所述多张样本图像输入待训练的神经网络,得到每张样本图像对应的预测人脸参数值;

基于每张样本图像对应的预测人脸参数值和标注人脸参数值,对所述待训练的神经网络的网络参数值进行调整,得到训练完成的神经网络。

本公开实施例中,在对用于提取人脸参数值的神经网络进行训练过程中,提出通过每张样本图像的标注人脸参数值,对神经网络的网络参数值进行不断调整,从而可以得到准确度较高的神经网络。

第二方面,本公开实施例中提供了一种面部信息的处理装置,包括:

获取模块,用于获取第一人脸图像,以及多张第二人脸图像在预设风格下分别对应的稠密点数据;

确定模块,用于基于所述第一人脸图像和所述第二人脸图像在预设风格下分别对应的稠密点数据,确定所述第一人脸图像在所述预设风格下的稠密点数据;

生成模块,用于基于所述第一人脸图像对应的稠密点数据,生成所述第一人脸图像在所述预设风格下的虚拟人脸模型。

第三方面,本公开实施例提供了一种电子设备,包括:处理器、存储器和总线,所述存储器存储有所述处理器可执行的机器可读指令,当电子设备运行时,所述处理器与所述存储器之间通过总线通信,所述机器可读指令被所述处理器执行时执行如第一方面所述的处理方法的步骤。

第四方面,本公开实施例提供了一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行如第一方面所述的处理方法的步骤。

为使本公开的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。

附图说明

为了更清楚地说明本公开实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,此处的附图被并入说明书中并构成本说明书中的一部分,这些附图示出了符合本公开的实施例,并与说明书一起用于说明本公开的技术方案。应当理解,以下附图仅示出了本公开的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。

图1示出了本公开实施例所提供的一种面部信息的处理方法的流程图;

图2示出了本公开实施例所提供的一种通过稠密点数据表示人脸的三维模型的示意图

图3示出了本公开实施例所提供的一种确定第一人脸图像在预设风格下的稠密点数据的方法流程图;

图4示出了本公开实施例所提供的一种训练神经网络的方法流程图;

图5示出了本公开实施例所提供的一种确定第一人脸图像在预设风格下的稠密点数据的具体方法流程图;

图6示出了本公开实施例所提供的一种确定第一人脸图像在更换后的风格下的虚拟人脸模型的方法流程图;

图7示出了本公开实施例所提供的一种生成第一人脸图像对应的虚拟人脸图像的方法流程图;

图8示出了本公开实施例所提供的一种确定第一人脸图像对应的虚拟人脸模型的示意图;

图9示出了本公开实施例所提供的一种面部信息的处理装置的结构示意图;

图10示出了本公开实施例所提供的一种电子设备的示意图。

具体实施方式

为使本公开实施例的目的、技术方案和优点更加清楚,下面将结合本公开实施例中附图,对本公开实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本公开一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本公开实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本公开的实施例的详细描述并非旨在限制要求保护的本公开的范围,而是仅仅表示本公开的选定实施例。基于本公开的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本公开保护的范围。

应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。

本文中术语“和/或”,仅仅是描述一种关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中术语“至少一种”表示多种中的任意一种或多种中的至少两种的任意组合,例如,包括A、B、C中的至少一种,可以表示包括从A、B和C构成的集合中选择的任意一个或多个元素。

在游戏和虚拟社交中,经常会使用到人脸建模技术,因为在不同的场景下通常需要不同的人脸风格,比如古典风格、现代风格、西式风格、中式风格等,针对不同的人脸风格,需要构建不同风格对应的人脸建模方式,比如针对古典风格的人脸建模方式,需要采集大量人脸图像以及各自对应的古典风格的人脸模型,然后基于此训练用于构建古典风格的虚拟人脸模型,当需要更换其它风格时,再重新训练其它风格的虚拟人脸模型,该过程灵活性较差效率较低。

基于上述研究,本公开提供了一种面部信息的处理方法,针对不同的第一人脸图像,可以根据多张第二人脸图像在不同风格下分别对应的稠密点数据,快速确定出第一人脸图像在对应风格下的虚拟人脸模型,从而使得虚拟人脸模型的生成过程更加灵活,以提高人脸图像在预设风格下的虚拟人脸模型的生成效率。

为便于对本实施例进行理解,首先对本公开实施例所公开的一种面部信息的处理方法进行详细介绍,本公开实施例所提供的处理方法的执行主体一般为具有一定计算能力的计算机设备,该计算机设备例如包括:终端设备或服务器或其它处理设备,终端设备可以为用户设备(User Equipment,UE)、移动设备、用户终端、终端、手持设备、计算设备、可穿戴设备等。在一些可能的实现方式中,该面部信息的处理方法可以通过处理器调用存储器中存储的计算机可读指令的方式来实现。

参见图1所示,为本公开实施例提供的面部信息的处理方法的流程图,该处理方法包括以下S11~S13:

S11,获取第一人脸图像,以及多张第二人脸图像在预设风格下分别对应的稠密点数据。

示例性地,第一人脸图像可以为通过图像采集设备采集的彩色人脸图像,或者灰度人脸图像,在此不做具体限定。

示例性地,多张第二人脸图像为预先选择具有一些特征的图像,通过这些第二人脸图像能够表征出不同的第一人脸图像,比如选择n张第二人脸图像,针对每张第一人脸图像,则可以通过这n张第二人脸图像和线性拟合系数来表征该第一人脸图像。示例性的,为了使得多张第二人脸图像能够拟合表示大部分的第一人脸图像,可以选择相比平均人脸具有一些突出特征的人脸的图像作为第二人脸图像,例如,选择相比平均人脸的脸部尺寸较小的人脸的人脸图像作为第二人脸图像,或者,选择相比平均人脸的嘴巴尺寸较大的人脸的人脸图像作为第二人脸图像,选择相比平均人脸的眼睛尺寸较大的人脸的人脸图像作为第二人脸图像。

示例性地,可以预先获取并保存具有不同风格的多张第二人脸图像分别对应的稠密点数据,比如具有卡通风格的第二人脸图像对应的稠密点数据,具有科幻风格的第二人脸图像对应的稠密点数据等,便于后续确定出第一人脸图像在不同风格下的虚拟人脸模型,示例性地,虚拟人脸模型可以包括虚拟的三维人脸模型或虚拟的二维人脸模型。

示例性地,可以针对每张第二人脸图像,可以提取该张第二人脸图像对应的稠密点数据、以及该张第二人脸图像的人脸参数值,人脸参数值包括单不限于三维可变形模型(3D Morphable Face Model,3DMM)参数值,然后根据人脸参数值对稠密点的坐标值进行调整,得到每张第二人脸图像在多种风格下分别对应的稠密点数据,比如可以得到每张第二人脸图像在古典风格下对应的稠密点数据、在卡通风格下对应的稠密点云数据,然后对每张第二人脸图像在不同风格下的稠密点数据进行保存。

示例性地,稠密点数据可以表示人脸的三维模型,具体地,稠密点数据可以包含人脸表面的多个顶点在预先构建的三维坐标系下的坐标值,多个顶点连接后形成的三维网络(3Dmesh)和多个顶点的坐标值可以用来表示人脸的三维模型,如图2所示,表示通过不同稠密点数据表示的人脸的三维模型的示意图,稠密点的个数越多,稠密点数据在表示人脸的三维模型时也越精细。

示例性地,人脸参数值包括表示脸部形状的参数值,以及,表示面部表情的参数值,比如人脸参数值中可以包含K维度的用于表示面部形状的参数值,包含M维度的用于表示面部表情的参数值,其中,K维度的用于表示面部形状的参数值共同体现出该第二人脸图像的面部形状,M维度的用于表示面部表情的参数值共同体现出该第二人脸图像的面部表情。

示例性地,K的维度取值范围一般在150至400之间,K的维度越小,能够表征面部形状越简单,K的维度越大,能够表征面部形状越复杂;M的取值范围一般在10至40之间,M的维度越少,能够表征的面部表情越简单,M的维度越多,能够表征的面部表情越复杂,可见,本公开实施例提出可以通过数量范围较少的人脸参数值来表示一张人脸,从而为后续确定第一人脸图像对应的虚拟人脸模型提供便利。

示例性地,结合人脸参数值的含义,上述提到的根据人脸参数值对稠密点的坐标值进行调整,得到每张第二人脸图像在多种风格下分别对应的稠密点数据,可以理解为是根据人脸参数值以及多种风格分别对应的特征属性(比如卡通风格的特征属性、古典风格的特征属性等),对顶点在预先建立的三维坐标系下的坐标值进行调整,从而得到第二人脸图像在多种风格下分别对应的稠密点数据。

S12,基于第一人脸图像和多张第二人脸图像在预设风格下分别对应的稠密点数据,确定第一人脸图像在预设风格下的稠密点数据。

示例性地,可以通过找到第一人脸图像与多张第二人脸图像之间的关联关系,比如可以通过线性拟合的方式,确定出多张第二人脸图像与第一人脸图像之间的线性拟合系数,然后进一步可以根据该线性拟合系数以及多张第二人脸图像在预设风格下分别对应的稠密点数据,确定出第一人脸图像在预设风格下的稠密点数据。

S13,基于第一人脸图像对应的稠密点数据,生成第一人脸图像在预设风格下的虚拟人脸模型。

在确定出第一人脸图像对应的稠密点数据后,可以得到该输入人脸包含的多个顶点在预先建立的三维坐标系下的三维坐标值,这样可以根据多个顶点在三维坐标系下的三维坐标值,得到第一人脸图像在预设风格下的虚拟人脸模型。

本公开实施例中,针对不同的第一人脸图像,可以根据多张第二人脸图像在不同风格下分别对应的稠密点数据,快速确定出第一人脸图像在对应风格下的虚拟人脸模型,从而使得虚拟人脸模型的生成过程更加灵活,以提高人脸图像在预设风格下的虚拟人脸模型的生成效率。

下面将结合具体实施例对上述S11~S13进行阐述。

针对上述S12,在基于第一人脸图像和多张第二人脸图像在预设风格下分别对应的稠密点数据,确定第一人脸图像在预设风格下的稠密点数据时,如图3所示,可以包括以下S121~S122:

S121,提取第一人脸图像的人脸参数值,以及多张第二人脸图像分别对应的人脸参数值;其中,人脸参数值包含表征人脸形状的参数值和表征人脸表情的参数值。

示例性地,这里可以通过预先训练的神经网络来分别提取第一人脸图像的人脸参数值,以及多张第二人脸图像分别对应的人脸参数值,比如可以将第一人脸图像和每张第二人脸图像分别输入预先训练的神经网络,得到各自对应的人脸参数值。

S122,基于第一人脸图像的人脸参数值、以及多张第二人脸图像分别对应的人脸参数值和稠密点数据,确定第一人脸图像在预设风格下的稠密点数据。

考虑到人脸参数值和稠密点数据在表征同一张人脸时具有对应关系,因此可以通过第一人脸图像和多张第二人脸图像各自对应的人脸参数值,确定出第一人脸图像和多张第二人脸图像之间的关联关系,然后根据该关联关系,以及多张第二人脸图像分别对应的稠密点数据,确定第一人脸图像在预设风格下的稠密点数据。

本公开实施例中,提出在确定第一人脸图像在预设风格下的稠密点数据的过程中,可以结合第一人脸图像和多张第二人脸图像的人脸参数值来确定,因为在通过人脸参数值表示人脸时使用的参数值数量较少,因此能够更加快速的确定出第一人脸图像在预设风格下的稠密点数据。

示例性地,针对上述提到的人脸参数值可以由预先训练的神经网络提取,神经网络基于预先标注人脸参数值的样本图像训练得到。

本公开实施例中,提出通过预先训练的神经网络来提取人脸图像的人脸参数值,可以提高人脸参数值的提取效率和准确度。

具体地,可以按照以下方式预先训练神经网络,如图4所示,包括S201~S203:

S201,获取样本图像集,样本图像集包含多张样本图像以及每张样本图像对应的标注人脸参数值;

S202,将多张样本图像输入待训练的神经网络,得到每张样本图像对应的预测人脸参数值;

S203,基于每张样本图像对应的预测人脸参数值和标注人脸参数值,对待训练的神经网络的网络参数值进行调整,得到训练完成的神经网络。

示例性地,可以采集大量的人脸图像以及每张人脸图像对应的标注人脸参数值作为这里的样本图像集,将每张样本图像输入待训练的神经网络,可以得到待训练神经网络输出的该张样本图像对应的预测人脸参数值,进一步可以基于样本图像对应的标注人脸参数值和预测人脸参数值确定待训练神经网络对应的损失值,然后根据该损失值对待训练的神经网络的网络参数值进行调整,直至调整次数达到预设次数和/或第三损失值小于第三预设阈值后,得到训练完成的神经网络。

本公开实施例中,在对用于提取人脸参数值的神经网络进行训练过程中,提出通过每张样本图像的标注人脸参数值,对神经网络的网络参数值进行不断调整,从而可以得到准确度较高的神经网络。

具体地,针对上述S122,在基于第一人脸图像的人脸参数值、以及多张第二人脸图像分别对应的人脸参数值和稠密点数据,确定第一人脸图像在预设风格下的稠密点数据时,如图5所示,可以包括以下S1231~S1232:

S1231,基于第一人脸图像的人脸参数值,以及多张第二人脸图像分别对应的人脸参数值,确定第一人脸图像和多张第二人脸图像之间的线性拟合系数;

S1232,根据多张第二人脸图像分别对应的稠密点数据和线性拟合系数,确定第一人脸图像在预设风格下的稠密点数据。

示例性地,以人脸参数值为3DMM参数值为例,考虑到第一人脸图像的3DMM参数值可以表征该第一人脸图像对应的人脸形状和表情,同样每张第二人脸图像对应的3DMM参数值可以表征该第二人脸图像对应的人脸形状和表情,第一人脸图像和多张第二人脸图像之间的关联关系可以通过3DMM参数值来进行确定,具体地,假设多张第二人脸图像包含n张第二人脸图像,这样第一人脸图像和多张第二人脸图像之间的线性拟合系数也包含n个线性拟合系数值,可以按照以下公式(1)来表示第一人脸图像的人脸参数值和多张第二人脸图像分别对应的人脸参数值之间的关联关系:

其中,IN

本公开实施例中,可以提出通过数量较少的人脸参数值快速得到表示第一人脸图像和多张第二人脸图像之间的关联关系的线性拟合系数,进一步可以根据该线性拟合系数对多张第二人脸图像在预设风格下的稠密点数据进行调整,可以快速得到第一人脸图像在预设风格下的稠密点数据。

具体地,在基于第一人脸图像的人脸参数值,以及多张第二人脸图像分别对应的人脸参数值,确定第一人脸图像和多张第二人脸图像之间的线性拟合系数时,可以包括以下S12311~S12314:

S12311,获取当前线性拟合系数;其中,在当前线性拟合系数为初始的线性拟合系数的情况下,初始的线性拟合系数为预先设置。

当前线性拟合系数可以为按照以下S12312~S12314调整过至少一次的线性拟合系数,也可以为初始的线性拟合系数,在该当前线性拟合系数为初始的线性拟合系数的情况下,该初始的线性拟合系数可以为预先根据经验设置的。

S12312,基于当前线性拟合系数和多张第二人脸图像分别对应的人脸参数值,预测第一人脸图像的当前人脸参数值。

示例性地,多张第二人脸图像分别对应的人脸参数值可以由上述提到的预先训练的神经网络提取得到,然后可以将当前线性拟合系数和多张第二人脸图像分别对应的人脸参数值输入上述公式(1)中,预测得到第一人脸图像的当前人脸参数值。

S12313,基于预测的第一人脸图像的当前人脸参数值和提取的第一人脸图像的人脸参数值,确定提取的第一人脸图像的人脸参数值和预测的第一人脸图像的人脸参数值之间的当前损失值。

在调整线性拟合系数的过程中,预测得到的第一人脸图像的当前人脸参数值和通过上述提到的预先训练的神经网络提取的第一人脸图像的人脸参数值之间具有一定的差距,可以基于该差距,确定提取的第一人脸图像的人脸参数值和预测的第一人脸图像的人脸参数值之间的当前损失值。

S12314,基于当前损失值以及预设的线性拟合系数对应的约束范围,调整当前线性拟合系数,得到调整后的线性拟合系数,将调整后的线性拟合系数作为当前线性拟合系数,返回执行预测第一人脸图像的当前人脸参数值的步骤,直至对当前线性拟合系数的调整操作符合调整截止条件的情况下,得到线性拟合系数。

示例性地,考虑到人脸参数值是用来表示脸部形状和尺寸的,为了避免后期通过线性拟合系数确定出的第一人脸图像的稠密点数据在表征虚拟人脸模型时发生失真,这里提出在基于当前损失值调整当前线性拟合系数的过程中,需要结合预设的线性拟合系数的约束范围,一同对当前线性拟合系数进行调整,比如,这里可以通过大量数据统计,确定预设的线性拟合系数对应的约束范围设置为-0.5到0.5之间,这样在基于当前损失值调整当前线性拟合系数的过程中,可以使得每个调整后的线性拟合系数在-0.5到0.5之间。

示例性地,在基于当前损失值以及预设的线性拟合系数对应的约束范围,对当前线性拟合系数进行调整,以使得预测的第一人脸图像的当前人脸参数值和基于神经网络提取的第一人脸图像的人脸参数值之间更加接近,然后将调整后的线性拟合系数作为当前线性拟合系数,返回S12312,直至在当前损失值小于预设阈值和/或重复调整次数达到预设次数后,得到线性拟合系数。

本公开实施例中,在调整第一人脸图像和多张第二人脸图像之间的线性拟合系数的过程中,通过损失值和/或调整次数对线性拟合系数进行多次调整,可以提高线性拟合系数的准确度;另一方面在调整过程中通过预设的线性拟合系数的约束范围进行调整约束,这样得到线性拟合系数,能够更加合理的确定第一人脸图像对应的稠密点数据。

具体地,稠密点数据包括稠密点的坐标值;针对上述S1232,在根据多张第二人脸图像分别对应的稠密点数据和线性拟合系数,确定第一人脸图像在预设风格下的稠密点数据时,可以包括以下S12321~S12324:

S12321,基于多张第二人脸图像分别对应的所述稠密点的坐标值,确定稠密点的坐标均值。

示例性地,在确定多张第二人脸图像的稠密点的坐标均值时,可以基于多张第二人脸图像分别对应的稠密点的坐标值,以及多张第二人脸图像的张数进行确定,比如多张第二人脸图像包含10张,每张第二人脸图像对应的稠密点的坐标值包含100个顶点的三维坐标值,针对第一个顶点,可以将第一个顶点在10张第二人脸图像中对应的三维坐标值进行求和,然后将求和结果和多张第二人脸图像的张数的比值作为该第一个顶点的坐标均值,按照同样的方式,可以得到每个顶点在三维坐标系下的坐标均值,多个顶点对应的坐标均值构成这里的稠密点的坐标均值。

S12322,基于多张第二人脸图像分别对应的稠密点的坐标值、和稠密点的坐标均值,确定多张第二人脸图像分别对应的稠密点的坐标值相对于稠密点的坐标均值的坐标差异值。

示例性地,稠密点的坐标均值可以表示多张第二人脸图像对应的平均虚拟人脸模型,比如稠密点的坐标均值表示的五官尺寸可以为多张第二人脸图像对应的平均五官尺寸,稠密点的坐标均值表示的脸部尺寸可以为多张第二人脸图像对应的平均脸部尺寸等。

示例性地,通过多张第二人脸图像分别对应的稠密点的坐标值和稠密点的坐标均值进行作差,可以得到多张第二人脸图像分别对应的稠密点的坐标值相对于稠密点的坐标均值的坐标差异值,每张第二人脸图像对应的坐标差异值可以表征该第二人脸图像相比上述提到的平均人脸图像的差异性。

S12323,基于多张第二人脸图像分别对应的坐标差异值和线性拟合系数,确定第一人脸图像对应的稠密点的坐标值相对于稠密点的坐标均值的坐标差异值。

示例性地,线性拟合系数可以表示第一人脸图像对应的人脸参数值与多张第二人脸图像分别对应的人脸参数值之间的关联关系,而人脸图像对应的人脸参数值和该人脸图像对应的稠密点数据之间具有对应关系,因此线性拟合系数也可以表示第一人脸图像对应的稠密点数据与多张第二人脸图像分别对应的稠密点数据之间的关联关系。

在对应相同的稠密点的坐标均值的情况下,该线性拟合系数还可以表示第一人脸图像对应的坐标差异值与多张第二人脸图像分别对应的坐标差异值之间的关联关系,因此,这里可以基于多张第二人脸图像分别对应的坐标差异值和线性拟合系数,确定第一人脸图像对应的稠密点数据相对于稠密点的坐标均值的坐标差异值。

S12324,基于第一人脸图像对应的坐标差异值和稠密点的坐标均值,确定第一人脸图像对应的稠密点数据。

具体地,将第一人脸图像对应的坐标差异值和稠密点的坐标均值进行求和,可以得到第一人脸图像对应的稠密点数据,具体为第一人脸图像对应的稠密点的坐标值,基于该稠密点数据可以表示该第一人脸图像对应的虚拟人脸模型。

具体地,这里确定第一人脸图像对应的稠密点数据,考虑到稠密点数据和3DMM之间的关系,第一人脸图像对应的稠密点数据可以通过OUT

其中,BASE

这里在确定第一人脸图像的稠密点数据时,采用S12321~S12324的方式进行确定,即通过上述公式(2)的方式进行确定,相比通过多张第二人脸图像分别对应的稠密点数据和线性拟合系数来确定第一人脸图像对应的稠密点数据的方式,可以包含以下好处:

本公开实施例中,考虑到线性拟合系数是用于对多张第二人脸图像分别对应的坐标差异值进行线性拟合,这样得到的是第一人脸图像对应的稠密点的坐标值相对于稠密点的坐标均值的坐标差异值,因此无需对线性拟合系数之和等于1进行限定,第一人脸图像对应的坐标差异值和稠密点的坐标均值相加后,即可以得到的表征正常人脸的稠密点数据。

另外,在第二人脸图像较少的情况下,按照本公开实施例提供的方式可以通过对线性拟合系数进行合理的调整,达到使用较少的第二人脸图像确定出第一人脸图像对应的稠密点数据的目的,比如,第一人脸图像的眼睛尺寸为小眼睛,通过上述方式无需对多张第二人脸图像的眼睛尺寸进行限定,可以通过线性拟合系数对坐标差异值进行调整,从而调整后的坐标差异值和稠密点的坐标均值叠加后,可以得到表示小眼睛的稠密点数据,比如多张第二人脸图像均为大眼睛时,这样稠密点的坐标均值表示的眼睛也为大眼睛,此时仍然可以调整线性拟合系数,使得调整后的坐标差异值在与稠密点的坐标均值求和后,得到表示小眼睛的稠密点数据。

可见,本公开实施例针对不同的第一人脸图像,无需挑选与该第一人脸图像的五官特征相似的的第二人脸图像来确定该第一人脸图像对应的稠密点数据,该方式在第二人脸图像较少的情况下,可以通过多样性的第二人脸图像的稠密点数据准确的表示出不同的第一人脸图像在预设风格下的稠密点数据。

按照上述方式,可以得到第一人脸图像在预设风格下的虚拟人脸模型,比如得到第一人脸图像在古典风格下的虚拟人脸模型,在需要对第一人脸图像对应的虚拟人脸模型的风格进行调整,比如需要生成该第一人脸图像在现代风格下的虚拟人脸模型的情况下,在一种实施方式中,如图6所示,本公开实施例提供的处理方法还包括以下S301~S303:

S301,响应于更新风格触发操作,获取多张第二人脸图像在更换后的风格下的稠密点数据。

示例性地,因为可以预先保存多张第二人脸图像在多种风格下分别对应的稠密点数据,这里在接收到更新风格触发操作后,可以直接获取每张第二人脸图像在更换后风格下的稠密点数据。

S302,基于第一人脸图像和多张第二人脸图像分别在更换后的风格下的稠密点数据,确定第一人脸图像在更换后的风格下的稠密点数据。

这里确定第一人脸图像在更换后风格下的稠密点数据的方式,与上文确定第一人脸图像在预设风格下的稠密点数据的方式相似,在此不再赘述。

S303,基于第一人脸图像在更换后的风格下的稠密点数据,生成第一人脸图像在更换后的风格下的虚拟人脸模型。

同样,这里生成第一人脸图像在更换后的风格下的虚拟人脸模型的方式与上文提到的基于第一人脸图像对应的稠密点数据,生成第一人脸图像在预设风格下的虚拟人脸模型的过程相似,在此不再赘述。

本公开实施例中,在检测到更新风格触发操作后,可以直接基于预先存储的多张第二人脸图像在更换后的风格下的稠密点数据,快速得到第一人脸图像在更换后的风格下的虚拟人脸模型,从而提高确定第一人脸图像在不同风格下对应的虚拟人脸模型的效率。

在一些场景中,在得到虚拟人脸模型后,还需要生成第一人脸图像对应的虚拟人脸图像,该虚拟人脸图像可以是三维人脸图像,也可以是二维人脸图像,在一种实施方式中,如图7所示,本公开实施例提供的处理方法还包括:

S401,获取与第一人脸图像对应的装饰信息和肤色信息;

S402,基于装饰信息、肤色信息和生成的第一人脸图像的虚拟人脸模型,生成第一人脸图像对应的虚拟人脸图像。

示例性地,装饰信息可以包括发型、发饰等,该装饰信息和肤色信息可以通过对第一人脸图像进行图像识别后获取,也可以根据用户的选择进行获取,比如虚拟人脸图像生成界面提供有装饰信息和肤色信息的选项栏,可以根据用户可以在该选项栏中的选择结果确定第一人脸图像对应的装饰信息和肤色信息。

进一步地,在确定第一人脸图像包含的装饰信息和肤色信息后,可以结合该第一人脸图像的虚拟人脸模型,生成第一人脸图像对应的虚拟人脸图像,这里第一人脸图像的虚拟人脸模型,可以为第一人脸图像在预设风格下的虚拟人脸模型,也可以是第一人脸图像在更换后的风格下的虚拟人脸模型,这样生成的虚拟人脸图像可以为具有特定风格的虚拟人脸图像。

本公开实施例中,可以根据用户选定的装饰信息和肤色信息,来生成第一人脸图像对应的虚拟人脸图像,提高与用户的交互性,增加用户体验度。

下面将以一具体实施例对面部信息的处理过程进行阐述,包括以下S501~S507:

S501,准备样本图像集,样本图像集中包含多张样本图像以及每张样本图像对应的3DMM参数值;

S502,基于样本图像集训练神经网络,得到能够预测人脸图像对应的3DMM参数值的神经网络;

S503,使用训练完成的神经网络确定第一人脸图像对应的3DMM参数值IN

S504,根据IN

S505,使用机器学习算法不断对S504中的α进行优化,使得IN3dmm和alpha*BASE3dmm尽可能接近,且在优化过程中,对α的值进行约束,使得α的范围在-0.5到0.5之间;

S506,根据多张第二人脸图像分别对应的3Dmesh,可以通过BASE

S507,通过多张第二人脸图像对应的BASE

其中,上述S501~S502可以在对第一人脸图像进行面部处理之前完成,针对每次接收到的新的第一人脸图像进行面部处理时,可以从S503开始执行,当然,若只是确定第一人脸图像在更换风格下的虚拟人脸模型,则可以从S506开始执行,由此可见,在得到预测人脸图像对应的3DMM参数值的神经网络后,可以快速确定每次获取的第一人脸图像在预设风格下的虚拟人脸模型,在得到获取到的第一人脸图像和多张第二人脸图像之间的线性拟合系数后,在需要对指定的第一人脸图像进行更换风格时,可以快速得到第一人脸图像在不同风格下对应的虚拟人脸模型。

如图8所示,为确定第一人脸图像81对应的虚拟人脸模型的过程示意图,可以根据多张第二人脸图像82确定出平均人脸图像83,然后根据第一人脸图像81、多张第二人脸图像82和平均人脸图像83,确定出第一人脸图像的虚拟人脸模型84。

本领域技术人员可以理解,在具体实施方式的上述方法中,各步骤的撰写顺序并不意味着严格的执行顺序而对实施过程构成任何限定,各步骤的具体执行顺序应当以其功能和可能的内在逻辑确定。

基于同一技术构思,本公开实施例中还提供了与面部信息的处理方法对应的面部信息的处理装置,由于本公开实施例中的装置解决问题的原理与本公开实施例上述处理方法相似,因此装置的实施可以参见方法的实施,重复之处不再赘述。

参照图9所示,为本公开实施例提供的一种面部信息的处理装置600的示意图,该面部信息的处理装置600包括:

获取模块601,用于获取第一人脸图像,以及多张第二人脸图像在预设风格下分别对应的稠密点数据;

确定模块602,用于基于第一人脸图像和多张第二人脸图像在预设风格下分别对应的稠密点数据,确定第一人脸图像在预设风格下的稠密点数据;

生成模块603,用于基于第一人脸图像对应的稠密点数据,生成第一人脸图像在预设风格下的虚拟人脸模型。

在一种可能的实施方式中,确定模块602在用于基于第一人脸图像和多张第二人脸图像在预设风格下分别对应的稠密点数据,确定第一人脸图像在预设风格下的稠密点数据时,包括:

提取第一人脸图像的人脸参数值,以及多张第二人脸图像分别对应的人脸参数值;其中,人脸参数值包含表征人脸形状的参数值和表征人脸表情的参数值;

基于第一人脸图像的人脸参数值、以及多张第二人脸图像分别对应的人脸参数值和稠密点数据,确定第一人脸图像在预设风格下的稠密点数据。

在一种可能的实施方式中,确定模块602在用于基于第一人脸图像的人脸参数值、以及多张第二人脸图像分别对应的人脸参数值和稠密点数据,确定第一人脸图像在预设风格下的稠密点数据时,包括:

基于第一人脸图像的人脸参数值,以及多张第二人脸图像分别对应的人脸参数值,确定第一人脸图像和多张第二人脸图像之间的线性拟合系数;

根据多张第二人脸图像分别对应的稠密点的坐标值、稠密点的坐标均值、和线性拟合系数,确定第一人脸图像在预设风格下的稠密点数据。

在一种可能的实施方式中,确定模块602在用于基于第一人脸图像的人脸参数值,以及多张第二人脸图像分别对应的人脸参数值,确定第一人脸图像和多张第二人脸图像之间的线性拟合系数时,包括:

获取当前线性拟合系数;其中,在当前线性拟合系数为初始的线性拟合系数的情况下,初始的线性拟合系数为预先设置;

基于当前线性拟合系数和多张第二人脸图像分别对应的人脸参数值,预测第一人脸图像的当前人脸参数值;

基于预测的第一人脸图像的当前人脸参数值、提取的第一人脸图像的人脸参数值、以及预设的线性拟合系数对应的约束范围,确定提取的第一人脸图像的人脸参数值和预测的第一人脸图像的人脸参数值之间的当前损失值;

基于当前损失值,调整当前线性拟合系数,得到调整后的线性拟合系数,将调整后的线性拟合系数作为当前线性拟合系数,返回执行预测第一人脸图像的当前人脸参数值的步骤,直至对当前线性拟合系数的调整操作符合调整截止条件的情况下,得到线性拟合系数。

在一种可能的实施方式中,稠密点数据包括稠密点的坐标值;确定模块602在用于根据多张第二人脸图像分别对应的稠密点数据和线性拟合系数,确定第一人脸图像在预设风格下的稠密点数据时,包括:

基于多张第二人脸图像分别对应的稠密点的坐标值,确定稠密点的坐标均值;

基于多张第二人脸图像分别对应的稠密点的坐标值、和稠密点的坐标均值,确定多张第二人脸图像分别对应的稠密点的坐标值相对于稠密点的坐标均值的坐标差异值;

基于多张第二人脸图像分别对应的坐标差异值和线性拟合系数,确定第一人脸图像对应的稠密点的坐标值相对于稠密点的坐标均值的坐标差异值;

基于第一人脸图像对应的坐标差异值和稠密点的坐标均值,确定第一人脸图像对应的稠密点数据。

在一种可能的实施方式中,处理装置还包括更新模块604,更新模块604用于:

响应于更新风格触发操作,获取多张第二人脸图像分别在更换后的风格下的稠密点数据;

基于第一人脸图像和多张第二人脸图像在更换后的风格下的稠密点数据,确定第一人脸图像在更换后的风格下的稠密点数据;

基于第一人脸图像在更换后的风格下的稠密点数据,生成第一人脸图像在更换后的风格下的虚拟人脸模型。

在一种可能的实施方式中,生成模块603还用于:

获取与第一人脸图像对应的装饰信息和肤色信息;

基于装饰信息、肤色信息和生成的第一人脸图像的虚拟人脸模型,生成第一人脸图像对应的虚拟人脸图像。

在一种可能的实施方式中,人脸参数值由预先训练的神经网络提取,神经网络基于预先标注人脸参数值的样本图像训练得到。

在一种可能的实施方式中,处理装置还包括训练模块606,训练模块606用于按照以下方式预先训练神经网络:

获取样本图像集,样本图像集包含多张样本图像以及每张样本图像对应的标注人脸参数值;

将多张样本图像输入待训练的神经网络,得到每张样本图像对应的预测人脸参数值;

基于每张样本图像对应的预测人脸参数值和标注人脸参数值,对待训练的神经网络的网络参数值进行调整,得到训练完成的神经网络。

关于装置中的各模块的处理流程、以及各模块之间的交互流程的描述可以参照上述方法实施例中的相关说明,这里不再详述。

对应于图1中的面部信息的处理方法,本公开实施例还提供了一种电子设备700,如图10所示,为本公开实施例提供的电子设备700结构示意图,包括:

处理器71、存储器72、和总线73;存储器72用于存储执行指令,包括内存721和外部存储器722;这里的内存721也称内存储器,用于暂时存放处理器71中的运算数据,以及与硬盘等外部存储器722交换的数据,处理器71通过内存721与外部存储器722进行数据交换,当电子设备700运行时,处理器71与存储器72之间通过总线73通信,使得处理器71执行以下指令:获取第一人脸图像,以及多张第二人脸图像在预设风格下分别对应的稠密点数据;基于第一人脸图像和多张第二人脸图像在预设风格下分别对应的稠密点数据,确定第一人脸图像在预设风格下的稠密点数据;基于第一人脸图像对应的稠密点数据,生成第一人脸图像在预设风格下的虚拟人脸模型。

本公开实施例还提供一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行上述方法实施例中所述的面部信息的处理方法的步骤。其中,该存储介质可以是易失性或非易失的计算机可读取存储介质。

本公开实施例还提供一种计算机程序产品,该计算机程序产品承载有程序代码,所述程序代码包括的指令可用于执行上述方法实施例中所述的面部信息的处理方法的步骤,具体可参见上述方法实施例,在此不再赘述。

其中,上述计算机程序产品可以具体通过硬件、软件或其结合的方式实现。在一个可选实施例中,所述计算机程序产品具体体现为计算机存储介质,在另一个可选实施例中,计算机程序产品具体体现为软件产品,例如软件开发包(Software Development Kit,SDK)等等。

所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统和装置的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。在本公开所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,又例如,多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些通信接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。

所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。

另外,在本公开各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。

所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个处理器可执行的非易失的计算机可读取存储介质中。基于这样的理解,本公开的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本公开各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-OnlyMemory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。

最后应说明的是:以上所述实施例,仅为本公开的具体实施方式,用以说明本公开的技术方案,而非对其限制,本公开的保护范围并不局限于此,尽管参照前述实施例对本公开进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本公开揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本公开实施例技术方案的精神和范围,都应涵盖在本公开的保护范围之内。因此,本公开的保护范围应所述以权利要求的保护范围为准。

相关技术
  • 一种面部信息的处理方法、装置、电子设备及存储介质
  • 一种面部动画模型处理方法、装置、电子设备及存储介质
技术分类

06120112378085