掌桥专利:专业的专利平台
掌桥专利
首页

虚拟模型及其构建方法、交互方法以及电子设备

文献发布时间:2023-06-19 12:25:57


虚拟模型及其构建方法、交互方法以及电子设备

技术领域

本申请涉及人机交互领域,进一步涉及一种虚拟模型及其构建方法、交互方法以及电子设备。

背景技术

随着人工智能的发展,人机交互逐渐得到越来越广泛的应用。例如,在一些服务行业,采用语音机器人与用户进行人机交互,以节省人工成本,提高服务效率。

然而,语音机器人与用户之间的人机交互一般为语音交互方式,缺乏视觉上的直观性,用户体验感较差。而目前的一些视觉上的交互方式,一般采用视频流中的2D信息(如二维画面等)与用户进行交互,相较于3D信息(如三维数字人模型等)缺乏真实感。

现有技术中的三维数字人模型一般由建模师采用建模软件进行建模得到,不仅建模成本较高,而且模型质量与建模师的经验相关,不同的建模师建模得到的三维数字人模型差别较大,不利于实际应用。

发明内容

本发明的一个优势在于提供一种虚拟模型及其构建方法、交互方法以及电子设备,其中所述方法能够构建得到三维的虚拟模型,以实现人机交互,无需人工建模,成本较低。

第一方面,本发明的一个优势在于提供一种虚拟模型的构建方法,包括:

获取目标人物的三维模型;

利用标准模型对所述三维模型进行参数化处理,以得到所述标准模型中每个点的目标变换矩阵;

基于所述目标变换矩阵对所述标准模型中的每个点进行变换处理,以得到变换后的标准模型;

对所述变换后的标准模型进行编辑,以得到虚拟模型,其中,所述虚拟模型中包含多个表情目标体。

其中一种可能的实现方式中,所述利用标准模型对所述三维模型进行参数化处理,以得到所述标准模型中每个点的目标变换矩阵,包括:

根据所述三维模型中的每个邻接点的约束,获得第一误差项;

根据所述标准模型中每个点的变换矩阵的约束,获得第二误差项;

根据所述标准模型与所述三维模型中对应点的约束,获得第三误差项;

根据所述第一误差项、所述第二误差项以及所述第三误差项的加权和最小值,确定目标变换矩阵。

其中一种可能的实现方式中,所述第一误差项由公式

计算得到,其中,E

所述第二误差项由公式

计算得到,其中,E

所述第三误差项由公式

计算得到,其中,E

所述权重和最小值由公式

计算得到,其中,W

其中一种可能的实现方式中,所述对所述变换后的标准模型进行编辑,以得到虚拟模型,包括:

响应用户编辑表情目标体的操作,在所述变换后的标准模型中构建多个所述表情目标体,以得到虚拟模型。

第二方面,本申请提供一种虚拟模型的交互方法,包括:

获取用户输入的交互信息;

基于所述交互信息,获取视频流,其中,所述视频流中包含多个画面;

从每个所述画面中,提取得到人物面部特征;

基于所述人物面部特征以及虚拟模型,获取所述虚拟模型中多个表情目标体的表情系数,所述虚拟模型由如第一方面所述的方法获得;

基于每个所述表情目标体的表情系数,对所述虚拟模型进行驱动,其中,驱动后的虚拟模型进行动态显示。

其中一种可能的实现方式中,所述从每个所述画面中,提取得到人物面部特征,包括:

从每个所述画面中获取采集到的人物面部图像;

对所述人物面部图像进行特征提取,以获得人物面部特征。

其中一种可能的实现方式中,所述从每个所述画面中,提取得到人物面部特征,包括:

从每个所述画面中获取采集到的语音信号;

对所述语音信号中每个字的口型进行识别,以获得人物面部特征。

其中一种可能的实现方式中,所述人物面部特征中的特征点与所述虚拟模型中的关键点之间存在对应关系,所述基于所述人物面部特征以及虚拟模型,获取所述虚拟模型中多个表情目标体的表情系数,包括:

根据所述特征点与所述关键点的位置关系,确定每个表情目标体的表情系数。

其中一种可能的实现方式中,所述驱动后的虚拟模型由公式

计算得到,其中,Base为虚拟模型,B

第三方面,本申请提供一种虚拟模型的构建装置,包括:

模型获取模块,用于获取目标人物的三维模型;

处理模块,用于利用标准模型对所述三维模型进行参数化处理,以得到所述标准模型中每个点的目标变换矩阵;

变换模块,用于基于所述目标变换矩阵对所述标准模型中的每个点进行变换处理,以得到变换后的标准模型;

编辑模块,用于对所述变换后的标准模型进行编辑,以得到虚拟模型,其中,所述虚拟模型中包含多个表情目标体。

第四方面,本申请提供一种虚拟模型的交互装置,包括:

交互信息获取模块,用于获取用户输入的交互信息;

视频流获取模块,用于基于所述交互信息,获取视频流,其中,所述视频流中包含多个画面;

提取模块,用于从每个所述画面中,提取得到人物面部特征;

表情系数获取模块,用于基于所述人物面部特征以及虚拟模型,获取所述虚拟模型中多个表情目标体的表情系数,所述虚拟模型由如第一方面所述的方法获得;

驱动模块,用于基于每个所述表情目标体的表情系数,对所述虚拟模型进行驱动,其中,驱动后的虚拟模型进行动态显示。

第五方面,本申请提供一种虚拟模型,所述虚拟模型由如第一方面所述的方法构建得到,所述虚拟模型用于在电子设备中进行显示。

第六方面,本发明的另一个优势在于提供一种电子设备,包括:

一个或多个处理器;存储器;以及一个或多个计算机程序,其中所述一个或多个计算机程序被存储在所述存储器中,所述一个或多个计算机程序包括指令,当所述指令被所述设备执行时,使得所述设备执行如第一方面或第二方面所述的方法。

第七方面,本发明的另一个优势在于提供一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机程序,当其在计算机上运行时,使得计算机执行如第一方面或第二方面所述的方法。

第八方面,本申请提供一种计算机程序,当所述计算机程序被计算机执行时,用于执行第一方面或第二方面所述的方法。

在一种可能的设计中,第八方面中的程序可以全部或者部分存储在与处理器封装在一起的存储介质上,也可以部分或者全部存储在不与处理器封装在一起的存储器上。

附图说明

图1示出了本发明虚拟模型的构建方法一个实施例的方法示意图。

图2示出了本发明虚拟模型的交互方法一个实施例的方法示意图。

图3示出了本发明虚拟模型的构建装置一个实施例的结构示意图。

图4示出了本发明虚拟模型的交互装置一个实施例的结构示意图。

图5示出了本发明电子设备一个实施例的结构示意图。

具体实施方式

以下描述用于揭露本发明以使本领域技术人员能够实现本发明。以下描述中的优选实施例只作为举例,本领域技术人员可以想到其他显而易见的变型。在以下描述中界定的本发明的基本原理可以应用于其他实施方案、变形方案、改进方案、等同方案以及没有背离本发明的精神和范围的其他技术方案。

可以理解的是,术语“一”应理解为“至少一”或“一个或多个”,即在一个实施例中,一个元件的数量可以为一个,而在另外的实施例中,该元件的数量可以为多个,术语“一”不能理解为对数量的限制。

现有的人机交互的方法之一是,采用语音机器人与用户之间的人机交互,该方法为语音交互方式,缺乏视觉上的直观性,用户体验感较差。而目前的一些视觉上的交互方式,一般采用视频流中的2D信息(如二维画面等)与用户进行交互,相较于3D信息(如三维数字人模型等)缺乏真实感。

然而,现有技术中的三维数字人模型一般由建模师采用建模软件进行建模得到,不仅建模成本较高,而且模型质量与建模师的经验相关,不同的建模师建模得到的三维数字人模型差别较大,不利于实际应用。

本申请人发现,由于采用3D扫描得到的三维模型具有庞大的点云、网格数量以及贴图数量等,数量不固定且分布不均匀,导致3D扫描得到的三维模型难以被编辑,从而难以改变该三维模型的形状,不利于在该三维模型中构建不同的表情目标体等,如微笑、张嘴、眨眼等表情,从而难以实现对该三维模型的驱动,不利于实现人机交互。

因此,本申请提供一种虚拟模型的构建方法,所述方法可以包括:获取目标人物的三维模型;利用标准模型对所述三维模型进行参数化处理,以得到所述标准模型中每个点的目标变换矩阵;基于所述目标变换矩阵对所述标准模型中的每个点进行变换处理,以得到变换后的标准模型;对所述变换后的标准模型进行编辑,以得到虚拟模型,其中,所述虚拟模型中包含多个表情目标体。由此可见,本申请提供的所述方法,利用标准模型去接近目标人物的三维模型,通过对标准模型(点云数量、面片数量等较为固定,且分布均匀)进行编辑,得到三维的虚拟模型,因此,编辑难度较低(无需对目标人物的三维模型进行编辑),且有利于在模型中构建不同的表情目标体,有利于实现对虚拟模型的驱动,以实现人机交互,而且无需人工建模,成本较低。

参考图1,依本发明一实施例的一种虚拟模型的构建方法,所述方法构建得到的三维的虚拟模型可以显示于电子设备,如计算机、手机、智能手表、智能机器人、智能家居、汽车等,以实现人机交互。

如图1所示,所述方法可以包括:

S101、获取目标人物的三维模型。

在本实施例中,利用3D扫描仪,对目标人物(如自然人)进行360°的3D扫描,以扫描得到目标人物的三维模型。优选地,所述三维模型中可以包含点云、三角网格数量以及贴图数量等。可以理解的是,所述方法中,还可以包括:对扫描得到目标人物的三维模型进行点云的去噪、多帧对齐或者三角面片化等处理,以得到处理后的三维模型。

S102、利用标准模型对所述三维模型进行参数化处理,以得到所述标准模型中每个点的目标变换矩阵。

在步骤S102中,所述参数化处理是指,利用变换矩阵对所述标准模型中每个点进行变换处理,使得所述标准模型去接近所述三维模型,根据所述标准模型与所述三维模型之间的接近程度,确定出所述标准模型中每个点的目标变换矩阵。优选地,当所述标准模型最接近所述三维模型时,所对应的变换矩阵为所述目标变换矩阵。

也就是说,根据所述目标变换矩阵对所述标准模型中的每个点进行变换处理后,得到变换后的标准模型最接近所述三维模型。

可以理解的是,所述标准模型中的点云数量、面片数量等较为固定,且分布均匀。所述标准模型可以是三维的人物标准模型,根据用户的不同需求,所述标准模型不唯一。

其中一种可能的实现方式中,步骤S102可以包括:

S201、根据所述三维模型中的每个邻接点的约束,获得第一误差项;

S202、根据所述标准模型中每个点的变换矩阵的约束,获得第二误差项;

S203、根据所述标准模型与所述三维模型中对应点的约束,获得第三误差项;

S204、根据所述第一误差项、所述第二误差项以及所述第三误差项的加权和最小值,确定目标变换矩阵。

其中一种可能的实现方式中,举例地,假设所述标准模型中每个点的变换矩阵为Ti(如4*4的方阵)。

则,所述第一误差项由公式(或第一优化函数)

计算得到,其中,E

所述第二误差项由公式(或第二优化函数)

计算得到,其中,E

所述第三误差项由公式(或第三优化函数)

计算得到,其中,E

所述权重和最小值由公式

计算得到,其中,W

可以理解的是,将加权和最小值所对应的第一误差项、第二误差项以及第三误差项代入上述公式中,即可得到所述目标变换矩阵。

熟知本领域的技术人员可以理解的是,在实现同样原理或功能的情况下,上述参数化处理中的计算公式可以不唯一,在此不受限制。

S103、基于所述目标变换矩阵对所述标准模型中的每个点进行变换处理,以得到变换后的标准模型。

也就是说,利用所述目标变换矩阵对所述标准模型中的每个点进行变换处理,以改变所述标准模型中的每个点的坐标值,从而得到变换后的标准模型。

可以理解的是,由于所述标准模型中的点云数量、面片数量等较为固定,且分布均匀,因此,所述标准模型较易被编辑,有利于在模型中构建不同的表情目标体。

S104、对所述变换后的标准模型进行编辑,以得到虚拟模型,其中,所述虚拟模型中包含多个表情目标体。

在本实施例中,所述表情目标体可以用于对所述虚拟模型进行驱动,以改变所述虚拟模型的形状,使得所述虚拟模型可以展示出相应的表情,例如眨眼、微笑或张嘴等表情。

举例地,利用所述表情目标体对所述虚拟模型进行驱动的公式如下:

其中,Base为虚拟模型,B

也就是说,随着每个表情目标体的表情系数的变化,驱动所述虚拟模型进行相应的变化,如展示相应的表情等,从而有利于实现人机交互。

其中一种可能的实现方式中,步骤S104可以包括:

响应用户编辑表情目标体的操作,在所述变换后的标准模型中构建多个所述表情目标体,以得到虚拟模型。

也就是说,用户可以将在编辑软件中制作的微笑表情、张嘴表情或眨眼表情等目标体编辑至所述标准模型中,以得到编辑后的标准模型,即所述虚拟模型。

综上可知,本申请提供的所述虚拟模型的构建方法,利用标准模型去接近目标人物的三维模型,通过对标准模型(点云数量、面片数量等较为固定,且分布均匀)进行编辑,得到三维的虚拟模型,因此,编辑难度较低(无需对目标人物的三维模型进行编辑),且有利于在模型中构建不同的表情目标体,有利于实现对虚拟模型的驱动,以实现人机交互,而且无需进行建模,成本较低。

可以理解的是,上述实施例中的部分或全部步骤骤或操作仅是示例,本申请实施例还可以执行其它操作或者各种操作的变形。此外,各个步骤可以按照上述实施例呈现的不同的顺序来执行,并且有可能并非要执行上述实施例中的全部操作。

如图2所示,本申请实施提供了一种虚拟模型的交互方法,所述交互方法应用于电子设备(如计算机、手机、智能手表、智能机器人等),所述虚拟模型可以模仿如视频流等中的人物表情,从而实现人机交互。

具体地,所述交互方法可以包括:

S301、获取用户输入的交互信息。

也就是说,所述交互信息可以包括由用户通过键盘或鼠标输入文字信息,或者实时采集的用户语音,或者实时采集的用户图像等。

S302、基于所述交互信息,获取视频流,其中,所述视频流中包含画面;

在本实施例中,所述视频流预存储于电子设备中,通过对所述交互信息识别,从所述电子设备中调取对应的视频流,所述视频流中包含与用户的交互信息相匹配的信息,以用于人机交互。所述视频流中可以包含多个画面,画面中可以包含人物面部图像或者语音信号等。举例地,步骤S302中,可以通过对交互信息(如用户发出的语音信号)进行语音识别,根据识别结果从存储于电子设备中的多个视频流中提取目标视频流,以作为人机交互的目标视频流,如所述目标视频可以用于应答用户所述发出的语音信号等。

S303、从每个所述画面中获取人物面部特征。

在本实施例中,所述人物面部特征可以包括在所述画面中人物的面部特征,以用于表示画面中人物当前的面部表情状态,如开心、疑惑、生气等面部状态。

其中一种可能的实现方式中,步骤S303可以包括:

S401、从每个所述画面中获取采集到的人物面部图像;

S402、对所述人物面部图像进行特征提取,以获得人物面部特征。

例如,所述人物面部图像可以是利用相机拍摄采集到的图像,或者从视频流的画面中提取到的人物面部图像等,以从所述人物面部图像中提取得到人物面部特征,所述人物面部特征中可以包含从人物面部图像中提取到特征点,如特征点的坐标或深度信息等。

其中一种可能的实现方式中,步骤S303可以包括:

S501、从每个所述画面中获取采集到的语音信号;

S502、对所述语音信号中每个字的口型进行识别,以获得人物面部特征。

例如,所述语音信号可以是从视频流中的画面中提取到的语音信号,或者由语音传感器采集到的语音信号等,并利用语音识别模型对采集到的语音信号中的每个字的口型进行识别,从而得到人物面部特征。

S304、基于所述人物面部特征以及虚拟模型,获取所述虚拟模型中多个表情目标体的表情系数。

在本实施例中,所述虚拟模型由如图1所示方法实施例提供的构建方法获得,其具体步骤或原理可以参考上述图1所示方法实施例,在此不再赘述。

优选地,所述人物面部特征中的特征点与所述虚拟模型中的关键点之间存在对应关系,例如,人物面部特征中的眼角(特征点)对应于所述虚拟模型中的眼角(关键点)。

其中一种可能的实现方式中,步骤S304可以包括:

根据所述特征点与所述关键点的位置关系,确定每个表情目标体的表情系数。

也就是说,利用获取到的所述人物面部特征的特征点与所述虚拟模型中关键点的位置关系(如坐标差值等),可以计算得到每个表情目标体的表情系数。

在本实施例中,利用所述虚拟模型投影至相机坐标系中的关键点的坐标或位置与实时采集到的人物面部图像中的特征点的坐标或位置的约束,通过优化函数优化得到每个表情目标体的表情系数。

例如,所述优化函数可以表示为以下公式:

其中,B为驱动后的虚拟模型,R为旋转矩阵,t为平移距离,所述平移距离t可以由所述特征点与所述关键点之间的距离确定。

其中,表情目标体的表情系数为W=[w

S305、基于每个所述表情目标体的表情系数,对所述虚拟模型进行驱动,其中,驱动后的虚拟模型进行动态显示。

具体地,所述驱动后的虚拟模型由公式

计算得到,其中,Base为虚拟模型,B

也就是说,驱动后的虚拟模型可以模仿视频流中的人物的表情,以模仿视频流中的人物表情在电子设备中进行实时地显示,如动态显示,从而实现与用户进行人机交互。所述视频流中可以包含多个2D画面,所述视频流可以预存储于电子设备中。在进行人机交互时,通过获取用户输入的交互信息,根据所述交互信息,从多个视频流中调取目标视频流,根据所述目标视频流,获取所述目标视频流中多个画面的人物面部特征,基于每个所述人物面部特征以及虚拟模型,获取所述虚拟模型中多个表情目标体的表情系数,基于每个所述表情目标体的表情系数,对所述虚拟模型进行驱动,其中,驱动后的虚拟模型可以在电子设备中动态显示,以模仿目标视频流中的人物表情在所述电子设备上实时地显示,从而实现了与用户的人机交互。

可以理解的是,上述实施例中的部分或全部步骤或操作仅是示例,本申请实施例还可以执行其它操作或者各种操作的变形。此外,各个步骤可以按照上述实施例呈现的不同的顺序来执行,并且有可能并非要执行上述实施例中的全部操作。

如图3所示,本申请一个实施例提供了一种虚拟模型的构建装置100,所述装置100包括:

模型获取模块110,用于获取目标人物的三维模型;

处理模块120,用于利用标准模型对所述三维模型进行参数化处理,以得到所述标准模型中每个点的目标变换矩阵;

变换模块130,用于基于所述目标变换矩阵对所述标准模型中的每个点进行变换处理,以得到变换后的标准模型;

编辑模块140,用于对所述变换后的标准模型进行编辑,以得到虚拟模型,其中,所述虚拟模型中包含多个表情目标体。

其中一种可能的实现方式中,所述处理模块包括:

根据所述三维模型中的每个邻接点的约束,获得第一误差项;

根据所述标准模型中每个点的变换矩阵的约束,获得第二误差项;

根据所述标准模型与所述三维模型中对应点的约束,获得第三误差项;

根据所述第一误差项、所述第二误差项以及所述第三误差项的加权和最小值,确定目标变换矩阵。

其中一种可能的实现方式中,所述第一误差项由公式

计算得到,其中,E

所述第二误差项由公式

计算得到,其中,E

所述第三误差项由公式

计算得到,其中,E

所述权重和最小值由公式

计算得到,其中,W

其中一种可能的实现方式中,所述变换模块包括:

响应用户编辑表情目标体的操作,在所述变换后的标准模型中构建多个所述表情目标体,以得到虚拟模型。

可以理解的是,图3所示实施例提供的虚拟模型的构建装置可用于执行本申请图1所示方法实施例的技术方案,其实现原理和技术效果可以进一步参考方法实施例中的相关描述。

如图4所示,本申请另一个实施例提供了一种虚拟模型的交互装置200,所述装置200包括:

交互信息获取模块210,用于获取用户输入的交互信息;

视频流获取模块220,用于基于所述交互信息,获取视频流,其中,所述视频流中包含多个画面;

提取模块230,用于从每个所述画面中,提取得到人物面部特征;

表情系数获取模块240,用于基于所述人物面部特征以及虚拟模型,获取所述虚拟模型中多个表情目标体的表情系数,所述虚拟模型由如图1所示方法实施例中提供所述的方法获得;

驱动模块250,用于基于每个所述表情目标体的表情系数,对所述虚拟模型进行驱动,其中,驱动后的虚拟模型进行动态显示。

其中一种可能的实现方式中,所述提取模块包括:

从每个所述画面中获取采集到的人物面部图像;

对所述人物面部图像进行特征提取,以获得人物面部特征。

其中一种可能的实现方式中,所述提取模块包括:

从每个所述画面中获取采集到的语音信号;

对所述语音信号中每个字的口型进行识别,以获得人物面部特征。

其中一种可能的实现方式中,所述人物面部特征中的特征点与所述虚拟模型中的关键点之间存在对应关系,所述表情系数获取模块包括:

根据所述特征点与所述关键点的位置关系,确定每个表情目标体的表情系数。

其中一种可能的实现方式中,所述驱动后的虚拟模型由公式

计算得到,其中,Base为虚拟模型,B

可以理解的是,图4所示实施例提供的虚拟模型的交互装置200可用于执行本申请图2所示方法实施例的技术方案,其实现原理和技术效果可以进一步参考方法实施例中的相关描述。

图5为本申请电子设备一个实施例的结构示意图,如图5所示,上述电子设备可以包括:一个或多个处理器;存储器;以及一个或多个计算机程序。

其中,上述电子设备可以为手机,电脑,服务器,移动终端(手机),智能机器人,计算机,智慧屏,无人机,智能网联车(Intelligent Connected Vehicle;以下简称:ICV),智能(汽)车(smart/intelligent car)或车载设备等设备。

其中上述一个或多个计算机程序被存储在上述存储器中,上述一个或多个计算机程序包括指令,当上述指令被上述设备执行时,使得上述设备执行以下步骤:

获取目标人物的三维模型;

利用标准模型对所述三维模型进行参数化处理,以得到所述标准模型中每个点的目标变换矩阵;

基于所述目标变换矩阵对所述标准模型中的每个点进行变换处理,以得到变换后的标准模型;

对所述变换后的标准模型进行编辑,以得到虚拟模型,其中,所述虚拟模型中包含多个表情目标体。

其中一种可能的实现方式中,当上述指令被上述设备执行时,使得上述设备执行所述利用标准模型对所述三维模型进行参数化处理,以得到所述标准模型中每个点的目标变换矩阵,包括:

根据所述三维模型中的每个邻接点的约束,获得第一误差项;

根据所述标准模型中每个点的变换矩阵的约束,获得第二误差项;

根据所述标准模型与所述三维模型中对应点的约束,获得第三误差项;

根据所述第一误差项、所述第二误差项以及所述第三误差项的加权和最小值,确定目标变换矩阵。

其中一种可能的实现方式中,所述第一误差项由公式

计算得到,其中,E

所述第二误差项由公式

计算得到,其中,E

所述第三误差项由公式

计算得到,其中,E

所述权重和最小值由公式

计算得到,其中,W

其中一种可能的实现方式中,当上述指令被上述设备执行时,使得上述设备执行所述对所述变换后的标准模型进行编辑,以得到虚拟模型,包括:

响应用户编辑表情目标体的操作,在所述变换后的标准模型中构建多个所述表情目标体,以得到虚拟模型。

其中一种可能的实现方式中,当上述指令被上述设备执行时,使得上述设备执行以下步骤:

获取用户输入的交互信息;

基于所述交互信息,获取视频流,其中,所述视频流中包含多个画面;

从每个所述画面中,提取得到人物面部特征;

基于所述人物面部特征以及虚拟模型,获取所述虚拟模型中多个表情目标体的表情系数,所述虚拟模型由如图1所示方法实施例提供所述的方法获得;

基于每个所述表情目标体的表情系数,对所述虚拟模型进行驱动,其中,驱动后的虚拟模型进行动态显示。

其中一种可能的实现方式中,当上述指令被上述设备执行时,使得上述设备执行所述从每个所述画面中,提取得到人物面部特征,包括:

从每个所述画面中获取采集到的人物面部图像;

对所述人物面部图像进行特征提取,以获得人物面部特征。

其中一种可能的实现方式中,当上述指令被上述设备执行时,使得上述设备执行所述从每个所述画面中,提取得到人物面部特征,包括:

从每个所述画面中获取采集到的语音信号;

对所述语音信号中每个字的口型进行识别,以获得人物面部特征。

其中一种可能的实现方式中,所述人物面部特征中的特征点与所述虚拟模型中的关键点之间存在对应关系,当上述指令被上述设备执行时,使得上述设备执行所述基于所述人物面部特征以及虚拟模型,获取所述虚拟模型中多个表情目标体的表情系数,包括:

根据所述特征点与所述关键点的位置关系,确定每个表情目标体的表情系数。

其中一种可能的实现方式中,所述驱动后的虚拟模型由公式

计算得到,其中,Base为虚拟模型,B

图5所示的电子设备可以是终端设备也可以是内置于上述终端设备的电路设备。该设备可以用于执行本申请图1所示实施例提供的构建方法中的功能/步骤,或,该设备可以用于执行本申请图2所示实施例提供的交互方法中的功能/步骤,。

如图5所示,电子设备900包括处理器910和存储器920。其中,处理器910和存储器920之间可以通过内部连接通路互相通信,传递控制和/或数据信号,该存储器920用于存储计算机程序,该处理器910用于从该存储器920中调用并运行该计算机程序。

上述存储器920可以是只读存储器(read-only memory,ROM)、可存储静态信息和指令的其它类型的静态存储设备、随机存取存储器(random access memory,RAM)或可存储信息和指令的其它类型的动态存储设备,也可以是电可擦可编程只读存储器(electrically erasable programmable read-only memory,EEPROM)、只读光盘(compactdisc read-only memory,CD-ROM)或其他光盘存储、光碟存储(包括压缩光碟、激光碟、光碟、数字通用光碟、蓝光光碟等)、磁盘存储介质或者其它磁存储设备,或者还可以是能够用于携带或存储具有指令或数据结构形式的期望的程序代码并能够由计算机存取的任何其它介质等。

上述处理器910可以和存储器920可以合成一个处理装置,更常见的是彼此独立的部件,处理器910用于执行存储器920中存储的程序代码来实现上述功能。具体实现时,该存储器920也可以集成在处理器910中,或者,独立于处理器910。

应理解,图5所示的电子设备900能够实现本申请图1或图2所示实施例提供的方法的各个过程。电子设备900中的各个模块的操作和/或功能,分别为了实现上述方法实施例中的相应流程。具体可参见本申请图1或图2所示方法实施例中的描述,为避免重复,此处适当省略详细描述。

除此之外,为了使得电子设备900的功能更加完善,该电子设备900还可以包括摄像头930、电源940、输入单元950等中的一个或多个。

可选地,电源950用于给电子设备中的各种器件或电路提供电源。

应理解,图5所示的电子设备900中的处理器910可以是片上系统SOC,该处理器910中可以包括中央处理器(Central Processing Unit;以下简称:CPU),还可以进一步包括其他类型的处理器,例如:图像处理器(Graphics Processing Unit;以下简称:GPU)等。

总之,处理器910内部的各部分处理器或处理单元可以共同配合实现之前的方法流程,且各部分处理器或处理单元相应的软件程序可存储在存储器920中。

本申请还提供一种电子设备,所述设备包括存储介质和中央处理器,所述存储介质可以是非易失性存储介质,所述存储介质中存储有计算机可执行程序,所述中央处理器与所述非易失性存储介质连接,并执行所述计算机可执行程序以实现本申请图1或图2所示实施例提供的方法。

以上各实施例中,涉及的处理器可以例如包括CPU、DSP、微控制器或数字信号处理器,还可包括GPU、嵌入式神经网络处理器(Neural-network Process Units;以下简称:NPU)和图像信号处理器(Image Signal Processing;以下简称:ISP),该处理器还可包括必要的硬件加速器或逻辑处理硬件电路,如ASIC,或一个或多个用于控制本申请技术方案程序执行的集成电路等。此外,处理器可以具有操作一个或多个软件程序的功能,软件程序可以存储在存储介质中。

本申请实施例还提供一种计算机可读存储介质,该计算机可读存储介质中存储有计算机程序,当其在计算机上运行时,使得计算机执行本申请图1或图2所示实施例提供的方法。

本申请实施例还提供一种计算机程序产品,该计算机程序产品包括计算机程序,当其在计算机上运行时,使得计算机执行本申请图1或图2所示实施例提供的方法。

本领域普通技术人员可以意识到,本文中公开的实施例中描述的各单元及算法步骤,能够以电子硬件、计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。

所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。

在本申请所提供的几个实施例中,任一功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory;以下简称:ROM)、随机存取存储器(Random Access Memory;以下简称:RAM)、磁碟或者光盘等各种可以存储程序代码的介质。

以上所述,仅为本申请的具体实施方式,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。本申请的保护范围应以所述权利要求的保护范围为准。

本领域的技术人员应理解,上述描述及附图中所示的本发明的实施例只作为举例而并不限制本发明。本发明的优势已经完整并适用地实现。本发明的功能及结构原理已在实施例中展示和说明,在没有背离所述原理下,本发明的实施方式可以有任何变形或修改。

相关技术
  • 虚拟模型及其构建方法、交互方法以及电子设备
  • 目标虚拟模型构建方法及装置、电子设备、存储介质
技术分类

06120113297334