掌桥专利:专业的专利平台
掌桥专利
首页

一种基于融合的表情识别方法、装置和电子设备

文献发布时间:2023-06-19 11:05:16


一种基于融合的表情识别方法、装置和电子设备

技术领域

本申请涉及计算机领域,尤其涉及一种基于融合的表情识别方法、装置和电子设备。

背景技术

目前的表情识别多为基于人体正脸的面部表情为基础的识别数据。

然而,这以正脸为识别基础数据的识别方法在特殊情况下,准确率低,达不到工业应用水平,这是因为,在对计算机中存储的人脸进行表情识别时,这种方式具有较好的准确率,然而对于一下需要现场采集图像的场景中准确率低,比如政务服务一体机或服务窗口。

这主要是因为很多图像采集场景往往将摄像头设置在侧方,直接利用现有的表情识别算法对侧脸图像进行表情识别,识别的准确率低。

发明内容

本说明书实施例提供一种基于融合的表情识别方法、装置和电子设备,用以提高表情识别准确率。

本说明书实施例提供一种基于融合的表情识别方法,包括:

获取侧脸图像信息;

利用自注意力区域模型提取所述侧脸图像中的表情特征,并对提取的表情特征进行转换和融合,得到正脸表情特征;

利用构建并训练的表情识别模型计算所述正脸表情特征的特征值并通过分类器确定所述表情特征值对应的表情类别,输出分类结果。

可选地,所述对提取的表情特征进行转换和融合,包括:

对所述侧脸图像信息的表情特征进行镜像转换,将转换前、后的表情特征进行融合。

可选地,所述利用构建并训练的表情识别模型计算所述正脸表情特征的特征值并通过分类器确定所述表情特征值对应的表情类别,还包括:

确定被识别者的表情属性信息,结合所述历史表情属性信息对所述表情识别模型中的表情特征阈值进行调整;

判断所述表情特征值是否达到调整后的表情特征阈值。

可选地,所述利用自注意力区域模型提取所述侧脸图像中的表情特征,并对提取的表情特征进行转换和融合,包括:

对不同时段获取的侧脸图像信息分别提取图像中的表情特征,并进行转换和融合,得到历史时段的正脸表情特征和当前时段的正脸表情特征;

所述判断所述表情特征值是否达到调整后的表情特征阈值,包括:

对比历史时段的正脸表情特征和当前时段的正脸表情特征的变化,判断变化幅度是否大于表情特征阈值。

可选地,所述确定被识别者的表情属性信息,包括:

构建并训练表情属性预测模型,调用被识别者的用户信息,结合所述用户信息预测与所述被识别者相适应的表情属性信息。

可选地,所述利用自注意力区域模型提取所述侧脸图像中的表情特征,包括:

将侧脸图像划分成多个区域,提取各区域的特征并结合训练得到的区域权重参数计算所述侧脸图像的表情特征。

可选地,所述获取侧脸图像信息,包括:

获取提供服务时被服务方的侧脸图像;

所述方法还包括:利用识别出的表情对提供的服务进行质量评估。

本说明书实施例还提供一种基于融合的表情识别装置,包括:

图像获取模块,获取侧脸图像信息;

融合模块,利用自注意力区域模型提取所述侧脸图像中的表情特征,并对提取的表情特征进行转换和融合,得到正脸表情特征;

表情识别模块,利用构建并训练的表情识别模型计算所述正脸表情特征的特征值并通过分类器确定所述表情特征值对应的表情类别,输出分类结果。

可选地,所述对提取的表情特征进行转换和融合,包括:

对所述侧脸图像信息的表情特征进行镜像转换,将转换前、后的表情特征进行融合。

可选地,所述利用构建并训练的表情识别模型计算所述正脸表情特征的特征值并通过分类器确定所述表情特征值对应的表情类别,还包括:

确定被识别者的表情属性信息,结合所述历史表情属性信息对所述表情识别模型中的表情特征阈值进行调整;

判断所述表情特征值是否达到调整后的表情特征阈值。

可选地,所述利用自注意力区域模型提取所述侧脸图像中的表情特征,并对提取的表情特征进行转换和融合,包括:

对不同时段获取的侧脸图像信息分别提取图像中的表情特征,并进行转换和融合,得到历史时段的正脸表情特征和当前时段的正脸表情特征;

所述判断所述表情特征值是否达到调整后的表情特征阈值,包括:

对比历史时段的正脸表情特征和当前时段的正脸表情特征的变化,判断变化幅度是否大于表情特征阈值。

可选地,所述确定被识别者的表情属性信息,包括:

构建并训练表情属性预测模型,调用被识别者的用户信息,结合所述用户信息预测与所述被识别者相适应的表情属性信息。

可选地,所述利用自注意力区域模型提取所述侧脸图像中的表情特征,包括:

将侧脸图像划分成多个区域,提取各区域的特征并结合训练得到的区域权重参数计算所述侧脸图像的表情特征。

可选地,所述获取侧脸图像信息,包括:

获取提供服务时被服务方的侧脸图像;

所述表情识别模块,还用于利用识别出的表情对提供的服务进行质量评估。

本说明书实施例还提供一种电子设备,其中,该电子设备包括:

处理器;以及,

存储计算机可执行指令的存储器,所述可执行指令在被执行时使所述处理器执行上述任一项方法。

本说明书实施例还提供一种计算机可读存储介质,其中,所述计算机可读存储介质存储一个或多个程序,所述一个或多个程序当被处理器执行时,实现上述任一项方法。

本说明书实施例提供的各种技术方案通过获取侧脸图像信息,利用自注意力区域模型提取所述侧脸图像中的表情特征,并对提取的表情特征进行转换和融合,得到正脸表情特征,利用构建并训练的表情识别模型计算所述正脸表情特征的特征值并通过分类器确定所述表情特征值对应的表情类别,输出分类结果。通过利用自注意力区域模型提取所述侧脸图像中的表情特征,提高了特征提取的准确性,通过对提取的表情特征进行转换和融合,得到正脸表情特征,即便只采集到侧脸图像,依然能够较准确地进行表情识别,提高了表情识别整体准确率。

附图说明

此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:

图1为本说明书实施例提供的一种基于融合的表情识别方法的原理示意图;

图2为本说明书实施例提供的一种基于融合的表情识别装置的结构示意图;

图3为本说明书实施例提供的一种电子设备的结构示意图;

图4为本说明书实施例提供的一种计算机可读介质的原理示意图。

具体实施方式

现在将参考附图更全面地描述本发明的示例性实施例。然而,示例性实施例能够以多种形式实施,且不应被理解为本发明仅限于在此阐述的实施例。相反,提供这些示例性实施例能够使得本发明更加全面和完整,更加便于将发明构思全面地传达给本领域的技术人员。在图中相同的附图标记表示相同或类似的元件、组件或部分,因而将省略对它们的重复描述。

在符合本发明的技术构思的前提下,在某个特定的实施例中描述的特征、结构、特性或其他细节不排除可以以合适的方式结合在一个或更多其他的实施例中。

在对于具体实施例的描述中,本发明描述的特征、结构、特性或其他细节是为了使本领域的技术人员对实施例进行充分理解。但是,并不排除本领域技术人员可以实践本发明的技术方案而没有特定特征、结构、特性或其他细节的一个或更多。

附图中所示的流程图仅是示例性说明,不是必须包括所有的内容和操作/步骤,也不是必须按所描述的顺序执行。例如,有的操作/步骤还可以分解,而有的操作/步骤可以合并或部分合并,因此实际执行的顺序有可能根据实际情况改变。

附图中所示的方框图仅仅是功能实体,不一定必须与物理上独立的实体相对应。即,可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。

术语“和/或”或者“及/或”包括相关联的列出项目中的任一个或多者的所有组合。

图1为本说明书实施例提供的一种基于融合的表情识别方法的原理示意图,该方法可以包括:

S101:获取侧脸图像信息。

我们可以将这种方法应用于主业务的辅助业务中,主业务可以是现场双人对话服务,由于双人对话时无法采集被服务方正脸,因此常常在侧方设置摄像头,而这时如果我们存在识别被服务方表情的需求,就可以采取本说明书实施例中的方法。

因此,在本说明书实施例中,所述获取侧脸图像信息,可以包括:

获取提供服务时被服务方的侧脸图像。

其中,现场双人对话服务具体可以是指在政务服务窗口进行的双人对话服务。

S102:利用自注意力区域模型提取所述侧脸图像中的表情特征,并对提取的表情特征进行转换和融合,得到正脸表情特征。

考虑到虽然侧脸不能完全反映正脸的表情特征,但是由于两个侧脸是对称的,而侧脸与正脸之间具有一定的关联,因此,如果我们能够侧脸图像还原出正脸图像,再用进行正脸表情识别的相关模型对其进行表情识别,就能够得到较高的准确率。

在本说明书实施例中,所述对提取的表情特征进行转换和融合,包括:

对所述侧脸图像信息的表情特征进行镜像转换,将转换前、后的表情特征进行融合。

其中,融合可以是沿着中线进行拼接。在拼接后,可以进行矫正,防止人脸偏斜、畸形。

在处理人体侧脸的表情时,由于人脸的表情主要分布在几个主要的区域,与传统的卷积网络(CNN)不同,采用区域注意网络机制(RAN),RAN的作用是将侧脸划分为多个不同的区域,并借助CNN的特征提取能力和自主注意力机制为这些区域赋予不同的权重。

因此,在本说明书实施例中,所述利用自注意力区域模型提取所述侧脸图像中的表情特征,包括:

将侧脸图像划分成多个区域,提取各区域的特征并结合训练得到的区域权重参数计算所述侧脸图像的表情特征。

其中,自注意力区域模型可以是利用机器学习的方式训练得到的模型,该模型中具有训练得到的卷积层和权重系数。

在一种交友的方式中,利用多个层级的卷积层将侧脸图像划分成多个区域,不同层级的卷积层具有不同尺度。在训练自注意力区域模型时,调整各卷积层的权重系数,从而在利用卷积层提取局部表情特征之后,就能够自动为提取的局部表情特征配置系数进行计算,得到整体表情特征。

S103:利用构建并训练的表情识别模型计算所述正脸表情特征的特征值并通过分类器确定所述表情特征值对应的表情类别,输出分类结果。

通过获取侧脸图像信息,利用自注意力区域模型提取所述侧脸图像中的表情特征,并对提取的表情特征进行转换和融合,得到正脸表情特征,利用构建并训练的表情识别模型计算所述正脸表情特征的特征值并通过分类器确定所述表情特征值对应的表情类别,输出分类结果。通过利用自注意力区域模型提取所述侧脸图像中的表情特征,提高了特征提取的准确性,通过对提取的表情特征进行转换和融合,得到正脸表情特征,即便只采集到侧脸图像,依然能够较准确地进行表情识别,提高了表情识别整体准确率。

具体可以是指利用表达表情时人脸特征的对称特质,镜像复制提取到的表情特征并融合成一个完整的、表达正脸的人脸表情特征,利用贝叶斯网络(一种有向无环结构的概率模型)的方法进行分类,得到识别出的表情。

考虑到不同人表达表情的方式不同,比如,有些人很容易就表现出喜悦的表情,但这可能是长相本身就偏向喜悦表情,往往存在由于长相而将无表情的人脸误判成某种表情的情况。

为了解决这各问题,我们可以基于每个人自身的表情属性,来识别和判断被识别者是否产生了某种表情。

因此,在本说明书实施例中,所述利用构建并训练的表情识别模型计算所述正脸表情特征的特征值并通过分类器确定所述表情特征值对应的表情类别,还包括:

确定被识别者的表情属性信息,结合所述历史表情属性信息对所述表情识别模型中的表情特征阈值进行调整;

判断所述表情特征值是否达到调整后的表情特征阈值。

这样,通过对每个被识别者单独进行表情特征阈值的调整,使得模型中的算法规则能够与其相适应,从而能更真实反映被识别者内心的情绪所表现出的表情。

为了进一步明确对比基准,提高识别准确度,我们可以结合不同时刻的表情来进行判断。

因此,在本说明书实施例中,所述利用自注意力区域模型提取所述侧脸图像中的表情特征,并对提取的表情特征进行转换和融合,可以包括:

对不同时段获取的侧脸图像信息分别提取图像中的表情特征,并进行转换和融合,得到历史时段的正脸表情特征和当前时段的正脸表情特征;

所述判断所述表情特征值是否达到调整后的表情特征阈值,可以包括:

对比历史时段的正脸表情特征和当前时段的正脸表情特征的变化,判断变化幅度是否大于表情特征阈值。

为了提高普适性,我们也可以利用被识别者的用户信息来对其表情属性信息进行预测。

因此,在本说明书实施例中,所述确定被识别者的表情属性信息,可以包括:

构建并训练表情属性预测模型,调用被识别者的用户信息,结合所述用户信息预测与所述被识别者相适应的表情属性信息。

其中分类器是神经网络模型中常用的技术,在此不做具体阐述和限制。

在本说明书实施例中,所述获取侧脸图像信息,可以包括:

获取提供服务时被服务方的侧脸图像;

所述方法还包括:利用识别出的表情对提供的服务进行质量评估。

在一种业务评估的应用场景中,在政务服务窗口提供服务时,可以随机采集被服务方的侧脸图像,进行表情识别,利用识别出的表情对当前的政务服务业务进行质量评估。这样,不需要人工反馈评价,既提高了效率,又提高了真实性。

图2为本说明书实施例提供的一种基于融合的表情识别装置的结构示意图,该装置可以包括:

图像获取模块201,获取侧脸图像信息;

融合模块202,利用自注意力区域模型提取所述侧脸图像中的表情特征,并对提取的表情特征进行转换和融合,得到正脸表情特征;

表情识别模块203,利用构建并训练的表情识别模型计算所述正脸表情特征的特征值并通过分类器确定所述表情特征值对应的表情类别,输出分类结果。

我们可以将这种方法应用于主业务的辅助业务中,主业务可以是现场双人对话服务,由于双人对话时无法采集被服务方正脸,因此常常在侧方设置摄像头,而这时如果我们存在识别被服务方表情的需求,就可以采取本说明书实施例中的方法。

因此,在本说明书实施例中,所述获取侧脸图像信息,可以包括:

获取提供服务时被服务方的侧脸图像。

其中,现场双人对话服务具体可以是指在政务服务窗口进行的双人对话服务。

在本说明书实施例中,所述对提取的表情特征进行转换和融合,包括:

对所述侧脸图像信息的表情特征进行镜像转换,将转换前、后的表情特征进行融合。

在本说明书实施例中,所述利用构建并训练的表情识别模型计算所述正脸表情特征的特征值并通过分类器确定所述表情特征值对应的表情类别,还包括:

确定被识别者的表情属性信息,结合所述历史表情属性信息对所述表情识别模型中的表情特征阈值进行调整;

判断所述表情特征值是否达到调整后的表情特征阈值。

在本说明书实施例中,所述利用自注意力区域模型提取所述侧脸图像中的表情特征,并对提取的表情特征进行转换和融合,包括:

对不同时段获取的侧脸图像信息分别提取图像中的表情特征,并进行转换和融合,得到历史时段的正脸表情特征和当前时段的正脸表情特征;

所述判断所述表情特征值是否达到调整后的表情特征阈值,包括:

对比历史时段的正脸表情特征和当前时段的正脸表情特征的变化,判断变化幅度是否大于表情特征阈值。

在本说明书实施例中,所述确定被识别者的表情属性信息,包括:

构建并训练表情属性预测模型,调用被识别者的用户信息,结合所述用户信息预测与所述被识别者相适应的表情属性信息。

在本说明书实施例中,所述利用自注意力区域模型提取所述侧脸图像中的表情特征,包括:

将侧脸图像划分成多个区域,提取各区域的特征并结合训练得到的区域权重参数计算所述侧脸图像的表情特征。

在本说明书实施例中,所述获取侧脸图像信息,包括:

获取提供服务时被服务方的侧脸图像;

所述表情识别模块,还用于利用识别出的表情对提供的服务进行质量评估。

在一种业务评估的应用场景中,在政务服务窗口提供服务时,可以随机采集被服务方的侧脸图像,进行表情识别,利用识别出的表情对当前的政务服务业务进行质量评估。这样,不需要人工反馈评价,既提高了效率,又提高了真实性。

该装置通过获取侧脸图像信息,利用自注意力区域模型提取所述侧脸图像中的表情特征,并对提取的表情特征进行转换和融合,得到正脸表情特征,利用构建并训练的表情识别模型计算所述正脸表情特征的特征值并通过分类器确定所述表情特征值对应的表情类别,输出分类结果。通过利用自注意力区域模型提取所述侧脸图像中的表情特征,提高了特征提取的准确性,通过对提取的表情特征进行转换和融合,得到正脸表情特征,即便只采集到侧脸图像,依然能够较准确地进行表情识别,提高了表情识别整体准确率。

基于同一发明构思,本说明书实施例还提供一种电子设备。

下面描述本发明的电子设备实施例,该电子设备可以视为对于上述本发明的方法和装置实施例的具体实体实施方式。对于本发明电子设备实施例中描述的细节,应视为对于上述方法或装置实施例的补充;对于在本发明电子设备实施例中未披露的细节,可以参照上述方法或装置实施例来实现。

图3为本说明书实施例提供的一种电子设备的结构示意图。下面参照图3来描述根据本发明该实施例的电子设备300。图3显示的电子设备300仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。

如图3所示,电子设备300以通用计算设备的形式表现。电子设备300的组件可以包括但不限于:至少一个处理单元310、至少一个存储单元320、连接不同系统组件(包括存储单元320和处理单元310)的总线330、显示单元340等。

其中,所述存储单元存储有程序代码,所述程序代码可以被所述处理单元310执行,使得所述处理单元310执行本说明书上述处理方法部分中描述的根据本发明各种示例性实施方式的步骤。例如,所述处理单元310可以执行如图1所示的步骤。

所述存储单元320可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)3201和/或高速缓存存储单元3202,还可以进一步包括只读存储单元(ROM)3203。

所述存储单元320还可以包括具有一组(至少一个)程序模块3205的程序/实用工具3204,这样的程序模块3205包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。

总线330可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。

电子设备300也可以与一个或多个外部设备400(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备300交互的设备通信,和/或与使得该电子设备300能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口350进行。并且,电子设备300还可以通过网络适配器360与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。网络适配器360可以通过总线330与电子设备300的其它模块通信。应当明白,尽管图3中未示出,可以结合电子设备300使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。

通过以上的实施方式的描述,本领域的技术人员易于理解,本发明描述的示例性实施例可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本发明实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个计算机可读的存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、或者网络设备等)执行根据本发明的上述方法。当所述计算机程序被一个数据处理设备执行时,使得该计算机可读介质能够实现本发明的上述方法,即:如图1所示的方法。

图4为本说明书实施例提供的一种计算机可读介质的原理示意图。

实现图1所示方法的计算机程序可以存储于一个或多个计算机可读介质上。计算机可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。

所述计算机可读存储介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读存储介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。

可以以一种或多种程序设计语言的任意组合来编写用于执行本发明操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。

综上所述,本发明可以以硬件实现,或者以在一个或者多个处理器上运行的软件模块实现,或者以它们的组合实现。本领域的技术人员应当理解,可以在实践中使用微处理器或者数字信号处理器(DSP)等通用数据处理设备来实现根据本发明实施例中的一些或者全部部件的一些或者全部功能。本发明还可以实现为用于执行这里所描述的方法的一部分或者全部的设备或者装置程序(例如,计算机程序和计算机程序产品)。这样的实现本发明的程序可以存储在计算机可读介质上,或者可以具有一个或者多个信号的形式。这样的信号可以从因特网网站上下载得到,或者在载体信号上提供,或者以任何其他形式提供。

以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,应理解的是,本发明不与任何特定计算机、虚拟装置或者电子设备固有相关,各种通用装置也可以实现本发明。以上所述仅为本发明的具体实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。

以上所述仅为本申请的实施例而已,并不用于限制本申请。对于本领域技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本申请的权利要求范围之内。

相关技术
  • 一种基于融合的表情识别方法、装置和电子设备
  • 一种基于面部表情编码系统的表情识别方法、系统及电子设备
技术分类

06120112792329