掌桥专利:专业的专利平台
掌桥专利
首页

活体检测方法及其相关装置、设备和存储介质

文献发布时间:2024-04-18 20:02:18


活体检测方法及其相关装置、设备和存储介质

技术领域

本申请涉及图像识别技术领域,特别是涉及一种活体检测方法及其相关装置、设备和存储介质。

背景技术

交互式活体检测中常包含张嘴、眨眼等脸部动作识别过程,这些行为天然伴随着“活”的属性,因此对于区分生物的真实性存在一定价值;现有技术通过在一定生命周期内捕捉动作的发生与否,解决了许多应用场景中的现实问题,如疲劳驾驶、微表情分析等。

然而,目前常规的活体检测技术存在着诸如依靠高精度点位定位、受光线环境影响大等条件限制,无法大量推广应用。有鉴于此,如何便捷地对被试对象进行活体检测,成为亟需解决的问题。

发明内容

本申请主要解决的技术问题是提供一种活体检测方法及其相关装置、设备和存储介质,能够便捷地对被试对象进行活体检测。

为了解决上述技术问题,本申请第一方面提供了一种活体检测方法,包括:获取被试对象响应动作指令而被拍摄到的多个视频帧;分别对多个视频帧进行目标检测,获取各个视频帧中目标器官的局部图像,其中,动作指令由所述目标器官完成;基于状态检测模型分别对各个局部图像进行状态检测,得到各个局部图像的检测分值;其中,检测分值表征局部图像中目标器官对动作指令的执行程度;状态检测模型基于样本局部图像训练得到,样本局部图像标注有样本检测分值,样本检测分值由若干标注人员参考样本局部图像中样本器官的关键点得到;基于各个局部图像的检测分值,确定被试对象是否为活体。

为了解决上述技术问题,本申请第二方面提供了一种活体检测装置,包括:视频获取模块、目标检测模块、状态检测模块和活体判断模块。其中,视频获取模块用于获取被试对象响应动作指令而被拍摄到的多个视频帧;目标检测模块用于分别对多个视频帧进行目标检测,获取各个视频帧中目标器官的局部图像,其中,动作指令由所述目标器官完成;状态检测模块用于基于状态检测模型分别对各个局部图像进行状态检测,得到各个局部图像的检测分值;其中,检测分值表征局部图像中目标器官对动作指令的执行程度;状态检测模型基于样本局部图像训练得到,样本局部图像标注有样本检测分值,样本检测分值由若干标注人员参考样本局部图像中样本器官的关键点得到;活体判断模块用于基于各个局部图像的检测分值,确定被试对象是否为活体。

为了解决上述技术问题,本申请第三方面提供了一种活体检测设备,包括相互耦接的处理器和存储器,处理器用于执行存储器存储的程序指令,以实现上述第一方面中的活体检测方法。

为了解决上述技术问题,本申请第四方面提供了一种计算机可读存储介质,存储有能够被处理器运行的程序指令,程序指令用于实现上述第一方面中的活体检测方法。

上述方案中,分别对被试对象相应动作指令而拍摄到的多个视频帧进行目标检测,获取视频帧中目标器官的局部图像,进而基于状态检测模型分别对各个局部图像进行状态检测,得到相应的检测分值,最终根据各个局部图像的检测分值,确定被试对象是否为活体。因此,首先通过目标检测,得到视频帧中包含目标器官的局部图像,进而基于状态检测模型对局部图像进行状态检测得到检测分值,最终根据检测分值即可完成活体检测,由于状态检测模型训练时采用的样本局部图像其所标注的样本检测分值,是由标注人员参考样本局部图像中样本器官的关键点得到,故无需精确定位关键点,继而也无需严苛的光线环境,进而在活体检测时也仅需被试对象响应动作指令的视频帧即可,故而可以便捷地对被试对象进行活体检测。

附图说明

图1是本申请活体检测方法一实施例的流程示意图;

图2是检测分值变化曲线一实施例的示意图;

图3是本申请活体检测方法另一实施例的流程示意图;

图4是特征提取网络训练步骤一实施例的流程示意图;

图5是特征映射网络训练步骤一实施例的流程示意图;

图6是本申请活体检测方法又一实施例的流程示意图;

图7是本申请活体检测装置一实施例的框架示意图;

图8是本申请活体检测设备一实施例的框架示意图;

图9是本申请活体检测设备另一实施例的框架示意图;

图10是本申请计算机可读存储介质一实施例的框架示意图。

具体实施方式

下面结合说明书附图,对本申请实施例的方案进行详细说明。

以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、接口、技术之类的具体细节,以便透彻理解本申请。

本文中术语“系统”和“网络”在本文中常被可互换使用。本文中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系。此外,本文中的“多”表示两个或者多于两个。

请参阅图1,图1是本申请活体检测方法一实施例的流程示意图。

具体而言,本实施例中的活体检测方法可以包括如下步骤:

步骤S11:获取被试对象响应动作指令而被拍摄到的多个视频帧。

为了便于进行活体检测,可以随机给出动作指令,以便被试对象响应动作指令,此时可以获取被试对象的多个视频帧。动作指令可以是张嘴、摇头、眨眼等指令,在此不做具体限制。

进一步地,为了提高活体检测的精度,多个视频帧为连续视频帧,且视频帧数量至少为两帧。以被试对象为人为例,视频帧还需要满足存在人脸且人脸处于小姿态状态,即人脸偏转角小于等于45°,俯仰角小于等于30°,旋转角小于等于20°,通过上述条件,可以尽可能避免对视频帧的错误分析,可以大幅度提高活体检测的精度。类似地,若被试对象并非人类,则也可以参照本实施例设置相应的条件来提高活体检测的精度。

步骤S12:分别对多个视频帧进行目标检测,获取各个视频帧中目标器官的局部图像。

本实施例中,动作指令由目标器官完成。更具体地,如前所述,动作指令可以是张嘴、摇头、眨眼等指令,故而目标器官也可以是嘴巴、头部、眼睛等器官。

在一个实施场景中,可以先对视频帧进行活体面部识别,确定面部区域后,再获取局部图像。

在一个具体的实施场景中,可以通过关键点定位局部区域的大体位置后,以最大范围进行矩形裁剪,获取目标区域,作为局部图像。

在另一个具体的实施场景中,可以通过训练检测器,直接从视频帧中检测目标区域位置,依据检测结果,获得局部图像。

在又一个具体的实施场景中,可以利用显著的梯度特征,通过模板匹配的方式,定位目标区域,作为局部图像。

可以理解的是,局部图像的获取方法包括但不限于上述三种方法,具体实施方法在此不做限制。

步骤S13:基于状态检测模型分别对各个局部图像进行状态检测,得到各个局部图像的检测分值。

需要说明的是,本实施例中检测分值表征局部图像中目标器官对动作指令的执行程度;状态检测模型基于样本局部图像训练得到,样本局部图像标注有样本检测分值,样本检测分值由若干标注人员参考样本局部图像中样本器官的关键点得到。

在一个实施场景中,样本局部图像还标注有样本分值索引,样本分值索引表征样本检测分值所在的数值区间,且在状态检测模型的训练过程中,状态检测模型先将样本分值索引作为监督训练至收敛,再将样本检测分值作为监督进行训练。因此,样本局部图像通过样本分值索引和样本检测分值两个层次对状态检测模型进行监督训练,使得状态检测模型可以更加准确地对局部图像进行状态检测。

在一个实施场景中,状态检测模型可以确定各个局部图像的分值索引概率,根据分值索引概率和分值索引对应的数值区间进行加权计算,得到检测分值。

在一个具体的实施场景中,分值索引分为A、B、C三种,状态检测模型确定局部图像对应三种索引的概率分别为0.2、0.6、0.2,其中,分值索引A的数值区间为大于等于0小于10,分值索引B的数值区间为大于等于10小于20,分值索引C的数值区间为大于等于20小于30。可以以数值区间的中间值作为分值索引对应的期待值,在以分值索引的概率进行加权,得到检测分值。故而,此时的检测分值为5*0.2+15*0.6+25*0.2=16。

在一个实施场景中,状态检测模型包括特征提取网络和特征映射网络,特征提取网络用于从输入的视频帧中提取纹理特征,特征映射网络用于将纹理特征映射为检测分值,在状态检测模型的训练过程中,特征提取网络基于样本分值索引训练收敛之后,特征映射网络再基于样本检测分值训练。因此,通过特征提取网络提取纹理特征,进而通过特征映射网络将纹理特征映射为检测分值,并分别基于样本分值索引和样本检测分值对网络进行训练,使得神经网络可以准确获取检测分值。

在一个具体的实施场景中,特征提取网络可以包括但不限于CNN(ConvolutionalNeural Networks,卷积神经网络)、HOG(Histogram of Oriented Gradients)特征提取等神经网络,在此不做具体限制;特征映射网络可以包括但不限于BN(Batch Normalization,批次归一化)、LN(Layer Normalization,层级归一化)等神经网络,在此不做具体限制。

步骤S14:基于各个局部图像的检测分值,确定被试对象是否为活体。

在一个实施场景中,响应于各个局部图像的检测分值中的变化趋势和检测分值中的最大值满足预设条件,确定被试对象为活体;响应于各个局部图像的检测分值中的变化趋势和检测分值中的最大值不满足预设条件,确定被试对象不是活体。因此,根据检测分值的变化趋势和检测分值的最大值进行统筹考量,可以更加准确地依照检测分值进行活体判断。

在一个具体的实施场景中,以动作指令为张嘴为例,预设条件可以设置为检测分值的变化趋势由小到大,且检测分值的最大值大于70。请参阅图2,图2是检测分值变化曲线一实施例的示意图。如图2所示,表现为连续14个视频帧的检测分值平滑曲线,可以看出从第0帧到第11帧呈现检测分值由小到大的变化趋势,且检测分值的最大值大于70,故而可以确定被试对象为活体。

上述方案中,分别对被试对象相应动作指令而拍摄到的多个视频帧进行目标检测,获取视频帧中目标器官的局部图像,进而基于状态检测模型分别对各个局部图像进行状态检测,得到相应的检测分值,最终根据各个局部图像的检测分值,确定被试对象是否为活体。因此,首先通过目标检测,得到视频帧中包含目标器官的局部图像,进而基于状态检测模型对局部图像进行状态检测得到检测分值,最终根据检测分值即可完成活体检测,由于状态检测模型训练时采用的样本局部图像其所标注的样本检测分值,是由标注人员参考样本局部图像中样本器官的关键点得到,故无需精确定位关键点,继而也无需严苛的光线环境,进而在活体检测时也仅需被试对象响应动作指令的视频帧即可,故而可以便捷地对被试对象进行活体检测。

请参阅图3,图3是本申请活体检测方法另一实施例的流程示意图。

具体而言,本实施例中的活体检测方法可以包括如下步骤:

步骤S31:获取被试对象响应动作指令而被拍摄到的多个视频帧。

具体实施方式可以参照前述实施例中的步骤S11,在此不再赘述。

步骤S32:分别对多个视频帧进行目标检测,获取各个视频帧中目标器官的局部图像。

具体实施方式可以参照前述实施例中的步骤S12,在此不再赘述。

步骤S33:获取样本局部图像,并基于样本局部图像训练状态检测模型。

本实施例中,样本局部图像由测试对象响应动作指令而被拍摄到的多个视频帧,并根据测试对象所对应的多个视频帧进行目标检测,进而得到视频帧中的目标器官的局部图像,将其作为样本局部图像。

在一个实施场景中,可以基于关键点,分析样本器官对样本指令的执行程度,得到样本局部图像的第一样本分值;并基于若干标注人员分别参考第一样本分值对样本局部图像标注的第二样本分值进行平滑,得到样本检测分值。因此,根据关键点分析得到第一样本分值,并参照第一样本分值得到第二样本分值并进行平滑,得到样本检测分值,故而样本检测分值在关键点信息的基础上加以优化,尽可能地到一个相对合理的数值,并全面描述样本局部图像中的样本器官对动作指令的执行程度。

在一个具体的实施场景中,可以利用关键点检测算法获取样本局部图像的结构信息。关键点检测算法包括MTCNN(multi-task Cascades Convolutional Network,多任务卷积神经网络)、DAN(Deep Alignment Networks,深度对齐网络)、FAN(Face AlignmentNetwork,人脸对齐网络)等检测算法,在此不做具体限制。进而依据结构信息提取第一样本分数值,可以理解的是由于关键点检测算法的波动,因此第一样本分数值无法完全表达样本局部图像的当前状态信息。故而继续人为第一样本分数值,为样本局部图像进行打分,得到第二样本分数值,多人打分后进行分数平滑,得到样本局部图像的样本检测分值。当然,为了使得分数值更加符合高斯分布特性,还可以对分数平滑之后的数据进行随机扰动,是的样本检测分值更加准确。

在另一个实施场景中,样本局部图像还标注有样本分值索引,且样本分值索引表征样本检测分值所在的区间段;所述样本分值索引通过如下方式确认:依据样本检测分值,将目标数值区间,划分为若干区间段;其中,各个样本局部图像的样本检测分值均在目标数值区间;基于样本局部图像的样本检测分值所在的区间段,得到样本局部图像的样本分值索引。因此,在样本局部图像上设置样本分值索引,将目标数值期间划分为若干区间段,每个区间段作为样本分值索引,故而可以通过样本分值索引进行样本检测分值的初步检索,能够渐进式地获取样本检测分值。

在一个具体的实施场景中,在得到样本局部图像的样本检测分值后,可以将样本检测分值进行离散化,划分为若干目标数值区间,每个区间段对应一个样本分值索引。以样本检测分值离散化后在0-100范围、动作指令为张嘴为例,0为闭嘴状态,100为完全张嘴状态,可以划分为10个区间。其中,样本分值索引A表示样本检测分值位于大于等于0小于10的区间内、样本分数索引B表示样本检测分值位于大于等于10小于20的区间内,其他以此类推。

进一步地,请参阅图4,图4是特征提取网络训练步骤一实施例的流程示意图。具体而言,本实施例中的特征提取网络训练可以包括如下步骤:

步骤S401:基于特征提取网络提取样本局部图像的样本纹理特征。

在一个实施场景中,特征提取网络可以对样本局部图像中的样本纹理特征进行抽象,提取高维信息的特征向量,在高维空间表征图像状态。因此,拥有相同样本分值索引的样本局部图像处于高维空间中相对较近的位置。

步骤S402:基于样本纹理特征进行索引预测,得到预测分值索引。

根据样本纹理特征进行预测,确定每个样本局部图像对应的预测分值索引。

步骤S403:基于样本分值索引与预测分值索引之间的差异,调整特征提取网络的网络参数。

在一个实施场景中,样本分值索引与预测分值索引之间的差异,可以记为分类损失,进而基于分类损失函数来调整特征提取网络的网络参数。分类损失函数可以是诸如交叉熵损失、平方损失等损失函数,在此不做具体限制。

因此,通过特征提取网络提取样本局部图像的纹理特征,进而对纹理特征进行索引预测得到预测分值索引,并基于预测分值索引和样本分值索引的差异,调整特征提取网络的网络参数。通过对特征提取网络的有效训练,使得特征提取网络能够准确预测分值索引,便于后续进一步预测分值。

类似地,在特征提取网络基于样本分值索引训练收敛之后,请参阅图5,图5是特征映射网络训练步骤一实施例的流程示意图。具体而言,本实施例中的特征映射网络训练可以包括如下步骤:

步骤S501:基于训练收敛的特征提取网络提取样本局部图像的样本纹理特征。

具体实施方式可以参照前述实施例中的步骤S401,在此不再赘述。

步骤S502:基于特征映射网络将样本纹理特征进行低维映射,得到预测检测分值。

需要理解的是,如前所述,高维空间中的特征向量还需要进行细粒度表征,故而将其映射至低维空间,得到预测检测分值。

步骤S503:基于样本检测分值与预测检测分值之间的差异,调整特征映射网络的网络参数。

在一个实施场景中,样本检测分值与预测检测分值之间的差异,可以记为回归损失,进而基于回归损失函数来调整特征提取网络的网络参数。回归损失函数可以是诸如均方误差、平均绝对误差等损失函数,在此不做具体限制。

因此,通过训练收敛的特征提取网络提取样本局部图像的样本纹理特征,进而基于特征映射网络将样本纹理特征进行地位映射得到预测检测分值,并基于样本检测分值与预测检测分值之间的差异,调整特征映射网络的网络参数。通过对特征映射网络的训练,使得得到的预测检测分值尽可能接近样本检测分值,进而可以实现对检测分值的准确预测。

步骤S34:基于状态检测模型分别对各个局部图像进行状态检测,得到各个局部图像的检测分值。

具体实施方式可以参照前述实施例中的步骤S13,在此不再赘述。

步骤S35:基于各个局部图像的检测分值,确定被试对象是否为活体。

具体实施方式可以参照前述实施例中的步骤S14,在此不再赘述。

上述方案中,分别对被试对象相应动作指令而拍摄到的多个视频帧进行目标检测,获取视频帧中目标器官的局部图像,进而基于状态检测模型分别对各个局部图像进行状态检测,得到相应的检测分值,最终根据各个局部图像的检测分值,确定被试对象是否为活体。因此,首先通过目标检测,得到视频帧中包含目标器官的局部图像,进而基于状态检测模型对局部图像进行状态检测得到检测分值,最终根据检测分值即可完成活体检测,由于状态检测模型训练时采用的样本局部图像其所标注的样本检测分值,是由标注人员参考样本局部图像中样本器官的关键点得到,故无需精确定位关键点,继而也无需严苛的光线环境,进而在活体检测时也仅需被试对象响应动作指令的视频帧即可,故而可以便捷地对被试对象进行活体检测。

请参阅图6,图6是本申请活体检测方法又一实施例的流程示意图。

具体而言,本实施例中的活体检测方法可以包括如下步骤:

步骤S61:随机下发动作指令。

在一个实施场景中,可以是机器,也可以是其他工作人员对被试对象下发动作指令,动作指令的具体实施方式可以参照前述实施例中关于动作指令的相关描述,在此不再赘述。

步骤S62:前端采集视频流。

在一个实施场景中,前端设备可以是各类前置摄像头,在此不做具体限制。视频流为被试对象响应动作指令而拍摄得到的视频信息,且包括连续视频帧。

步骤S63:通过目标检测获取连续视频帧中的目标信息,并进一步获取目标局部区域特征。

本实施例中,目标信息包括目标器官,目标局部区域特征表征被试对象响应动作指令的目标器官区域。获取目标局部区域特征的具体实施方式可以参照前述实施例中的“分别对多个视频帧进行目标检测,获取各个视频帧中目标器官的局部图像”,在此不再赘述。

步骤S64:根据局部图像状态,按照特定方法,完成类标和特征值的映射,构建数据集。

具体实施方式可以参照前述实施例中的“获取样本局部图像”,在此不再赘述。

步骤S65:利用数据集完成渐进式状态回归网络的训练,利用类标和特征值的监督,优化网络性能,获取视频流特征值序列。

具体实施方式可以参照前述实施例中的“基于样本局部图像训练状态检测模型”,在此不再赘述。

步骤S66:利用收敛的网络模型提取局部区域特征,并获取视频流特征值序列。

相当于前述实施例中的“基于状态检测模型分别对各个局部图像进行状态检测,得到各个局部图像的检测分值”,在此不再赘述。

步骤S67:根据视频流特征值序列,判断活体动作是否发生,如果发生,则认为是活体,否则,为非活体。

相当于前述实施例中的“基于各个局部图像的检测分值,确定被试对象是否为活体”,在此不再赘述。

上述方案中,分别对被试对象相应动作指令而拍摄到的多个视频帧进行目标检测,获取视频帧中目标器官的局部图像,进而基于状态检测模型分别对各个局部图像进行状态检测,得到相应的检测分值,最终根据各个局部图像的检测分值,确定被试对象是否为活体。因此,首先通过目标检测,得到视频帧中包含目标器官的局部图像,进而基于状态检测模型对局部图像进行状态检测得到检测分值,最终根据检测分值即可完成活体检测,由于状态检测模型训练时采用的样本局部图像其所标注的样本检测分值,是由标注人员参考样本局部图像中样本器官的关键点得到,故无需精确定位关键点,继而也无需严苛的光线环境,进而在活体检测时也仅需被试对象响应动作指令的视频帧即可,故而可以便捷地对被试对象进行活体检测。

请参阅图7,图7是本申请活体检测装置70一实施例的框架示意图。具体而言,活体检测装置70包括视频获取模块71、目标检测模块72、状态检测模块73和活体判断模块74。进一步地,视频获取模块71用于获取被试对象响应动作指令而被拍摄到的多个视频帧;目标检测模块72用于分别对多个视频帧进行目标检测,获取各个视频帧中目标器官的局部图像,其中,动作指令由所述目标器官完成;状态检测模块73用于基于状态检测模型分别对各个局部图像进行状态检测,得到各个局部图像的检测分值;其中,检测分值表征局部图像中目标器官对动作指令的执行程度;状态检测模型基于样本局部图像训练得到,样本局部图像标注有样本检测分值,样本检测分值由若干标注人员参考样本局部图像中样本器官的关键点得到;活体判断模块74用于基于各个局部图像的检测分值,确定被试对象是否为活体。

上述方案中,分别对被试对象相应动作指令而拍摄到的多个视频帧进行目标检测,获取视频帧中目标器官的局部图像,进而基于状态检测模型分别对各个局部图像进行状态检测,得到相应的检测分值,最终根据各个局部图像的检测分值,确定被试对象是否为活体。因此,首先通过目标检测,得到视频帧中包含目标器官的局部图像,进而基于状态检测模型对局部图像进行状态检测得到检测分值,最终根据检测分值即可完成活体检测,由于状态检测模型训练时采用的样本局部图像其所标注的样本检测分值,是由标注人员参考样本局部图像中样本器官的关键点得到,故无需精确定位关键点,继而也无需严苛的光线环境,进而在活体检测时也仅需被试对象响应动作指令的视频帧即可,故而可以便捷地对被试对象进行活体检测。

在一些公开实施例中,活体检测装置70还包括样本检测模块,样本检测模块用于基于关键点,分析样本器官对样本指令的执行程度,得到样本局部图像的第一样本分值;进而基于若干标注人员分别参考第一样本分值对样本局部图像标注的第二样本分值进行平滑,得到样本检测分值。

因此,根据关键点分析得到第一样本分值,并参照第一样本分值得到第二样本分值并进行平滑,得到样本检测分值,故而样本检测分值在关键点信息的基础上加以优化,尽可能地到一个相对合理的数值,并全面描述样本局部图像中的样本器官对动作指令的执行程度。

在一些公开实施例中,样本局部图像还标注有样本分值索引,且样本分值索引表征样本检测分值所在的区间段;样本检测模块还用于依据样本检测分值,将目标数值区间,划分为若干区间段;其中,各个样本局部图像的样本检测分值均在目标数值区间;并基于样本局部图像的样本检测分值所在的区间段,得到样本局部图像的样本分值索引。

因此,在样本局部图像上设置样本分值索引,将目标数值期间划分为若干区间段,每个区间段作为样本分值索引,故而可以通过样本分值索引进行样本检测分值的初步检索,能够渐进式地获取样本检测分值。

在一些公开实施例中,样本局部图像还标注有样本分值索引,样本分值索引表征样本检测分值所在的数值区间,且在状态检测模型的训练过程中,状态检测模型先将样本分值索引作为监督训练至收敛,再将样本检测分值作为监督进行训练。

因此,样本局部图像通过样本分值索引和样本检测分值两个层次对状态检测模型进行监督训练,使得状态检测模型可以更加准确地对局部图像进行状态检测。

在一些公开实施例中,状态检测模型包括特征提取网络和特征映射网络,特征提取网络用于从输入的视频帧中提取纹理特征,特征映射网络用于将纹理特征映射为检测分值,在状态检测模型的训练过程中,特征提取网络基于样本分值索引训练收敛之后,特征映射网络再基于样本检测分值训练。

因此,通过特征提取网络提取纹理特征,进而通过特征映射网络将纹理特征映射为检测分值,并分别基于样本分值索引和样本检测分值对网络进行训练,使得神经网络可以准确获取检测分值。

在一些公开实施例中,状态检测模块73还包括特征提取网络训练单元,特征提取网络训练单元用于基于特征提取网络提取样本局部图像的样本纹理特征;并基于样本纹理特征进行索引预测,得到预测分值索引;进而基于样本分值索引与预测分值索引之间的差异,调整特征提取网络的网络参数。

因此,通过特征提取网络提取样本局部图像的纹理特征,进而对纹理特征进行索引预测得到预测分值索引,并基于预测分值索引和样本分值索引的差异,调整特征提取网络的网络参数。通过对特征提取网络的有效训练,使得特征提取网络能够准确预测分值索引,便于后续进一步预测分值。

在一些公开实施例中,状态检测模块73还包括特征映射网络训练单元,特征映射网络训练单元用于基于训练收敛的特征提取网络提取样本局部图像的样本纹理特征;并基于特征映射网络将样本纹理特征进行低维映射,得到预测检测分值;进而基于样本检测分值与预测检测分值之间的差异,调整特征映射网络的网络参数。

因此,通过训练收敛的特征提取网络提取样本局部图像的样本纹理特征,进而基于特征映射网络将样本纹理特征进行地位映射得到预测检测分值,并基于样本检测分值与预测检测分值之间的差异,调整特征映射网络的网络参数。通过对特征映射网络的训练,使得得到的预测检测分值尽可能接近样本检测分值,进而可以实现对检测分值的准确预测。

在一些公开实施例中,活体判断模块74还用于响应于各个局部图像的检测分值中的变化趋势和检测分值中的最大值满足预设条件,确定被试对象为活体;以及,响应于各个局部图像的检测分值中的变化趋势和检测分值中的最大值不满足预设条件,确定被试对象不是活体。

因此,根据检测分值的变化趋势和检测分值的最大值进行统筹考量,可以更加准确地依照检测分值进行活体判断。

请参阅图8,图8是本申请活体检测设备80一实施例的框架示意图。具体而言,活体检测设备80包括处理器801和存储器802,存储器802与处理器801耦接,处理器801用于执行存储器802存储的程序指令,以实现活体检测方法任一实施例中的步骤。

具体地,处理器801还可以称为CPU(Central Processing Unit,中央处理单元)。处理器801可能是一种集成电路芯片,具有信号的处理能力。处理器801还可以是通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(ApplicationSpecific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable GateArray,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。另外,处理器801可以由多个成电路芯片共同实现。

请参阅图9,图9是本申请活体检测设备80另一实施例的框架示意图。具体而言,活体检测设备80包括处理器801、存储器802和前置摄像头803,存储器802和前置摄像头803分别与处理器801耦接,处理器801用于执行存储器802存储的程序指令,以实现活体检测方法任一实施例中的步骤。前置摄像头用于拍摄被试对象响应动作指令时的多个视频帧。

具体地,处理器801、存储器802的具体实施方式可以参照前述实施例中关于处理器和存储器的相关描述,在此不再赘述。可以理解的是,前置摄像头可以是诸如枪机摄像头、球机摄像头等摄像器件,在此不做具体限制。

上述方案中,分别对被试对象相应动作指令而拍摄到的多个视频帧进行目标检测,获取视频帧中目标器官的局部图像,进而基于状态检测模型分别对各个局部图像进行状态检测,得到相应的检测分值,最终根据各个局部图像的检测分值,确定被试对象是否为活体。因此,首先通过目标检测,得到视频帧中包含目标器官的局部图像,进而基于状态检测模型对局部图像进行状态检测得到检测分值,最终根据检测分值即可完成活体检测,由于状态检测模型训练时采用的样本局部图像其所标注的样本检测分值,是由标注人员参考样本局部图像中样本器官的关键点得到,故无需精确定位关键点,继而也无需严苛的光线环境,进而在活体检测时也仅需被试对象响应动作指令的视频帧即可,故而可以便捷地对被试对象进行活体检测。

请参阅图10,图10是本申请计算机可读存储介质10一实施例的框架示意图。本实施例中,该计算机可读存储介质10存储有处理器可运行的程序指令1001,该程序指令1001用于执行上述活体检测方法实施例中的步骤。

该计算机可读存储介质10具体可以为U盘、移动硬盘、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等可以存储程序指令的介质,或者也可以为存储有该程序指令的服务器,该服务器可将存储的程序指令发送给其他设备运行,或者也可以自运行该存储的程序指令。

上述方案中,分别对被试对象相应动作指令而拍摄到的多个视频帧进行目标检测,获取视频帧中目标器官的局部图像,进而基于状态检测模型分别对各个局部图像进行状态检测,得到相应的检测分值,最终根据各个局部图像的检测分值,确定被试对象是否为活体。因此,首先通过目标检测,得到视频帧中包含目标器官的局部图像,进而基于状态检测模型对局部图像进行状态检测得到检测分值,最终根据检测分值即可完成活体检测,由于状态检测模型训练时采用的样本局部图像其所标注的样本检测分值,是由标注人员参考样本局部图像中样本器官的关键点得到,故无需精确定位关键点,继而也无需严苛的光线环境,进而在活体检测时也仅需被试对象响应动作指令的视频帧即可,故而可以便捷地对被试对象进行活体检测。

在本申请所提供的几个实施例中,应该理解到,所揭露的方法和装置,可以通过其它的方式实现。例如,以上所描述的装置实施方式仅仅是示意性的,例如,模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。

作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施方式方案的目的。

另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。

集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本申请各个实施方式方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。

若本申请技术方案涉及个人信息,应用本申请技术方案的产品在处理个人信息前,已明确告知个人信息处理规则,并取得个人自主同意。若本申请技术方案涉及敏感个人信息,应用本申请技术方案的产品在处理敏感个人信息前,已取得个人单独同意,并且同时满足“明示同意”的要求。例如,在摄像头等个人信息采集装置处,设置明确显著的标识告知已进入个人信息采集范围,将会对个人信息进行采集,若个人自愿进入采集范围即视为同意对其个人信息进行采集;或者在个人信息处理的装置上,利用明显的标识/信息告知个人信息处理规则的情况下,通过弹窗信息或请个人自行上传其个人信息等方式获得个人授权;其中,个人信息处理规则可包括个人信息处理者、个人信息处理目的、处理方式以及处理的个人信息种类等信息。

技术分类

06120116576733