掌桥专利:专业的专利平台
掌桥专利
首页

人脸检测方法和系统

文献发布时间:2024-01-17 01:17:49


人脸检测方法和系统

技术领域

本申请涉及目标检测技术领域,具体涉及一种人脸检测方法和系统。

背景技术

随着深度学习的不断发展,目标检测领域也在快速地发展。其中,人脸检测作为目标检测领域的一个重要方向。由于用户在公共场合出行常需佩戴口罩,使得在车站、机场以及商场等人流量大的公共场合中存在大量佩戴口罩的人员。公共场合的管理机构根据安全需求,会在大通道人群通行场景下对戴口罩的人员进行人脸检测。人脸检测是指对于任意一幅给定的图像,采用一定的策略对其进行搜索以确定其中是否含有人脸,如果是则返回人脸的位置和大小。

目前,大多数的目标检测算法都是针对自然场景下分布比较稀疏的大目标图像进行检测,现有算法中常用两种方法对目标图像进行检测,第一种是使用基于R-CNN的先产生目标候选框模型;第二种是使用不提前产生检测框的YOLO模型。现有算法只是对于图像清晰、无遮挡人员的检测效果是较好的,但当人脸距离摄像头的远近不同导致人脸的尺寸不同,且人员佩戴口罩导致人脸有遮档时,由于现有算法并不是专门针对遮挡情况提出,故在对人员进行人脸检测时,会导致人员特征缺失。

因此,目前亟需一种人脸检测方法和系统来解决上述技术问题。

发明内容

本申请提供了一种人脸检测方法和系统,该方法可针对大通道场景下戴口罩的人脸进行检测,通过对人脸检测方法,解决因人员佩带口罩有遮挡,无法识别人员的面部特征的问题。

第一方面,本申请提供了一种人脸检测方法,应用于服务器中,方法包括:获取预设场景的监控图像,监控图像包括人脸图像和背景图像;使用人脸识别算法对监控图像进行筛选,得到人脸图像;判断面部特征数量是否与预设面部特征数量一致;面部特征数量为任意一个人脸图像对应的面部特征数量;若面部特征数量与预设面部特征数量不一致,则将人脸图像输入预设遮挡人脸检测模型中进行检测,预设遮挡人脸检测模型将人脸图像中缺失的面部特征进行补充,得到人员对应的人脸检测结果,并将人脸检测结果进行输出。

通过采用上述技术方案,人员的面部特征被遮挡时,可将人脸图像输入预设遮挡人脸检测模型中,可以辅助检测有遮挡的人脸,将人脸图像中缺失的面部特征进行补充,提高有遮挡人脸的检测率。

可选的,采用MTCNN网络对监控图像进行处理,得到人脸检测框;利用主干网络作为实时语义分割模型进行人脸语义分割,从人脸检测框中提取人脸框;将主干网络中使用残差模块结合SDD网络来提取人脸部件,将人脸部件进行关键点定位训练,得到预设遮挡人脸检测模型。

通过采用上述技术方案,使用MTCNN网络,以分层级联的方式进行工作,可以检测不同尺度的人脸,得到人脸框的位置和大小,从而实现人脸检测。

可选的,关键点定位包括左眼、右眼、鼻子、左嘴角以及右嘴角。

通过采用上述技术方案,基于关键点定位可以更好的预测人脸,可将人脸图像中缺失的面部特征进行补充,进一步提高人脸检测精度。

可选的,主干网络使用Fast-SCNN网络作为实时语义分割模型进行人脸语义分割,得到标注各个像素类别图像;使用深度优先遍历算法从人脸检测框提取人脸框。

通过采用上述技术方案,使用Fast-SCNN语义分割网络,用于辅助检测有遮挡的人脸,以减少因遮挡而无法识别人脸检测的情况产生。

可选的,若面部特征数量与预设面部特征数量一致,将人脸图像输入预设密集人脸检测模型中进行检测,得到人员对应的人脸检测结果,并将人脸检测结果进行输出。

通过采用上述技术方案,在对大通道通行场景下的多数量小尺度的人脸检测图像时,可使用预设密集人脸检测模型进行检测,在检测人脸时可减少漏检和误检的情况产生。

可选的,采用K-means聚类算法对标准参考框进行聚类分析,得到预测框;使用预测框对监控图像进行处理;将处理后的监控图像输入改进的YOLO密集人脸检测模型进行训练,得到预设密集人脸检测模型。

通过采用上述技术方案,使用K-means聚类算法,得到更具代表性的预测框,减少预测框与真实框之间的偏差和方差,加速预设密集人脸检测模型的收敛,有助于预设密集人脸检测模型在训练过程中更快的微调预测框的位置信息。

可选的,改进的YOLO密集人脸检测模型包括特征提取网络和预测层。

通过采用上述技术方案,在原始YOLO算法的基础上,对特征提取网络进行改进,得到的特征图具有更丰富的小尺度人脸特征,有助于检测精度的提高;对预测层结构进行改进,进一步提高检测精度。

在本申请的第二方面提供了一种人脸检测系统,系统为服务器,服务器包括接收单元、处理单元以及输出单元:接收单元:获取预设场景的监控图像,监控图像包括人脸图像和背景图像;处理单元:使用人脸识别算法对监控图像进行筛选,得到人脸图像;判断面部特征数量是否与预设面部特征数量一致;面部特征数量为任意一个人脸图像对应的面部特征数量;输出单元:若面部特征数量与预设面部特征数量不一致,则将人脸图像输入预设遮挡人脸检测模型中进行检测,预设遮挡人脸检测模型将人脸图像中缺失的面部特征进行补充,得到人员对应的人脸检测结果,并将人脸检测结果进行输出。

可选的,接收单元用于采用MTCNN网络对监控图像进行处理,得到人脸检测框;处理单元用于利用主干网络作为实时语义分割模型进行人脸语义分割,从人脸检测框中提取人脸框;将主干网络中使用残差模块结合SDD网络来提取人脸部件,将人脸部件进行关键点定位训练,得到预设遮挡人脸检测模型。

可选的,关键点定位包括左眼、右眼、鼻子、左嘴角以及右嘴角。

可选的,处理单元用于主干网络使用Fast-SCNN网络作为实时语义分割模型进行人脸语义分割,得到标注各个像素类别图像;使用深度优先遍历算法从人脸检测框提取人脸框。

可选的,输出单元用于若面部特征数量与预设面部特征数量一致,将人脸图像输入预设密集人脸检测模型中进行检测,得到人员对应的人脸检测结果,并将人脸检测结果进行输出。

可选的,接收单元用于采用K-means聚类算法对标准参考框进行聚类分析,得到预测框;处理单元用于使用预测框对监控图像进行处理;将处理后的监控图像输入改进的YOLO密集人脸检测模型进行训练,得到预设密集人脸检测模型。

可选的,处理单元用于改进的YOLO密集人脸检测模型包括特征提取网络和预测层。

在本申请第三方面提供一种电子设备,电子设备包括处理器、存储器、用户接口及网络接口,存储器用于存储指令,用户接口和网络接口用于给其他设备通信,处理器用于执行存储器中存储的指令,使得一种电子设备执行如本申请上述中任意一项的方法。

在本申请第四方面提供一种计算机可读存储介质,计算机可读存储介质存储有指令,当指令被执行时,执行本申请上述中任意一项的方法。

综上所述,本申请实施例中提供的一个或多个技术方案,至少具有如下技术效果或优点:

1、人员的面部特征被遮挡时,可将人脸图像输入预设遮挡人脸检测模型中,可以辅助检测有遮挡的人脸,将人脸图像中缺失的面部特征进行补充,提高有遮挡人脸的检测率。

2、使用MTCNN网络,以分层级联的方式进行工作,可以检测不同尺度的人脸,得到人脸框的位置和大小,从而实现人脸检测。使用Fast-SCNN语义分割网络,用于辅助检测有遮挡的人脸,以减少因遮挡而无法识别人脸检测的情况产生。

3、基于关键点定位可以更好的预测人脸,可将人脸图像中缺失的面部特征进行补充,进一步提高人脸检测精度。

4、在对大通道通行场景下的多数量小尺度的人脸检测图像时,可使用预设密集人脸检测模型进行检测,在检测人脸时可减少漏检和误检的情况产生。

附图说明

图1是本申请实施例提供的一种人脸检测方法的第一流程示意图;

图2是本申请实施例提供的一种人脸检测方法的第二流程示意图;

图3是本申请实施例提供的一种人脸检测方法的第三流程示意图;

图4是本申请实施例提供的一种人脸检测方法的预测层结构示意图;

图5是本申请实施例提供的一种人脸检测系统的结构示意图;

图6是本申请实施例的公开的一种电子设备的结构示意图。

附图标记说明:501、接收单元;502、处理单元;503、输出单元;600、电子设备;601、处理器;602、通信总线;603、用户接口;604、网络接口;605、存储器。

具体实施方式

为了使本领域的技术人员更好地理解本说明书中的技术方案,下面将结合本说明书实施例中的附图,对本说明书实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本申请一部分实施例,而不是全部的实施例。

在本申请实施例的描述中,“例如”或者“举例来说”等词用于表示作例子、例证或说明。本申请实施例中被描述为“例如”或者“举例来说”的任何实施例或设计方案不应被解释为比其他实施例或设计方案更优选或更具优势。确切而言,使用“例如”或者“举例来说”等词旨在以具体方式呈现相关概念。

在本申请实施例的描述中,术语“多个”的含义是指两个或两个以上。例如,多个系统是指两个或两个以上的系统,多个屏幕终端是指两个或两个以上的屏幕终端。术语“包括”、“包含”、“具有”及它们的变形都意味着“包括但不限于”,除非是以其他方式另外特别强调。

在本申请中面部特征包括四个部分,四个部分分别为左眼、右眼、鼻子以及嘴巴。

随着深度学习的不断发展,目标检测领域也在快速地发展。其中,人脸检测作为目标检测领域的一个重要方向。由于用户在公共场合出行常需佩戴口罩,使得在车站、机场以及商场等人流量大的公共场合中存在大量佩戴口罩的人员。公共场合的管理机构根据安全需求,会在大通道人群通行场景下对戴口罩的人员进行人脸检测。人脸检测是指对于任意一幅给定的图像,采用一定的策略对其进行搜索以确定其中是否含有人脸,如果是则返回人脸的位置和大小。在对人员的人脸进行检测时,需要由前端摄像头采集原始信息,并进行戴口罩人脸检测。目前,大多数的目标检测算法都是针对自然场景下分布比较稀疏的大目标图像进行检测,现有算法中常用两种方法对目标图像进行检测,第一种是使用基于R-CNN的先产生目标候选框模型;第二种是使用不提前产生检测框的YOLO模型,现有算法只是对于图像清晰、无遮挡人员的检测效果是极好。但当人脸距离摄像头的远近不同导致人脸的尺寸不同,且人员佩戴口罩导致人脸有遮掩时,现有算法并不是专门针对遮挡情况提出,故在对人员进行人脸检测时,会导致人员特征缺失。

因此,如何在人脸有遮掩时对人脸进行检测,在检测过程中将人脸的面部特征进行补充,减少因人脸有遮挡无法识别人员面部特征。本申请实施例提供的一种人脸检测方法,应用于服务器中。本申请的服务器可以是为机场、车站以及商场等场合提供服务的平台,图1是本申请实施例提供的一种人脸检测方法的第一流程示意图,参考图1,该方法包含以下步骤S101-步骤S104。

步骤S101:获取预设场景的监控图像,监控图像包括人脸图像和背景图像。

在上述步骤中,预设场景包括机场、车站以及商场中任意一个场景,主要是针对人流量较大的公共场合。本申请的预设场景以车站进行举例。在机场、车站以及商场等大通道的场景下,都会安装监控摄像头,以此来监控在大通道下通行人员是否发生拥挤或其他安全事故,为了保证人员的安全。为了保证大通道下通行人员不存在安全隐患,会对进入监控范围的人员进行识别。服务器获取车站的监控视频,对监控视频中的监控图像进行获取,监控图像包括人脸图像和背景图像,背景图像包括建筑、车辆、行李箱以及动物等。

步骤S102:使用人脸识别算法对监控图像进行筛选,得到人脸图像。

在上述步骤中,服务器通过人脸识别算法提取提取监控图像中的人脸图像,将背景图像进行删除。在本申请中,人脸识别算法是指在监控图像中检测到人脸并定位面部关键特征点之后,将主要的人脸区域进行裁剪,经过预处理之后,反馈进入服务器进行识别算法。

步骤S103:判断面部特征数量是否与预设面部特征数量一致;面部特征数量为任意一个人脸图像对应的面部特征数量。

在上述步骤中,服务器获取人脸图像对应的面部特征数量后,服务器判断面部特征数量是否与预设面部特征数量一致,预设面部特征数量为人脸的关键点,关键点包括左眼、右眼、鼻子、嘴巴。

步骤S104:若面部特征数量与预设面部特征数量不一致,则将人脸图像输入预设遮挡人脸检测模型中进行检测,预设遮挡人脸检测模型将人脸图像中缺失的面部特征进行补充,得到人员对应的人脸检测结果,并将人脸检测结果进行输出。

在上述步骤中,当面部特征数量与预设面部特征数量不一致时,确认当前人脸图像的面部特征被遮挡,无法识别人脸图像对应的人员信息。

举例来说,服务器获取用户A的人脸图像,人脸图像对应的面部特征数量为2,预设面部特征数量为4,当用户A的面部特征数量与预设面部特征数量不一致,确认用户A的人脸图像被遮挡,无法识别人脸图像对应的人员。预设面部特征数量可根据数据情况进行设置,这里不进行限定。

服务器无法识别当前人脸图像后,将当前人脸图像输入预设遮挡人脸检测模型中进行检测,再将人脸图像输入预设遮挡人脸检测模型之前,构建预设遮挡人脸检测模型,预设遮挡人脸检测模型是基于低分辨率的遮挡人脸检测模型进行构建,在后续实施例中,以低分辨率的遮挡人脸检测模型表示预设遮挡人脸检测模型。

将图像输入至低分辨率的遮挡人脸检测模型中,可方便对大通道人群通行场景下戴口罩的人员进行人脸检测。如何构建低分辨率的遮挡人脸检测模型如图2所示,图2是本申请实施例提供的一种人脸检测方法的第二流程示意图,参考图2,该方法包含以下步骤S201-步骤S203。

步骤S201:采用MTCNN网络对监控图像进行处理,得到人脸检测框。

在上述步骤中,使用MTCNN网络对图像进行筛选得到人脸框,即对需要检测的人脸进行缩放,得到图像金字塔;MTCNN包含三个子网络,三个子网络分别为P-Net网络、R-Net网络以及O-Net网络;第一阶是通过一个浅层的CNN网络快速产生一系列的候选窗口,即输入到P-Net网络生成候选窗,并对生成的候选框进行微调;第二阶段通过一个能力更强的CNN网络过滤掉绝大部分非人脸候选窗口,即输入到R-Net网络删除非人脸框,并对正样本进行微调,此时,正样本是指人脸框;第三阶段通过一个能力更加强的网络特征找到人脸上面的五个标记点,即输入到O-Net网络进一步对后选窗口进行筛选,得到精确的人脸检测框。

根据MTCNN的三个子网络的损失函数计算总损失;MTCNN包含三个子网络,三个子网络分别有各自对应的损失函数,基于三个子网络的特性不同,故三个子网络使用不同的损失函数,P-Net网络使用的是交叉熵损失函数,R-Net和O-Net使用的是2L损失函数;最后把这三部分的损失乘以自身的权重再累加,形成最后的总损失。此时的权要可根据历史人脸检测数据进行设置,这里不进行限定。得到总损失是为了使训练得到的损失函数与真实价格误差较小,从而得到精准的人脸检测框。

步骤S202:利用主干网络作为实时语义分割模型进行人脸语义分割,从人脸检测框中提取人脸框。

在上述步骤中,主干网络使用Fast-SCNN网络作为实时语义分割模型进行人脸的语义分割,得到标注着各个像素类别的图像,接着使用深度优先遍历算法提取人脸框,用于辅助检测有遮挡的人脸。Fast-SCNN网络采用了四个模块,四个模块分别为学习下采样模块,一个基于全局的特征提取器模块,一个特征融合模块,以及一个标准的分类器。其中,学习下采样模块是采用了三层的结构,只使用了三层来确保低级特征共享的有效性和高效实施。全局的特征提取器模块是捕获用于图像分割的全局上下文,即对图像的整体信息进行分割。特征融合模块是通过简单地融合不同分支(branch)的特征以确保有效性。标准的分类器是采用了两个深度可分离卷积(DSConv)和逐点卷积(Conv2D),即判断是否为人脸。以上模块都是用深度可分离卷积构建。

步骤S203:将主干网络中使用残差模块结合SDD网络来提取人脸部件,将人脸部件进行关键点定位训练,得到预设遮挡人脸检测模型。

在上述步骤中,使用残差模块作为前置网络连接到SSD网络来提取人脸部件,得到人脸部件后,加入关键点定位任务来定位人脸的五个关键点。提取到人脸框后,进行人脸部件定位,将人脸分为五类,左眼、右眼、鼻子、左嘴角、右嘴角。

残差模块用于解决随着网络层数的逐渐加深导致训练误差升高的问题;将残差模块作为前置网络连接到SSD网络,SSD网络仅运行一个卷积神经网络,但采用多尺度的特征图作为检测的输入,并且使用多种数据增强的方法,可以将高层语义特征融合到底层语义中。多种数据增强的方法包括对图像进行裁剪、旋转以及扭曲,在对监控图像中的图像进行采集时,对监控图像进行不同角度的录入,为了适合监控拍摄到不同角度的图像。

收集和整理数据集,构建并训练得到低分辨率的遮挡人脸检测模型。使用MTCNN网络,以分层级联的方式进行工作,可以检测不同尺度的人脸;使用Fast-SCNN语义分割网络,用于辅助检测有遮挡的人脸,可以提高对遮挡人脸检测的检测率。再提取完人脸框后,加入关键点定位任务,可以更好的预测人脸,进一步提高检测精度,如果直接对整个人脸进行处理,会减小人脸框的大小,并且人脸框的偏移会对检测造成影响。

通过上述过程构建并训练低分辨率的遮挡人脸检测模型,在利用完成训练的低分辨率的遮挡人脸检测模型对大通道通行场景下的监控图像进行处理,即对戴口罩遮挡的人脸图像进行识别。

在一种可能的实施方式中,大多数的目标检测算法针对自然场景下分布比较稀疏的大目标图像,对小目标进行检测时,即在面对预设场景下多数量小尺度的人脸监控图像时,会出现漏检、误检等情况,导致小尺度目标的检测精度较低。

此时,大通道人群通行场景具体指:通道宽度≥6m、人流密度≥1000人/分钟、人群通行速度约1.5m/s的场景。

因此,如何减少漏检、误检的情况,当面部特征数量与预设面部特征数量一致时,确认当前人脸图像的面部特征未被遮挡,如何对密集的人脸图像进行采集,并进行多尺寸检测。可使用预设密集人脸检测模型进行检测。在使用预设密集人脸检测模型进行检测之前,构建预设密集人脸检测模型。

将图像输入至预设密集人脸检测模型中,可方便对大通道人群通行场景下密集的人员进行人脸检测。如何构建预设密集人脸检测模型如图3所示,图3是本申请实施例提供的一种人脸检测方法的第三流程示意图,参考图3,该方法包含以下步骤S301-步骤S303。

步骤S301:采用K-means聚类算法对标准参考框进行聚类分析,得到预测框。

在上述步骤中,使用预测框和标准参考框之间的IOU值作为损失函数,标准参考框指真实的框,对K-means聚类算法进行改进,改进的距离函数定义为:

min∑i∑j1-IOU(Box

其中,i表示预测框的索引,j表示标准参考框的索引,Box

在预设密集人脸检测模型执行目标检测任务时,为了使得到的特征图具有丰富的小尺寸度人脸特征,会生成预测框的标准参考框,标准参考框是指在图像中生成一组基准框,用于对不同大小、比例的目标进行检测和定位。而改进的K-means算法可以用来对标准参考框进行聚类,从而得到适合当前数据集的预测框尺度。

改进的K-means算法可以用来对标准参考框进行聚类,从而得到适合当前数据集的预测框尺度,具体操作步骤如下:事先,要收集训练集中所有目标的宽度和高度信息,作为K-means算法的输入数据。随机初始化K个聚类中心点,可以使用均匀分布或高斯分布进行初始化。其次,对于每个输入数据,计算它们与每个聚类中心点之间的距离,选择距离最近的聚类中心点所代表的簇。更新聚类中心点的位置,将它们移动到所代表簇的中心位置。重复计算输入数据与每个聚类中心点之间的距离,并更新聚类中心点的位置,直到聚类中心点的位置不再发生变化或达到了预定的迭代次数。最后,根据聚类结果,选择每个聚类簇中心点所代表的框尺度作为预测框的尺度参数,用于网络初始化。通过改进的K-means算法,可以得到适合当前数据集的预测框尺度参数,从而提高目标检测的准确性和效率。

步骤S302:使用预测框对监控图像进行处理。

在上述步骤中,基于上述的数据集的预测框尺度后,根据初始的预测框尺度对监控图像进行采集,进而识别监控图像中存在人员信息。

步骤S303:将处理后的监控图像输入改进的YOLO密集人脸检测模型进行训练,得到预设密集人脸检测模型。

在上述步骤中,改进的YOLO密集人脸检测模型包括特征提取网络和预测层。原始YOLO算法采用16个卷积层和4个池化层的单级网络,原始YOLO算法是将输入图像分成分成S×S个网格,每个网格预测B个边界框,每个边界框预测C个类别得分以及边界框的位置和大小信息。同时,利用卷积神经网络对整个图像进行特征提取,得到一个特征图,然后将特征图与网格信息结合起来进行目标检测。在其基础上,对特征提取网络和预测层结构进行改进。

对特征提取网络进行改进具体是指:使用单机网络提取特征得到特征图,使用空间滤波器对特征图进行特征重组得到子特征图,子特征图有多个,再将特征图与多个子特征图进行融合,得到多级特征图,得到多级特征图是为了让不同粒度的特征表达都参与检测。对特征提取网络进行改进后,得到的特征图有更丰富的小尺度人脸特征,有助于检测精度的提高。

使用单机网络提取特征,得到28*28*512分辨率的特征图,使用4个步长为2的空间滤波器对特征图进行特征重组,得到4个14*14*512分辨率的子特征图;融合多级特征图,让不同粒度的特征表达都参与检测,最终的特征输出维度是14*14*3072;提取的特征图会有较多的空间冗余性,通过在空间上降维,可以减少感受野中图像相邻像素的冗余性。降维是通过单幅图像数据的高维化,对单幅图像转化为高维空间中的数据集合进行的一种操作。如图4所示,图4是本申请实施例提供的一种人脸检测方法的预测层结构示意图。

对预测层结构进行改进具体指:将输出层的分辨率从7*7提升为14*14,同时改进每个栅格的预测框结构,输出张量维度是14*14*18;其中14*14对应将原始图像划分为14*14的栅格,每个栅格由18维向量组成,分别对应3个预测框,均负责预测不同尺度的人脸目标,彼此独立预测;在改进的预测层结构中,使用1*1的卷积核对特征图进行压缩,整合不同感受野的信息,加强对小尺度人脸的特征表示。即在卷积神经网络CNN中,决定某一层输出结果中一个元素所对应的输入层的区域大小,被称作感受野。对预测层进行改进,整个模型的预测框达到588个,而原始YOLO算法只有98个预测框,进一步提高检测精度,进而改善YOLO对小目标的检测效果不理想的问题。

收集和整理数据集,构建并训练预设密集人脸检测模型。使用改进的K-means聚类算法,得到更具代表性的初始化参数,减少初始化参数与最优化参数之间的偏差和方差,加速模型的收敛,有助于模型在训练过程中更快的微调预测框的位置信息。

通过上述步骤构建并训练预设密集人脸检测模型,再利用训练完成的预设密集人脸检测模型对大通道人群通行场景下的监控图像进行处理。

在一种可能的实施方式中,将预设密集人脸检测模型和低分辨率的遮挡人脸检测模型进行模型融合,得到预设模型,预设模型可完成大通道人群通行场景下的戴口罩人脸检测,既能采集密集的人脸图像,又能适应多尺寸和戴口罩遮挡的人脸图像。还可将预设密集人脸检测模型和低分辨率的遮挡人脸检测模型进行合并,合并后得到预设模型。

本申请实施例还提供了一种人脸检测系统,图5是本申请实施例提供的一种人脸检测系统的结构示意图,参考图5,服务器包括接收单元501、处理单元502以及输出单元503。

接收单元501:获取预设场景的监控图像,监控图像包括人脸图像和背景图像。

处理单元502:使用人脸识别算法对监控图像进行筛选,得到人脸图像;判断面部特征数量是否与预设面部特征数量一致;面部特征数量为任意一个人脸图像对应的面部特征数量。

输出单元503:若面部特征数量与预设面部特征数量不一致,则将人脸图像输入预设遮挡人脸检测模型中进行检测,预设遮挡人脸检测模型将人脸图像中缺失的面部特征进行补充,得到人员对应的人脸检测结果,并将人脸检测结果进行输出。

在一种可能的实施方式中,接收单元501用于采用MTCNN网络对监控图像进行处理,得到人脸检测框;处理单元502用于利用主干网络作为实时语义分割模型进行人脸语义分割,从人脸检测框中提取人脸框;将主干网络中使用残差模块结合SDD网络来提取人脸部件,将人脸部件进行关键点定位训练,得到预设遮挡人脸检测模型。

在一种可能的实施方式中,关键点定位包括左眼、右眼、鼻子、左嘴角以及右嘴角。

在一种可能的实施方式中,处理单元502用于主干网络使用Fast-SCNN网络作为实时语义分割模型进行人脸语义分割,得到标注各个像素类别图像;使用深度优先遍历算法从人脸检测框提取人脸框。

在一种可能的实施方式中,输出单元503用于若面部特征数量与预设面部特征数量一致,将人脸图像输入预设密集人脸检测模型中进行检测,得到人员对应的人脸检测结果,并将人脸检测结果进行输出。

在一种可能的实施方式中,接收单元501用于采用K-means聚类算法对标准参考框进行聚类分析,得到预测框;处理单元502用于使用预测框对监控图像进行处理;将处理后的监控图像输入改进的YOLO密集人脸检测模型进行训练,得到预设密集人脸检测模型。

在一种可能的实施方式中,处理单元502用于改进的YOLO密集人脸检测模型包括特征提取网络和预测层。

需要说明的是:上述实施例提供的系统在实现其功能时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将设备的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的系统和方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。

本申请还公开一种电子设备。参照图6,图6为本申请实施例提供了一种电子设备的结构示意图。所述电子设备600可以包括:至少一个处理器601,至少一个网络接口604,用户接口603,存储器605,至少一个通信总线602。

其中,通信总线602用于实现这些组件之间的连接通信。

其中,用户接口603可以包括显示屏(Display)、摄像头(Camera),可选用户接口603还可以包括标准的有线接口、无线接口。

其中,网络接口604可选的可以包括标准的有线接口、无线接口(如WI-FI接口)。

其中,处理器601可以包括一个或者多个处理核心。处理器601利用各种接口和线路连接整个服务器内的各个部分,通过运行或执行存储在存储器605内的指令、程序、代码集或指令集,以及调用存储在存储器605内的数据,执行服务器的各种功能和处理数据。可选的,处理器601可以采用数字信号处理(Digital Signal Processing,DSP)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)、可编程逻辑阵列(Programmable LogicArray,PLA)中的至少一种硬件形式来实现。处理器601可集成中央处理器(CentralProcessing Unit,CPU)、图像处理器(Graphics Processing Unit,GPU)和调制解调器等中的一种或几种的组合。其中,CPU主要处理操作系统、用户界面和应用请求等;GPU用于负责显示屏所需要显示的内容的渲染和绘制;调制解调器用于处理无线通信。可以理解的是,上述调制解调器也可以不集成到处理器601中,单独通过一块芯片进行实现。

其中,存储器605可以包括随机存储器(Random Access Memory,RAM),也可以包括只读存储器(Read-Only Memory)。可选的,该存储器605包括非瞬时性计算机可读介质(non-transitory computer-readable storage medium)。存储器605可用于存储指令、程序、代码、代码集或指令集。存储器605可包括存储程序区和存储数据区,其中,存储程序区。可存储用于实现操作系统的指令、用于至少一个功能的指令(比如触控功能、声音播放功能、图像播放功能等)、用于实现上述各个方法实施例的指令等;存储数据区可存储上面各个方法实施例中涉及的数据等。存储器605可选的还可以是至少一个位于远离前述处理器601的存储装置。

如图6所示,作为一种计算机存储介质的存储器605中可以包括操作系统、网络通信模块、用户接口模块以及人脸检测的应用程序。

在图6所示的电子设备600中,用户接口603主要用于为用户提供输入的接口,获取用户输入的数据;而处理器601可以用于调用存储器605中存储人脸检测的应用程序,当由一个或多个处理器执行时,使得电子设备执行如上述实施例中一个或多个所述的方法。

一种电子设备可读存储介质,所述电子设备可读存储介质存储有指令。当由一个或多个处理器执行时,使得电子设备执行如上述实施例中一个或多个所述的方法。

需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本申请并不受所描述的动作顺序的限制,因为依据本申请,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本申请所必需的。

在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。

在本申请所提供的几个实施例中,应该理解到,所披露的装置,可通过其他的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些服务接口,装置或单元的间接耦合或通信连接,可以是电性或其他的形式。

所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。

另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。

所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储器中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储器中,包括若干指令用以使得一台计算机设备(可为个人计算机、服务器或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储器包括:U盘、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。

以上所述者,仅为本公开的示例性实施例,不能以此限定本公开的范围。即但凡依本公开教导所作的等效变化与修饰,皆仍属本公开涵盖的范围内。本领域技术人员在考虑说明书及实践真理的公开后,将容易想到本公开的其他实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未记载的本技术领域中的公知常识或惯用技术手段。

相关技术
  • 一种人脸检测方法及人脸检测装置、存储介质
  • 一种基于压缩信息的人脸检测方法和系统
  • 人脸检测方法及系统
  • 人脸检测方法、系统及人脸检测模型训练方法、系统、存储介质及计算机设备
  • 人脸检测小模型优化训练方法、人脸检测方法及计算机系统
技术分类

06120116113956