掌桥专利:专业的专利平台
掌桥专利
首页

车辆控制方法、装置、电子设备及存储介质

文献发布时间:2023-06-19 18:35:48


车辆控制方法、装置、电子设备及存储介质

技术领域

本申请涉及汽车技术领域,尤其涉及一种车辆控制方法、装置、电子设备及存储介质。

背景技术

人们在乘车时,特别是长途中,经常会出现犯困的现象。乘车人员在犯困时,因座椅等车内的一些设置,都是满足于乘车人员的清醒状态的,因此,乘车人员犯困想要睡觉时,车内的一些设置难免会带来不适。而乘车人员在犯困时主动去调节一些车内设置,又会导致睡意全无。

可见,现有技术使得人们在乘车过程中睡觉时的舒适度较低。

发明内容

本申请实施例提供一种车辆控制方法,以解决现有技术使得人们在乘车过程中睡觉时的舒适度较低的问题。

为了解决上述技术问题,本申请实施例是这样实现的:

为了解决上述技术问题,本申请实施例提供了一种车辆控制方法,该方法包括:获取车辆座舱内的目标人员的图像;在获取到的连续第一预设数量帧的图像中,分别识别各个图像中的眼睛区域对应的特征信息;在识别到闭眼特征信息对应的图像数量比例大于第一阈值的情况下,确定所述目标人员处于疲劳状态;执行与所述目标人员的疲劳状态对应的目标动作。

本申请实施例还提供了一种车辆控制装置,该装置包括:获取模块,用于获取车辆座舱内的目标人员的图像;第一识别模块,用于在获取到的连续第一预设数量帧的图像中,分别识别各个图像中的眼睛区域对应的特征信息;第一确定模块,用于在识别到闭眼特征信息对应的图像数量比例大于第一阈值的情况下,确定所述目标人员处于疲劳状态;执行模块,用于执行与所述目标人员的疲劳状态对应的目标动作。

本申请实施例还提供了一种电子设备,该设备包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如前述的车辆控制方法。

本申请实施例还提供了一种可读存储介质,当所述存储介质中的指令由电子设备的处理器执行时,使得电子设备能够执行前述的车辆控制方法。

这样,在本申请的实施例中,在车辆行驶的过程中,车辆座舱内的摄像头实时采集对应的目标人员的图像。然后,获取采集的图像,并对采集的图像进行眼睛区域的识别,以进一步识别出眼睛区域对应的特征信息。这里的特征信息包括闭眼特征信息和非闭眼特征信息中的任一种。其中,将获取到的连续第一预设帧数的图像,一一识别各个图像中的眼睛区域对应的特征信息,若识别到闭眼特征信息对应的图像数量比例大于第一阈值,则认为目标人员正在频繁地闭眼、或者保持闭眼,因此,可以认为目标人员当前处于疲劳状态,希望能睡一觉,从而在车辆座舱内自动执行目标动作,目标动作包括但不限于:调节车辆座舱内相关配置,以使得车辆座舱内的相关配置与目标人员的疲劳状态是匹配的,有助于目标人员入睡,进而提高目标人员在乘车过程中,睡觉时的舒适度。

上述说明仅是本申请技术方案的概述,为了能够更清楚了解本申请的技术手段,而可依照说明书的内容予以实施,并且为了让本申请的上述和其它目的、特征和优点能够更明显易懂,以下特举本申请的具体实施方式。

附图说明

为了更清楚地说明本申请实施例的技术方案,下面将对本申请实施例的描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。

图1为本申请实施例的车辆控制方法的流程图;

图2为本申请实施例的车辆控制装置的框图。

具体实施方式

下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。

在现有技术中,人们在乘车过程中,经常会出现犯困等现象,想要在车内小憩。而在犯困之前,车辆座舱内的一些配置,如座椅角度、音乐音量等都是基于车内人员清醒时,由相关人员手动调节所至的,因此,更加符合车内人员在清醒时的乘车需求。而当车内人员想要在车内小憩时,因困意较浓,无法调整车辆座舱内的相关配置,导致车内人员睡觉时的舒适度较低。

基于现有技术存在的以上不足,本申请提供了一种车辆控制方法的多个实施例,以克服以上不足。

参见图1,示出了本申请一个实施例的车辆控制方法的步骤流程图,如图1所示,该车辆控制方法可以包括如下步骤:

步骤S1:获取车辆座舱内的目标人员的图像。

在该步骤中,目标人员包括驾驶人员和乘车人员中的至少一种。

当目标人员包括驾驶人员时,本实施例更适用于无人驾驶的场景。

可选地,车内的每个座椅前面空间的某处位置,分别对应安装一组摄像头,以确保任意组摄像头可采集到车内对应座椅上乘坐的人员图像。

可选地,车内的每排座椅前面空间的某处位置,分别对应安装一组摄像头,以确保任意组摄像头可采集到车内对应一排上乘坐的所有人员的图像。这样,其实是一排的乘车人员共有一组摄像头,可以减少摄像头的安装成本和物料成本等。

可选地,在本实施例中,由相关人员(如车主),在与车辆连接的手机应用程序中,或者车载综合信息处理(In-Vehicle Infotainment简称IVI)系统中,提供的设置页面内,选择是否打开车辆座舱内的某个拍照开关。若选择打开某个拍照开关,则当车辆处于上电状态时,车辆座舱内的对应摄像头可以进行拍照动作;若选择关闭某个拍照开关,则当车辆处于上电状态时,车辆座舱内的对应摄像头不可以进行拍照动作。

其中,还可以是车辆座舱内的所有摄像头由一个拍照开关控制。

因此,当车辆座舱内的某个拍照开关被打开时,车辆行驶的过程中,车辆座舱内的对应摄像头会实时地采集对应座椅上的人员图像,从而在该步骤中,获取摄像头所采集的人员图像,作为目标人员的图像,以便于在后续的步骤中,对图像进行分析。

例如,在车辆行驶的过程中,车辆座舱内前排的摄像头会实时地采集乘坐在副驾驶座上的人员图像。

可选地,本实施例中的车辆控制方法应用于电子设备,该电子设备包括车载设备、与车辆连接的移动终端等。从而电子设备可获取目标人员的图像。

其中,该步骤中的图像为人脸图像,以便于在后续的步骤中,可以在图像中识别眼睛区域。

因此,在该步骤中,在获取到任意时刻采集的图像之后,需要对图像进行人脸检测。

可选地,检测过程为:将获取到的摄像头采集的图像,上传至云端后台系统,从而云端后台系统对获取到的图像进行检测。首先,识别图像中是否有人体拍摄对象,以区分出当前所拍摄的座椅上是否有人员;第二,当图像中包括人体拍摄对象时,加载待检图像帧至分类器(已通过大量采集的样本集中训练出的分类器)中,通过对图像像素点的扫描,找到图像中包含的人脸,标定该区域,从而确定为人脸图像。后续,在已标定的人脸区域中进行对眼睛区域等的识别处理,可缩小计算区域,排除非人脸因素的干扰,极大地提高了系统的运行速率。

步骤S2:在获取到的连续第一预设数量帧的图像中,分别识别各个图像中的眼睛区域对应的特征信息。

在该步骤中,在识别出图像的人脸区域之后,在人脸区域中识别眼睛区域。

可选地,在识别眼睛区域的过程中,具体包括眼睛粗略定位和眼睛精确定位两个阶段。在眼睛粗略定位阶段中,根据人脸传统的三庭五眼的特征,粗略定位存在眼睛的大致区域,该区域可能同时包含眉毛、发角等干扰特征,但也有助于进一步缩小计算区域;接着,在眼睛精确定位阶段中,将眼睛粗略定位阶段得到的眼睛粗略区域通过一定阈值转换为二值化图像,再进行垂直方向上的灰度投影,求得直方图。因为眼睛和周围皮肤的灰度存在较大差异,所以可根据直方图中的最高的波峰和最低的波谷,在图像的人脸区域中,确定眼睛上边缘和下边缘在竖直方向上的坐标,从而将眼睛上边缘和下边缘之间的区域作为眼睛精确定位区域,进而完成对眼睛进行精确定位。

其中,在本实施例中,眼睛上边缘即眼睛上眼皮,眼睛下边缘即眼睛下眼皮,眼睛区域是指眼睛的上眼皮和下眼皮围成的区域。

然后,在识别出各个图像中的眼睛区域之后,识别各个眼睛区域对应的特征信息。

在本实施例中,特征信息包括两种,一种是闭眼特征信息,另一种是非闭眼特征信息。

进一步地,本实施例将连续第一预设数量帧的图像的眼睛区域,进行比对,以根据每个眼睛区域对应的特征信息,判断目标人员是否处于犯困、睡着等疲劳状态。

其中,连续第一预设数量帧的图像,可以是采集某固定时长的图像而来。

例如,固定时长为5分钟。

这样,相比于仅通过一帧图像来判断目标人员是否处于疲劳状态,可以避免判断结果具有偶然性,也避免将目标人员眨眼等无意识行为误认为是目标人员处于疲劳状态。

其中,针对不同的光线,如夜间光线较暗、白天光线较亮等,对眼睛精确定位区域分别进行不同阈值的二值化,以获取最佳显示效果的眼睛区域,以准确识别眼睛区域对应的特征信息。

步骤S3:在识别到闭眼特征信息对应的图像数量比例大于第一阈值的情况下,确定目标人员处于疲劳状态。

在该步骤中,在识别每帧图像中的眼睛区域对应的特征信息后,若对应为闭眼特征信息,则该帧图像记录为“0”值;若对应为非闭眼特征信息,则该帧图像记录为“1”值。这样,可获取关于“1”、“0”交错出现的序列,对疲劳状态的分析即可用“0”值在该序列中所占的比例来描述,当比例高于一定的实验比例时,说明目标人员闭眼频繁,则可认为目标人员出现犯困、睡着等现象,从而确定目标人员处于疲劳状态。

对应地,一定的实验比例即为该步骤中的第一阈值。

可选地,第一阈值的取值越高,误判疲劳状态的概率越低;第一阈值的取值越低,采取措施的频率越高。因此,可根据实际需求设置第一阈值的取值。

可参考地,第一阈值为80%,即指闭眼时间占某一特定时间的百分率达到80%的时候就判断为目标人员处于疲劳状态。

步骤S4:执行与目标人员的疲劳状态对应的目标动作。

在该步骤中,目标动作用于帮助目标人员入睡,从而提高目标人员在睡觉时的舒适度。

例如,目标动作包括调节车辆座舱内的相关配置等。

这样,在本申请的实施例中,在车辆行驶的过程中,车辆座舱内的摄像头实时采集对应的目标人员的图像。然后,获取采集的图像,并对采集的图像进行眼睛区域的识别,以进一步识别出眼睛区域对应的特征信息。这里的特征信息包括闭眼特征信息和非闭眼特征信息中的任一种。其中,将获取到的连续第一预设帧数的图像,一一识别各个图像中的眼睛区域对应的特征信息,若识别到闭眼特征信息对应的图像数量比例大于第一阈值,则认为目标人员正在频繁地闭眼、或者保持闭眼,因此,可以认为目标人员当前处于疲劳状态,希望能睡一觉,从而在车辆座舱内自动执行目标动作,目标动作包括但不限于:调节车辆座舱内相关配置,以使得车辆座舱内的相关配置与目标人员的疲劳状态是匹配的,有助于目标人员入睡,进而提高目标人员在乘车过程中,睡觉时的舒适度。

在本申请另一个实施例的车辆控制方法的步骤流程中,分别识别各个图像中的眼睛区域对应的特征信息,可以包括如下步骤:

子步骤A1:分别获取各个图像中的眼睛区域的瞳孔子区域面积。

通常,人体在闭眼时,眼皮将瞳孔覆盖住,因此露出来的瞳孔是很少的、甚至没有。本实施例利用这一现象,在识别各个图像的眼睛区域之后,获取各个眼睛区域内的瞳孔子区域面积。

子步骤A2:确定各个图像中的眼睛区域的瞳孔子区域面积的最小值。

子步骤A3:将最小值所在的眼睛区域对应的特征信息,确定为闭眼特征信息。

在本实施例中,在获取的各个瞳孔子区域面积中,找到最小的瞳孔子区域面积。

通常,人在一定的时长内,会进行至少一次眨眼动作,以缓解眼睛疲劳。因此,本实施例在获取的连续多帧图像中,通过找到最小的瞳孔子区域面积,可以找到目标人员眨眼那一瞬间闭眼时的眼睛特征,将其作为闭眼特征信息。

进一步地,在获取的连续多帧图像中,将眼睛区域中的瞳孔子区域面积为最小值对应的图像,作为闭眼特征信息对应的图像;其它图像作为非闭眼特征信息对应的图像,包括睁眼特征信息和半睁眼特征信息。

其中,瞳孔子区域面积的最小值可以是零。

需要说明的是,为了确保获取的连续多帧图像中,至少包括一帧闭眼特征信息对应的图像的,对第一预设数量是有要求的。这需要结合人大概多久会眨一次眼睛这一信息,得到一个时长,使得采集第一预设数量帧图像所跨越的时长,是大于或者等于这一时长的。

比如,人一分钟眨一次眼睛,则至少连续采集一分钟的图像,将采集到的图像帧数,作为第一预设数量。

另外,基于眼睛区域包括瞳孔子区域和眼白子区域两部分,两部分颜色色差较大,可识别眼睛区域中的黑色子区域,来实现对瞳孔子区域的识别。

对应地,在本实施例中,在采集的多帧图像中,将瞳孔子区域的面积等于最小值,所对应的图像,均记录为“0”值,其它图像记录为“1”值。

在本实施例中,提供了一种如何识别闭眼特征信息的方法。在目标人员乘车的过程中,可以获取每一个固定时长内的连续多帧图像,并将获取的连续多帧图像中,瞳孔子区域面积最小的眼睛区域,认为是该时长内的闭眼特征信息对应的眼睛区域,从而以该眼睛区域为依据,在采集的连续多帧图像,找到目标人员闭眼所占的时间比例,并依据这一比例,确定目标人员是否处于疲劳状态。以此类推,继续进行下个时长的图像分析。可见,在本实施例中,针对不同的人员的眼睛大小、瞳孔大小、闭眼习惯等特征,以及同一人员在不同的时长内的眼睛大小、瞳孔大小、闭眼习惯等特征,定义不同标准的闭眼特征信息,来对应识别多帧图像中的闭眼图像,从而可以提高判断目标人员是否处于疲劳状态的准确率。

在本申请另一个实施例的车辆控制方法的步骤流程中,在步骤S1之后,还可以包括如下步骤:

步骤B1:在获取到的连续第二预设数量帧的图像中,分别识别各个图像中的嘴巴区域对应的特征信息。

在该步骤中,在获取到任意时刻采集的图像之后,若该图像为人脸图像,则在图像的人脸区域中识别嘴巴区域。

可选地,在识别嘴巴区域的过程中,包括嘴巴粗略定位和嘴巴精确定位两个阶段。在嘴巴粗略定位阶段中,根据人脸传统的三庭五眼的特征,粗略定位存在嘴巴的大致区域,但也有助于进一步缩小计算区域;接着,在嘴巴精确定位阶段中,将嘴巴粗略定位阶段得到的嘴巴粗略区域通过一定阈值转换为二值化图像,再进行垂直方向上的灰度投影,求得直方图。因为嘴巴和周围皮肤的灰度存在较大差异,所以可根据直方图中的最高的波峰和最低的波谷,在图像的人脸区域中,得到上嘴唇和下嘴唇之间的连通区域的像素值,作为嘴巴精确定位区域,进而完成对嘴巴进行精确定位。

其中,在本实施例中,嘴巴区域是指上嘴唇的上边缘和下嘴唇的下边缘围成的连通区域,可以防止鼻孔及胡须对计算带来影响。

然后,在识别出各个图像中的嘴巴区域之后,识别各个嘴巴区域对应的特征信息。

在本实施例中,特征信息包括两种,一种是张开特征信息,另一种是非张开特征信息。其中,张开特征信息可以是由嘴巴打哈欠的张开程度来定义,以区分一般说话、吃饭等时的嘴巴张开程度。

进一步地,本实施例将连续第二预设数量帧的图像的嘴巴区域,进行比对,以根据每个嘴巴区域对应的特征信息,判断目标人员是否处于犯困、睡着等疲劳状态。

其中,连续第二预设数量帧的图像,可以是采集某固定时长的图像而来。

例如,固定时长为5分钟。

这样,相比于仅通过一帧图像来判断目标人员是否处于疲劳状态,可以避免判断结果具有偶然性,也避免将目标人员张嘴等无意识行为误认为是目标人员处于疲劳状态。

其中,针对不同的光线,如夜间光线较暗、白天光线较亮等,对嘴巴精确定位区域分别进行不同阈值的二值化,以获取最佳显示效果的嘴巴区域,以准确识别嘴巴区域对应的特征信息。

步骤B2:在识别到张开特征信息对应的图像数量比例大于第二阈值的情况下,确定目标人员处于疲劳状态。

在该步骤中,在识别每帧图像中的嘴巴区域对应的特征信息后,若对应为张开特征信息,则该帧图像记录为“0”值;若对应为非张开特征信息,则该帧图像记录为“1”值。这样,可获取关于“1”、“0”交错出现的序列,对疲劳状态的分析即可用“0”值在该序列中所占的比例来描述,当百分比高于一定的实验比例时,即可认为目标人员频繁地打哈欠,出现犯困、睡着等现象,从而确定目标人员处于疲劳状态。

对应地,一定的实验比例即为该步骤中的第二阈值。

可选地,第二阈值的取值越高,误判疲劳状态的概率越低;第二阈值的取值越低,采取措施的频率越高。因此,可根据实际需求设置第二阈值的取值。

在本实施例中,通过嘴巴的张开程度来判断是否疲劳。嘴巴的状态通常有三种:闭合、说话、打哈欠,而人在疲劳时,会频繁地打哈欠。因此,本实施例的嘴巴区域的特征信息包括张开特征信息和非张开特征信息。这里的张开特征信息表示一定的张开程度,以用来描述打哈欠的张开程度;非张开特征信息表示闭合,以及表示另一个张开程度,该张开程度以用来描述平常说话的张开程度。基于此,当连续多帧图像中,张开特征信息对应的图像数量大于第二阈值,即打哈欠所占的时间比例大于第二阈值,认为目标人员正在频繁地打哈欠,确定其处于疲劳状态。可见,本实施例提供了另一种对目标人员疲劳状态的判断方法,与前述实施例中提供的基于眼睛区域的特征对目标人员疲劳状态的判断方法,可以相互结合,以提高本申请对疲劳状态的判断准确率;或者,两种方法可以单独应用,以丰富本申请对疲劳状态判断的实现场景。

在本申请另一个实施例的车辆控制方法的步骤流程中,分别识别各个图像中的嘴巴区域对应的特征信息,可以包括如下步骤:

子步骤C1:分别获取各个图像中的嘴巴区域面积。

通常,人的嘴巴的状态通常有三种:闭合、说话、打哈欠。嘴巴闭合时,嘴巴区域面积最小;嘴巴说话时,嘴巴区域面积比较大;嘴巴打哈欠时,嘴巴区域面积最大。基于此,首先获取各个嘴巴区域面积。

子步骤C2:确定各个图像中的嘴巴区域面积的最小值。

子步骤C3:将嘴巴区域面积大于最小值的预设倍数所在的嘴巴区域对应的特征信息,确定为张开特征信息。

在本实施例中,在获取的各个嘴巴区域面积中,找到最小的嘴巴区域面积,以作为嘴巴闭合时的嘴巴区域面积。

通常,人在一定的时长内,会进行至少一次闭嘴动作,例如,说话时,当发出某些声音时,如“ba”,嘴巴会瞬间闭合。因此,本实施例在获取的连续多帧图像中,通过找到最小的嘴巴区域面积,可以找到目标人员闭嘴那一瞬间的嘴巴特征,可将其作为用于定义张开特征信息的标准。

进一步地,当嘴巴区域面积大于最小的嘴巴区域面积的一定倍数时,认为嘴巴张开程度较大,目标人员正在打哈欠,对应地,此时嘴巴区域对应为张开特征信息。

其中,一定倍数即预设倍数。

进一步地,在获取的连续多帧图像中,将嘴巴区域面积大于为最小值的预设倍数对应的图像,作为张开特征信息对应的图像;其它图像作为非张开特征信息对应的图像,包括闭嘴特征信息和半张开特征信息。

为了确保在获取的连续多帧图像中,得到的嘴巴区域面积的最小值,对应为嘴巴闭合,对第二预设数量是有要求的。这需要结合人大概多久会闭一次嘴巴这一信息,得到一个时长,使得采集第二预设数量帧图像所跨越的时长,是大于或者等于这一时长的。

比如,人一分钟闭一次嘴巴,则至少连续采集一分钟的图像,将获取到的图像帧数,作为第二预设数量。

在本实施例中,提供了一种如何识别张开特征信息的方法。在目标人员乘车的过程中,可以获取每一个固定时长内的连续多帧图像,并将获取的连续多帧图像中,嘴巴区域面积最小的嘴巴区域,认为是该时长内的闭嘴特征信息对应的嘴巴区域,从而以该嘴巴区域面积为依据,选定一个预设倍数,二者相乘,可以得到一个面积阈值。当获取的连续多帧图像中,嘴巴区域面积大于该面积阈值时,对应为张开特征信息;反之,对应为非张开特征信息,从而,可以得到目标人员在该固定时长内,打哈欠所占的时间比例,并依据这一比例,确定目标人员是否处于疲劳状态。以此类推,继续进行下个时长的图像分析。可见,在本实施例中,针对不同的人员的嘴巴大小、闭嘴习惯等嘴巴特征,以及同一人员在不同的时长内的嘴巴大小、闭嘴习惯等嘴巴特征,定义不同标准的张开特征信息,来对应识别多帧图像中的打哈欠图像,从而可以提高判断目标人员是否处于疲劳状态的准确率。

在本申请另一个实施例的车辆控制方法的步骤流程中,步骤S4,可以包括如下步骤中的至少任一项:

子步骤D1:调节目标人员的座椅的位置状态信息,至目标位置状态信息。

座椅的位置状态信息包括靠背角度信息、坐垫角度信息等。

例如,目标人员为副驾驶座上乘坐的人员,对应地,目标人员的座椅为副驾驶座椅。

其中,目标位置状态信息可以是云端根据大量用户数据和人体相关数据,自动生成的与目标人员的疲劳状态匹配的最佳位置状态信息;目标位置状态信息也可以是相关人员通过系统提供的入口,手动设置的最佳位置状态信息。

这里的人体相关数据如人体睡觉时,最合适的身体仰卧角度等。

可见,目标位置状态信息可确保目标人员在乘车过程中,睡觉期间的舒适度较高。

子步骤D2:调节车辆座舱内播放音频的音量信息,至目标音量信息。

其中,目标音量信息可以是云端根据大量用户数据和人体相关数据,自动生成的与目标人员的疲劳状态匹配的最佳音量信息;目标音量信息也可以是相关人员通过系统提供的入口,手动设置的最佳音量信息。

这里的人体相关数据如人体睡觉时,耳朵能接受的最佳音量,以在较轻柔的声音中助于人体入睡。

可见,目标音量信息可确保目标人员在乘车过程中,睡觉期间的舒适度较高。

子步骤D3:调节车辆座舱内显示屏的显示亮度信息,至目标显示亮度信息。

其中,目标显示亮度信息可以是云端根据大量用户数据和人体相关数据,自动生成的与目标人员的疲劳状态匹配的最佳显示亮度信息;目标显示亮度信息也可以是相关人员通过系统提供的入口,手动设置的最佳显示亮度信息。

这里的人体相关数据如人体睡觉时,闭眼后能接受的最佳显示亮度,以在较暗的环境中助于人体入睡。

可见,目标显示亮度信息可确保目标人员在乘车过程中,睡觉期间的舒适度较高。

在本实施例中,首先,自动获取车辆当前座舱内的相关配置信息,包括目标人员的座椅的位置状态信息、播放音频的音量信息和显示屏的显示亮度信息中的至少一项。其次,将获取某项信息(如位置状态信息、播放音频的音量信息和显示屏的显示亮度信息中的任一项),与预存的该项目标信息进行比对。若当前的某项信息与对应的目标信息不匹配,则基于该项的目标信息对当前的该项信息进行调节,直至当前的该项信息与对应的目标信息匹配。

其中,匹配可以理解为参数一致。

可选地,对于车辆座舱内的不同乘坐位置,因对应的座椅配置不同、距离音箱的距离不同、距离显示屏的距离也不同,因此,对于同一项信息(如座椅的位置状态信息、播放音频的音量信息和显示屏的显示亮度信息中的任一项),可设置不同参数的目标信息。

另外,对于不同的乘车人员,因乘车习惯不同、身体结构不同,对于同一项信息(如座椅的位置状态信息、播放音频的音量信息和显示屏的显示亮度信息中的任一项),可设置不同参数的目标信息。

可选地,云端用于存储目标位置状态信息、目标音量信息和目标显示亮度信息。进一步地,由云端获取的当前位置状态信息、当前播放音频的音量信息和当前显示屏的显示亮度信息,与对应的目标信息进行比对,以在当前某些信息与对应的目标信息不匹配的情况下,由云端下发相关的指令给车机或者车联网系统(telematics box,简称tbox),以由车辆端调节音乐音量、车机屏亮度、副驾座椅的靠背角度、坐垫角度等信息。

在本实施例中,可基于目标人员当前处于疲劳状态这一现象,针对车辆座舱内相关配置进行调节,使调节后的相关配置能够助于目标人员入睡,以提高目标人员在乘车过程中,睡觉期间的舒适度。其中,基于车内最易影响目标人员睡觉的几项因素,如所乘座椅角度、车内显示屏发出的灯光、车内播放音乐等,可以针对这几项配置,进行自动调节,以增加目标人员的用车体验感。

综上,本申请通过在车辆座舱内对乘坐的目标人员进行拍照,并将照片进行人脸识别,可以得到目标人员的疲劳状态,并根据目标人员的疲劳状态自动调节车辆座舱内的相关配置,以提高在车辆座舱内乘坐的目标人员的舒适度,从而带来全新的体验效果。

参见图2,示出了本申请另一个实施例的车辆控制装置的框图,该车辆控制装置包括:

获取模块10,用于获取车辆座舱内的目标人员的图像;

第一识别模块20,用于在获取到的连续第一预设数量帧的图像中,分别识别各个图像中的眼睛区域对应的特征信息;

第一确定模块30,用于在识别到闭眼特征信息对应的图像数量比例大于第一阈值的情况下,确定目标人员处于疲劳状态;

执行模块40,用于执行与目标人员的疲劳状态对应的目标动作。

这样,在本申请的实施例中,在车辆行驶的过程中,车辆座舱内的摄像头实时采集对应的目标人员的图像。然后,获取采集的图像,并对采集的图像进行眼睛区域的识别,以进一步识别出眼睛区域对应的特征信息。这里的特征信息包括闭眼特征信息和非闭眼特征信息中的任一种。其中,将获取到的连续第一预设帧数的图像,一一识别各个图像中的眼睛区域对应的特征信息,若识别到闭眼特征信息对应的图像数量比例大于第一阈值,则认为目标人员正在频繁地闭眼、或者保持闭眼,因此,可以认为目标人员当前处于疲劳状态,希望能睡一觉,从而在车辆座舱内自动执行目标动作,目标动作包括但不限于:调节车辆座舱内相关配置,以使得车辆座舱内的相关配置与目标人员的疲劳状态是匹配的,有助于目标人员入睡,进而提高目标人员在乘车过程中,睡觉时的舒适度。

可选地,第一识别模块20,包括:

第一面积获取单元,用于分别获取各个图像中的眼睛区域的瞳孔子区域面积;

第一面积确定单元,用于确定各个图像中的眼睛区域的瞳孔子区域面积的最小值;

第一特征确定单元,用于将最小值所在的眼睛区域对应的特征信息,确定为闭眼特征信息。

可选地,装置还包括:

第二识别模块,用于在获取到的连续第二预设数量帧的图像中,分别识别各个图像中的嘴巴区域对应的特征信息;

第二确定模块,用于在识别到张开特征信息对应的图像数量比例大于第二阈值的情况下,确定目标人员处于疲劳状态。

可选地,第二识别模块,包括:

第二面积获取单元,用于分别获取各个图像中的嘴巴区域面积;

第二面积确定单元,用于确定各个图像中的嘴巴区域面积的最小值;

第二特征确定单元,用于将嘴巴区域面积大于最小值的预设倍数所在的嘴巴区域对应的特征信息,确定为张开特征信息。

可选地,执行模块40,包括以下至少任一项:

第一调节单元,用于调节目标人员的座椅的位置状态信息,至目标位置状态信息;

第二调节单元,用于调节车辆座舱内播放音频的音量信息,至目标音量信息;

第三调节单元,用于调节车辆座舱内显示屏的显示亮度信息,至目标显示亮度信息。

另外地,本申请实施例还提供了一种电子设备,包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现上述车辆控制方法。

本申请实施例还提供了一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,计算机程序被处理器执行时实现上述车辆控制方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。其中,所述的计算机可读存储介质,如只读存储器(Read-Only Memory,简称ROM)、随机存取存储器(Random Access Memory,简称RAM)、磁碟或者光盘等。

需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。

通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本申请各个实施例所述的方法。

上面结合附图对本申请的实施例进行了描述,但是本申请并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本申请的启示下,在不脱离本申请宗旨和权利要求所保护的范围情况下,还可做出很多形式,均属于本申请的保护之内。

本领域普通技术人员可以意识到,结合本申请实施例中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。

所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。

在本申请所提供的实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。

所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。

另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。

所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。

以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以权利要求的保护范围为准。

技术分类

06120115622176