掌桥专利:专业的专利平台
掌桥专利
首页

眼动追踪方法、装置、设备及存储介质

文献发布时间:2024-04-18 19:58:26


眼动追踪方法、装置、设备及存储介质

技术领域

本公开涉及眼动追踪技术领域,尤其涉及一种眼动追踪方法、装置、设备及存储介质。

背景技术

眼动追踪技术是研究和利用眼球动作的一种重要手段,其主要是研究眼球运动信息的获取、建模和模拟等,基于该技术可以确定人眼关注的焦点,从而可以分析人的行为和意识。目前眼动追踪技术己广泛应用于人机交互、体育运动、购物场景等领域。

相关技术中,眼动追踪设备在经过校准后,可以对用户的眼动进行追踪,如采集用户注视的场景图像以及用户的眼动数据,并结合角膜反射法(corneal reflection)预测出用户的注视点。然而在眼动追踪设备使用过程中,一旦用户佩戴设备的位置发生改变,或用户使用设备的场景发生改变,就容易出现眼动追踪漂移问题,即眼动追踪设备所预测出的注视点相对于用户的真实注视点(ground truth)出现一定偏差,无法满足用户对眼动追踪准确度的要求。

发明内容

为克服相关技术中存在的问题,本公开实施例提供一种眼动追踪方法、装置、设备及存储介质,用以解决相关技术中的缺陷。

根据本公开实施例的第一方面,提供一种眼动追踪方法,所述方法包括:

基于预设眼动追踪方式获取被测者的初步预测注视点;

将所述预测注视点的坐标输入至预先拟合的薄板样条插值函数,得到目标插值点的坐标;

基于所述目标插值点的坐标确定所述被测者的实际预测注视点。

在一些实施例中,所述方法还包括基于以下方式拟合所述薄板样条插值函数:

在当前采集的前景图像中检测目标特征点;

响应于检测到所述目标特征点,将所述目标特征点的第一坐标与基于预设眼动追踪方式获取的当前预测注视点的第二坐标进行匹配;

响应于所述第一坐标与所述第二坐标匹配成功,将所述第一坐标和所述第二坐标分别作为控制点的坐标和对应的插值点的坐标,拟合所述薄板样条插值函数。

在一些实施例中,所述在当前采集的前景图像中检测目标特征点,包括:

在当前采集的前景图像中检测预设物体的特征点;

响应于检测到所述预设物体的特征点,将所述预设物体的特征点确定为目标特征点。

在一些实施例中,所述在当前采集的前景图像中检测目标特征点,包括:

在当前采集的前景图像中检测预设物体上粘贴的标记点;

响应于检测到所述标记点,将所述标记点确定为目标特征点。

在一些实施例中,所述在当前采集的前景图像中检测目标特征点,包括:

在当前采集的前景图像中检测预设设备屏幕上显示的标记点;

响应于检测到所述预设设备屏幕上显示的标记点,将所述标记点确定为目标特征点。

在一些实施例中,所述在当前采集的前景图像中检测目标特征点,包括:

基于预设频率在当前采集的前景图像中检测目标特征点。

根据本公开实施例的第二方面,提供一种眼动追踪装置,所述装置包括:

初步注视点获取模块,用于基于预设眼动追踪方式获取被测者的初步预测注视点;

目标插值点获取模块,用于将所述预测注视点的坐标输入至预先拟合的薄板样条插值函数,得到目标插值点的坐标;

实际注视点确定模块,用于基于所述目标插值点的坐标确定所述被测者的实际预测注视点。

在一些实施例中,所述装置还包括函数拟合模块;

所述函数拟合模块,包括:

检测单元,用于在当前采集的前景图像中检测目标特征点;

匹配单元,用于响应于检测到所述目标特征点,将所述目标特征点的第一坐标与基于预设眼动追踪方式获取的当前预测注视点的第二坐标进行匹配;

拟合单元,用于响应于所述第一坐标与所述第二坐标匹配成功,将所述第一坐标和所述第二坐标分别作为控制点的坐标和对应的插值点的坐标,拟合所述薄板样条插值函数。

在一些实施例中,所述检测单元还用于:

在当前采集的前景图像中检测预设物体的特征点;

响应于检测到所述预设物体的特征点,将所述预设物体的特征点确定为目标特征点。

在一些实施例中,所述检测单元还用于:

在当前采集的前景图像中检测预设物体上粘贴的标记点;

响应于检测到所述标记点,将所述标记点确定为目标特征点。

在一些实施例中,所述检测单元还用于:

在当前采集的前景图像中检测预设设备屏幕上显示的标记点;

响应于检测到所述预设设备屏幕上显示的标记点,将所述标记点确定为目标特征点。

在一些实施例中,所述检测单元还用于:

基于预设频率在当前采集的前景图像中检测目标特征点。

根据本公开实施例的第三方面,提供一种眼动追踪设备,所述设备包括:

处理器以及用于存储计算机程序的存储器;

其中,所述处理器被配置为在执行所述计算机程序时,实现:

基于预设眼动追踪方式获取被测者的初步预测注视点;

将所述预测注视点的坐标输入至预先拟合的薄板样条插值函数,得到目标插值点的坐标;

基于所述目标插值点的坐标确定所述被测者的实际预测注视点。

根据本公开实施例的第四方面,提供一种计算机可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现:

基于预设眼动追踪方式获取被测者的初步预测注视点;

将所述预测注视点的坐标输入至预先拟合的薄板样条插值函数,得到目标插值点的坐标;

基于所述目标插值点的坐标确定所述被测者的实际预测注视点。

本公开的实施例提供的技术方案可以包括以下有益效果:

本公开通过基于预设眼动追踪方式获取被测者的初步预测注视点,并将所述预测注视点的坐标输入至预先拟合的薄板样条插值函数,得到目标插值点的坐标,进而基于所述目标插值点的坐标确定所述被测者的实际预测注视点,由于薄板样条插值函数的特性,即拟合函数时采用的一个控制点的变化可以带动周围的非控制点发生不同程度的非刚性变化,因而实际预测注视点的坐标会随着初步预测注视点的变化发生不同程度的位移,因而可以使实际预测注视点更加靠近被测者的真实注视点(ground truth),从而可以提高眼动追踪的准确性,且本公开可以适用于各种预设眼动追踪方式,且无需修改预设眼动追踪方式的算法程序,具有较强的灵活性。

应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。

附图说明

此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。

图1是根据本公开一示例性实施例示出的一种眼动追踪方法的流程图;

图2是根据本公开一示例性实施例示出的如何拟合所述薄板样条插值函数的流程图;

图3是根据本公开一示例性实施例示出的如何在当前采集的前景图像中检测目标特征点的流程图;

图4是根据本公开又一示例性实施例示出的如何在当前采集的前景图像中检测目标特征点的流程图;

图5是根据本公开另一示例性实施例示出的如何在当前采集的前景图像中检测目标特征点的流程图;

图6是根据本公开一示例性实施例示出的一种眼动追踪装置的框图;

图7是根据本公开又一示例性实施例示出的一种眼动追踪装置的框图;

图8是根据本公开一示例性实施例示出的一种眼动追踪设备的框图。

具体实施方式

这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施例并不代表与本公开相一致的所有实施例。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。

图1是根据一示例性实施例示出的一种眼动追踪方法的流程图;本实施例的方法可以应用于眼动追踪设备(如,智能眼镜、智能头盔等可穿戴式电子设备等)。

如图1所示,该方法包括以下步骤S101-S102:

在步骤S101中,基于预设眼动追踪方式获取被测者的初步预测注视点。

本实施例中,当用户佩戴眼动追踪设备并开启眼动追踪功能后,该设备可以基于预设眼动追踪方式获取被测者的初步预测注视点。

其中,上述预设眼动追踪方式可以基于实际业务需要进行设置,如设置为相关技术中的基于角膜反射法的眼动追踪方式等,本实施例对此不进行限定。

举例来说,上述基于预设眼动追踪方式获取被测者的初步预测注视点,可以包括基于前景摄像头获取被测者眼前的前景图像,并基于眼动传感器(图,图像采集模块等)采集用户的眼动数据(如,被测者的眼睛图像),进而可以基于角膜反射法对该前景图像以及眼动数据进行分析,得到被测者的初步预测注视点。具体分析过程可以参见相关技术中关于角膜反射法的描述,本实施例对此不进行限定。

值得说明的是,除上述基于角膜反射法的眼动追踪方式外,在实际实施本实施例过程中还可以基于需要采用其他眼动追踪方式,所得的被测者的初步预测注视点同样适用于本实施例的后续步骤。

在步骤S102中,将所述预测注视点的坐标输入至预先拟合的薄板样条插值函数,得到目标插值点的坐标。

本实施例中,当基于预设眼动追踪方式获取被测者的初步预测注视点后,可以将所述预测注视点的坐标输入至预先拟合的薄板样条插值函数,得到目标插值点的坐标。其中,预测注视点的坐标可以作为薄板样条插值函数的自变量,而目标插值点的坐标则为薄板样条插值函数的相应因变量。

值得说明的是,薄板样条插值函数具有如下特性,即拟合函数时采用的一个控制点的变化可以带动周围的非控制点发生不同程度的非刚性变化,因而实际预测注视点的坐标会随着初步预测注视点的变化发生不同程度的位移,因而可以使实际预测注视点更加靠近被测者的真实注视点(ground truth),从而可以提高眼动追踪的准确性。

在一些实施例中,上述薄板样条插值函数可以基于眼动追踪设备在当前采集的前景图像中所检测的目标特征点来拟合,具体的拟合过程可以参见相关技术中的薄板样条插值函数拟合方式,本实施例对此不进行限定。

在另一些实施例中,上述薄板样条插值函数拟合过程可以参见下述图2所示实施例,在此先不进行详述。

在步骤S103中,基于所述目标插值点的坐标确定所述被测者的实际预测注视点。

本实施例中,当将所述预测注视点的坐标输入至预先拟合的薄板样条插值函数,得到目标插值点的坐标后,可以基于所述目标插值点的坐标确定所述被测者的实际预测注视点。例如,可以将所述目标插值点的坐标确定为被测者的实际预测注视点的坐标,即将上述目标插值点确定为被测者的眼动追踪结果。

由上述描述可知,本实施例的方法通过基于预设眼动追踪方式获取被测者的初步预测注视点,并将所述预测注视点的坐标输入至预先拟合的薄板样条插值函数,得到目标插值点的坐标,进而基于所述目标插值点的坐标确定所述被测者的实际预测注视点,由于薄板样条插值函数的特性,即拟合函数时采用的一个控制点的变化可以带动周围的非控制点发生不同程度的非刚性变化,因而实际预测注视点的坐标会随着初步预测注视点的变化发生不同程度的位移,因而可以使实际预测注视点更加靠近被测者的真实注视点(groundtruth),从而可以提高眼动追踪的准确性,且实施例的方法可以适用于各种预设眼动追踪方式,且无需修改预设眼动追踪方式的算法程序,具有较强的灵活性。

图2是根据本公开一示例性实施例示出的如何拟合所述薄板样条插值函数的流程图;本实施例在上述实施例的基础上以如何拟合所述薄板样条插值函数为例进行示例性说明。如图2所示,本实施例的眼动追踪方法还包括基于以下步骤S201-S203拟合所述薄板样条插值函数:

在步骤S201中,在当前采集的前景图像中检测目标特征点。

本实施例中,当需要拟合所述薄板样条插值函数时,眼动追踪设备可以在当前采集的前景图像中检测目标特征点。

举例来说,眼动追踪设备可以基于前景摄像头获取被测者眼前的前景图像,进而可以在当前采集的前景图像中检测目标特征点。

其中,目标特征点可以为在眼动追踪设备所处环境中呈现的标记点。示例性地,该标记点可以为在眼动追踪设备所处环境中预先设置的标记点,或者可以为该环境中预设物体上自带的点(如,显示器的边框的角点等),本实施例对此不进行限定。

在一些实施例中,可以基于预设频率在当前采集的前景图像中检测目标特征点。可以理解的是,通过设置检测目标特征点的频率,可以避免检测操作过于频繁,即避免频繁地重新拟合薄板样条插值函数。

在另一些实施例中,上述在当前采集的前景图像中检测目标特征点的方式可以参见下述图3至图5所示实施例,在此先不进行详述。

在步骤S202中,响应于检测到所述目标特征点,将所述目标特征点的第一坐标与基于预设眼动追踪方式获取的当前预测注视点的第二坐标进行匹配。

本实施例中,当在当前采集的前景图像中检测到目标特征点后,可以将所述目标特征点的第一坐标与基于预设眼动追踪方式获取的当前预测注视点的第二坐标进行匹配。其中,第一坐标和第二坐标可以为眼动追踪设备的眼动追踪坐标系下的坐标。

举例来说,可以基于预设频率在当前采集的前景图像中检测目标特征点,并当检测到目标特征点后,将该目标特征点的坐标(即,第一坐标)与当前预测的被测者的注视点的坐标(即,第二坐标)进行匹配,即判断被测者当前是否在凝视该目标特征点,如果匹配成功(即,第一坐标与第二坐标相同),则可以认定被测者在凝视该目标特征点;否则,认定被测者未在凝视该目标特征点。

在步骤S203中,响应于所述第一坐标与所述第二坐标匹配成功,将所述第一坐标和所述第二坐标分别作为控制点的坐标和对应的插值点的坐标,拟合所述薄板样条插值函数。

本实施例中,当将所述目标特征点的第一坐标与基于预设眼动追踪方式获取的当前预测注视点的第二坐标进行匹配后,若所述第一坐标与所述第二坐标匹配成功,则可以将所述第一坐标和所述第二坐标分别作为控制点的坐标和对应的插值点的坐标,拟合所述薄板样条插值函数。

其中,基于控制点的坐标和对应的插值点的坐标拟合薄板样条插值函数的具体方式可以参见相关技术中的解释说明,如代入基于控制点的坐标和对应的插值点的坐标计算薄板样条插值函数的相关参数的数值,从而可以实现对薄板样条插值函数的拟合操作。

值得说明的是,上述在当前采集的前景图像中检测的目标特征点的数量可以为一个、二个或多个,本实施例对此不进行限定。

由上述描述可知,本实施例通过在当前采集的前景图像中检测目标特征点,并响应于检测到所述目标特征点,将所述目标特征点的第一坐标与基于预设眼动追踪方式获取的当前预测注视点的第二坐标进行匹配,进而响应于所述第一坐标与所述第二坐标匹配成功,将所述第一坐标和所述第二坐标分别作为控制点的坐标和对应的插值点的坐标,拟合所述薄板样条插值函数,可以实现准确地拟合薄板样条插值函数,进而可以实现后续将所述预测注视点的坐标输入至预先拟合的薄板样条插值函数,得到目标插值点的坐标。

图3是根据本公开一示例性实施例示出的如何在当前采集的前景图像中检测目标特征点的流程图;本实施例在上述实施例的基础上以如何在当前采集的前景图像中检测目标特征点为例进行示例性说明。如图3所示,上述步骤S201所述的在当前采集的前景图像中检测目标特征点,可以包括以下步骤S301-S302:

在步骤S301中,在当前采集的前景图像中检测预设物体的特征点;

在步骤S302中,响应于检测到所述预设物体的特征点,将所述预设物体的特征点确定为目标特征点。

本实施例中,当眼动追踪设备基于前景摄像头获取到被测者眼前的前景图像后,可以在该前景图像中检测预设物体,进而当检测到预设物体时,可以在该预设物体上检测特征点,进而当检测到所述预设物体的特征点时,可以将所述预设物体的特征点确定为目标特征点。

其中,上述预设物体可以根据需要设置为眼动追踪设备的日常应用场景中的常见物体,如显示器、键盘或鼠标等中的至少一种。在此基础上,特征点可以为相应物体的边框角点或中心点等。举例来说,若预设物体为显示器,则特征点可以设置为显示器的边框的左下角顶点等。

本实施例中由于是基于当前采集的前景图像中检测的预设物体的特征点确定目标特征点,因而可以在眼动追踪设备的日常应用过程中,自动触发目标特征点的检测,即当用户无意或有意凝视到该特征点时,可以触发基于目标特征点拟合薄板样条插值函数的操作,而无需用户手动触发薄板样条插值函数的拟合,因而可以提高薄板样条插值函数的拟合效率和自动化水平。

图4是根据本公开又一示例性实施例示出的如何在当前采集的前景图像中检测目标特征点的流程图;本实施例在上述实施例的基础上以如何在当前采集的前景图像中检测目标特征点为例进行示例性说明。如图4所示,上述步骤S201所述的在当前采集的前景图像中检测目标特征点,可以包括以下步骤S401-S402:

在步骤S401中,在当前采集的前景图像中检测预设物体上粘贴的标记点;

在步骤S402中,响应于检测到所述标记点,将所述标记点确定为目标特征点。

本实施例中,当眼动追踪设备基于前景摄像头获取到被测者眼前的前景图像后,可以在该前景图像中检测预设物体,进而当检测到预设物体时,可以在该预设物体上检测粘贴的标记点,进而当检测到所述预设物体上粘贴的标记点时,可以将该标记点确定为目标特征点。

其中,上述预设物体可以根据需要设置为眼动追踪设备的日常应用场景中的常见物体,如显示器、键盘或鼠标等中的至少一种。在此基础上,特征点可以为相应物体上粘贴的标记点等。举例来说,若预设物体为显示器,则特征点可以粘贴在显示器的边框上任一位置的标记点。

本实施例中由于是基于当前采集的前景图像中检测的预设物体上粘贴的标记确定目标特征点,因而可以在眼动追踪设备的日常应用过程中,自动触发目标特征点的检测,即当用户无意或有意凝视到该特征点时,可以触发基于目标特征点拟合薄板样条插值函数的操作,而无需用户手动触发薄板样条插值函数的拟合,因而可以提高薄板样条插值函数的拟合效率和自动化水平。

图5是根据本公开另一示例性实施例示出的如何在当前采集的前景图像中检测目标特征点的流程图;本实施例在上述实施例的基础上以如何在当前采集的前景图像中检测目标特征点为例进行示例性说明。如图5所示,上述步骤S201所述的在当前采集的前景图像中检测目标特征点,可以包括以下步骤S501-S502:

在步骤S501中,在当前采集的前景图像中检测预设设备屏幕上显示的标记点;

在步骤S502中,响应于检测到所述预设设备屏幕上显示的标记点,将所述标记点确定为目标特征点。

本实施例中,当眼动追踪设备基于前景摄像头获取到被测者眼前的前景图像后,可以在该前景图像中检测预设设备屏幕,进而当检测到预设设备屏幕时,可以在该预设设备屏幕上检测标记点,进而当检测到所述标记点时,可以将所述标记点确定为目标特征点。

其中,上述预设设备屏幕可以根据需要设置为眼动追踪设备的日常应用场景中的常见设备屏幕,如电脑的显示器、智能手机的屏幕或可穿戴设备的屏幕中的至少一种。在此基础上,特征点可以为相应设备屏幕显示的标记点。举例来说,若预设物体为电脑的显示器,则标记点可以设置为显示器上定期显示的标记点等。

本实施例中由于是基于当前采集的前景图像中检测的预设设备屏幕上显示的标记点确定目标特征点,因而可以在眼动追踪设备的日常应用过程中,自动触发目标特征点的检测,进而可以基于检测到的目标特征点实现后续薄板样条插值函数的拟合,无需用户手动触发薄板样条插值函数的拟合,可以提高薄板样条插值函数的拟合效率和自动化水平。

图6是根据本公开一示例性实施例示出的一种眼动追踪装置的框图;本实施例的装置可以应用于眼动追踪设备(如,智能眼镜、智能头盔等可穿戴式电子设备等)。如图6所示,该装置包括:初步注视点获取模块110、目标插值点获取模块120以及实际注视点确定模块130,其中:

初步注视点获取模块110,用于基于预设眼动追踪方式获取被测者的初步预测注视点;

目标插值点获取模块120,用于将所述预测注视点的坐标输入至预先拟合的薄板样条插值函数,得到目标插值点的坐标;

实际注视点确定模块130,用于基于所述目标插值点的坐标确定所述被测者的实际预测注视点。

由上述描述可知,本实施例的装置通过基于预设眼动追踪方式获取被测者的初步预测注视点,并将所述预测注视点的坐标输入至预先拟合的薄板样条插值函数,得到目标插值点的坐标,进而基于所述目标插值点的坐标确定所述被测者的实际预测注视点,由于薄板样条插值函数的特性,即拟合函数时采用的一个控制点的变化可以带动周围的非控制点发生不同程度的非刚性变化,因而实际预测注视点的坐标会随着初步预测注视点的变化发生不同程度的位移,因而可以使实际预测注视点更加靠近被测者的真实注视点(groundtruth),从而可以提高眼动追踪的准确性,且实施例的装置可以适用于各种预设眼动追踪方式,且无需修改预设眼动追踪方式的算法程序,具有较强的灵活性。

图7是根据本公开又一示例性实施例示出的一种眼动追踪装置的框图;本实施例的装置可以应用于眼动追踪设备(如,智能眼镜、智能头盔等可穿戴式电子设备等)。其中,初步注视点获取模块210、目标插值点获取模块220以及实际注视点确定模块230与前述图6所示实施例中的初步注视点获取模块110、目标插值点获取模块120以及实际注视点确定模块130的功能相同,在此不进行赘述。如图7所示,该装置还可以包括函数拟合模块240;

函数拟合模块240,包括:

检测单元241,用于在当前采集的前景图像中检测目标特征点;

匹配单元242,用于响应于检测到所述目标特征点,将所述目标特征点的第一坐标与基于预设眼动追踪方式获取的当前预测注视点的第二坐标进行匹配;

拟合单元243,用于响应于所述第一坐标与所述第二坐标匹配成功,将所述第一坐标和所述第二坐标分别作为控制点的坐标和对应的插值点的坐标,拟合所述薄板样条插值函数。

在一些实施例中,检测单元241还可以用于:

在当前采集的前景图像中检测预设物体的特征点;

响应于检测到所述预设物体的特征点,将所述预设物体的特征点确定为目标特征点。

在一些实施例中,检测单元241还可以用于:

在当前采集的前景图像中检测预设物体上粘贴的标记点;

响应于检测到所述标记点,将所述标记点确定为目标特征点。

在一些实施例中,检测单元241还可以用于:

在当前采集的前景图像中检测预设设备屏幕上显示的标记点;

响应于检测到所述预设设备屏幕上显示的标记点,将所述标记点确定为目标特征点。

在一些实施例中,检测单元241还可以用于:

基于预设频率在当前采集的前景图像中检测目标特征点。

关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。

图8是根据一示例性实施例示出的一种眼动追踪设备的框图。例如,设备900可以是移动电话,计算机,数字广播终端,消息收发设备,游戏控制台,平板设备,医疗设备,健身设备,个人数字助理等。

参照图8,设备900可以包括以下一个或多个组件:处理组件902,存储器904,电源组件906,多媒体组件908,音频组件910,输入/输出(I/O)的接口912,传感器组件914,以及通信组件916。

处理组件902通常控制设备900的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理组件902可以包括一个或多个处理器920来执行指令,以完成上述的方法的全部或部分步骤。此外,处理组件902可以包括一个或多个模块,便于处理组件902和其他组件之间的交互。例如,处理组件902可以包括多媒体模块,以方便多媒体组件908和处理组件902之间的交互。

存储器904被配置为存储各种类型的数据以支持在设备900的操作。这些数据的示例包括用于在设备900上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器904可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。

电源组件906为设备900的各种组件提供电力。电源组件906可以包括电源管理系统,一个或多个电源,及其他与为设备900生成、管理和分配电力相关联的组件。

多媒体组件908包括在所述设备900和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件908包括一个前置摄像头和/或后置摄像头。当设备900处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜系统或具有焦距和光学变焦能力。

音频组件910被配置为输出和/或输入音频信号。例如,音频组件910包括一个麦克风(MIC),当设备900处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器904或经由通信组件916发送。在一些实施例中,音频组件910还包括一个扬声器,用于输出音频信号。

I/O接口912为处理组件902和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。

传感器组件914包括一个或多个传感器,用于为设备900提供各个方面的状态评估。例如,传感器组件914可以检测到设备900的打开/关闭状态,组件的相对定位,例如所述组件为设备900的显示器和小键盘,传感器组件914还可以检测设备900或设备900一个组件的位置改变,用户与设备900接触的存在或不存在,设备900方位或加速/减速和设备900的温度变化。传感器组件914还可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件914还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件914还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。

通信组件916被配置为便于设备900和其他设备之间有线或无线方式的通信。设备900可以接入基于通信标准的无线网络,如WiFi,2G或3G,4G或5G或它们的组合。在一个示例性实施例中,通信组件916经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,所述通信组件916还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。

在示例性实施例中,设备900可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子组件实现,用于执行上述方法。

在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器904,上述指令可由设备900的处理器920执行以完成上述方法。例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。

本领域技术人员在考虑说明书及实践这里公开的公开后,将容易想到本公开的其它实施方案。本公开旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。

应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。

相关技术
  • 基于眼动信息的报警方法、装置、设备及存储介质
  • 目标追踪方法、装置、目标追踪设备及存储介质
  • 目标追踪方法、装置、目标追踪设备及存储介质
  • 眼动交互方法、装置及计算机可读存储介质
  • 路径追踪方法及装置、电子设备、存储介质
  • 基于眼动追踪的眼图采集方法、装置、设备及存储介质
  • 眼动追踪光学装置、头戴显示设备及眼动追踪方法
技术分类

06120116486729