掌桥专利:专业的专利平台
掌桥专利
首页

头部相关传递函数

文献发布时间:2024-04-18 19:58:53


头部相关传递函数

相关申请的交叉引用

本申请要求于2020年12月3日提交的美国专利申请序列号17/110,424的优先权,该专利申请的内容全文以引用方式并入本文。

技术领域

本公开中阐述的示例涉及音频信号处理领域。更具体地,但不作为限制,本公开描述了用于高效处理对应于虚拟对象的音频信号的头部相关传递函数模型。

背景技术

头部相关传递函数(HRTF)是表征用户耳朵如何从空间中的点接收声音的响应。当声音击中用户时,头部、耳朵、耳道的尺寸和形状、头部的密度,以及鼻腔和口腔的尺寸和形状都会变换声音,并且通过提高某些频率和减弱其他频率来影响对声音的感知。

一对HRTF,每只耳朵一个HRTF,可用于合成似乎来自空间中的特定点的双耳声。每个传递函数描述来自特定点的声音将如何到达相应的耳朵(例如,到达耳道的外端)。

附图简要说明

从以下参考附图的具体实施方式中,将容易理解所描述的各种示例的特征。在说明书中和附图的几个视图中,每个元件使用了附图标记。当存在多个相似的元件时,可以给相似的元件指定单个附图标记,通过添加小写字母来指代特定的元件。

除非另外指出,否则附图中所示的各种元件并非按比例绘制的。为了清楚起见,可放大或缩小各个元件的尺寸。若干附图描绘了一个或多个具体实施,并且仅作为示例呈现,而不应被解释为限制。附图中包括以下附图:

图1A是适用于HRTF建模系统的眼戴设备的示例性硬件配置的(右)侧视图;

图1B是图1A的眼戴设备的右角部的局部横截面透视图,其描绘了右可见光相机和电路板;

图1C是图1A的眼戴设备的示例性硬件配置的(左)侧视图,其示出了左可见光相机;

图1D是图1C的眼戴设备的左角部的局部横截面透视图,其描绘了左可见光相机和电路板;

图2A和图2B是在HRTF建模系统中利用的眼戴设备的示例性硬件配置的后视图;

图3是三维场景、由左可见光相机捕获的左原始图像和由右可见光相机捕获的右原始图像的图形描绘;

图4是包括经由各种网络连接的可穿戴设备(例如,眼戴设备)和服务器系统的示例性HRTF建模系统的功能框图;

图5是用于图4的HRTF建模系统的移动设备的示例性硬件配置的图形表示;

图6是在用于描述即时定位与地图构建的示例性环境中的用户的示意性图示;

图7是列出在物理环境中显示虚拟对象的示例性方法中的步骤的流程图;

图8A是在头部相关传递函数(HRTF)模型中围绕用户头部的音频区域中的虚拟对象的图示;

图8B是用于测试图8A的头部相关传递函数模型的预定义滤波器的图形用户界面;

图9A是列出根据图8A的HRTF使用头部来处理虚拟对象的音轨的示例性方法中的步骤的流程图;

图9B是列出处理音轨以添加方向速度信息的示例性方法中的步骤的流程图;

图9C是列出处理音轨以添加深度信息的示例性方法中的步骤的流程图;并且

图10是呈现在眼戴设备的显示器上的虚拟对象的透视图。

具体实施方式

参考示例描述了各种具体实施和详细信息,包括实施头部相关传递函数(HRTF)模型的系统和方法。本文所述的HRTF模型将用户(本文中也称为收听者)周围的空间分解为36个区域,每个区域具有固定的一组预先确定的滤波器(例如,双二阶滤波器),该组预定义滤波器与传统HRTF模型相比需要更少的计算。当声音对象从一个区域移动到另一区域时,会应用新的区域的预定义滤波器。与传统技术相比,这样做导致复杂性降低了大约2个数量级,从而减少了HRTF模型的整体计算负载,并允许同时计算和变换更多对象。

相反,传统HRTF建模需要使用多个快速傅里叶变换(FFT)来捕捉任何声音的当前定位以生成HRTF,然后使用长尾(例如,256个或更多个样本)有限脉冲响应滤波器(FIR)来实施。此类传统技术的计算成本很高。

以下具体实施方式包括说明本公开中阐述的示例的系统、方法、技术、指令序列和计算机器程序产品。出于提供对所公开的主题及其相关教导内容的透彻理解的目的而包括许多细节和示例。然而,相关领域的技术人员能够理解如何在没有此类细节的情况下应用相关教导内容。所公开的主题的各方面不限于所描述的特定设备、系统和方法,因为相关教导内容可以以各种方式来应用或实践。本文中所使用的术语和命名仅仅是为了描述特定方面并非旨在进行限制。通常,公知的指令实例、协议、结构和技术不一定被详细示出。

本文中所使用的术语“耦接”或“连接”指的是任何逻辑、光学、物理或电连接,包括链路等,由一个系统元件产生或提供的电或磁信号通过这些连接传递到另一耦接或连接的系统元件。除非另外描述,否则耦接或连接的元件或设备不一定直接彼此连接,并且可由中间组件、元件或通信介质隔开,中间部件、元件或通信介质中的一者或多者可修改、操纵或承载电信号。术语“上”是指由元件直接支撑或通过另一元件由元件间接支撑,该另一元件集成到元件中或由元件支撑。

术语“近侧”用于描述位于对象或人附近、左近或旁边的物品或物品的一部分;或者相对于该物品的其他部分更近,其他部分可以被描述为“远侧”。例如,物品最靠近对象的端部可以被称为近侧端部,而大致相对的端部可以被称为远侧端部。

出于说明和讨论的目的,仅以示例的方式给出了诸如附图中的任一附图所示的眼戴设备、其他移动设备、相关联部件和结合了相机、惯性测量单元或两者的任何其他设备的定向。在操作中,眼戴设备可以在适合于眼戴设备的特定应用的任何其他方向上定向,例如,向上、向下、侧向或任何其他定向。此外,就本文所用的范围而言,任何方向性术语,诸如前、后、内、外、向、左、右、侧向、纵向、上、下、高、低、顶部、底部、侧面、水平、垂直和对角,仅以示例的方式使用,并且不限制如本文所构造或另外描述的任何相机或惯性测量单元的方向或定向。

高级增强现实(AR)技术,诸如计算机视觉和对象追踪,可用于产生丰富和沉浸的感知体验。计算机视觉算法从数字图像或视频中捕获的数据中提取关于物理世界的三维数据。对象识别和追踪算法用于检测数字图像或视频中的对象,估计其定向或姿态(例如,六个自由度;X、Y、Z、俯仰、偏航、滚转),并且追踪其随时间的移动。

术语“姿态”是指对象在某一特定时刻的静态定位和定向。术语“手势”是指对象诸如手通过一系列姿态的主动移动,有时用于传达信号或想法。术语“姿态”和“手势”有时在计算机视觉和增强现实的领域中可互换地使用。如本文所用,术语“姿态”或“手势”(或它们的变型)旨在包括姿态和手势两者;换句话说,使用一个术语并不排除另一个术语。

示例的其他目的、优点和新颖特征将部分地在以下具体实施方式中阐述,并且部分地在本领域技术人员检查以下内容和附图后将变得显而易见,或者可通过示例的生产或操作来了解。本主题的目的和优点可借助于所附权利要求书中特别指出的方法、手段和组合来实现和达成。

现在详细参考附图所示和下文所讨论的示例。

图1A是包括触敏输入设备或触摸板181的眼戴设备100的示例性硬件配置的侧视图(右)。如图所示,触摸板181可具有细微且不易看到的边界;另选地,边界可清楚可见或包括向用户提供关于触摸板181的位置和边界的反馈的凸起或以其他方式可触知的边缘。在其他具体实施中,眼戴设备100可包括代替触摸板181的或除其之外的在左侧的触摸板。

触摸板181的表面被配置为检测手指触摸、轻击和手势(例如,移动的触摸),以便与眼戴设备在图像显示器上显示的GUI一起使用,从而允许用户以直观的方式浏览并选择菜单选项,这改善并简化了用户体验。

对触摸板181上的手指输入的检测可实现若干功能。例如,触摸触摸板181上的任何地方都可使GUI在图像显示器上显示或突出显示项目,该项目可被投影到光学组件180A、180B中的至少一者上。在触摸板181上双击可选择项目或图标。在特定方向上(例如,从前到后、从后到前、从上到下或从下到上)滑动或轻扫手指可使项目或图标在特定方向上滑动或滚动;例如,以移动到下一项目、图标、视频、图像、页面或幻灯片。在另一方向上滑动手指可以在相反方向上滑动或滚动;例如,以移动到前一项目、图标、视频、图像、页面或幻灯片。触摸板181实际上可以在眼戴设备100上的任何地方。

在一个示例中,在触摸板181上单击的所识别的手指手势发起对呈现在光学组件180A、180B的图像显示器上的图像中的GUI元素的选择或按压。基于所识别的手指手势对呈现在光学组件180A、180B的图像显示器上的图像的调整可以是在光学组件180A、180B的图像显示器上选择或提交GUI元素以用于进一步显示或执行的主要动作。

如图所示,眼戴设备100包括右可见光相机114B。如本文进一步描述,两个相机114A、114B从两个单独视点捕获场景的图像信息。两个所捕获的图像可用于将三维显示投影到图像显示器上,以便使用三维(3D)眼镜或增强现实或虚拟现实眼戴设备的显示器进行观看。

眼戴设备100包括右光学组件180B,其具有图像显示器以呈现图像,诸如深度图像。如图1A和图1B所示,眼戴设备100包括右可见光相机114B。眼戴设备100可包括多个可见光相机114A、114B,其形成被动式三维相机,诸如立体相机,其中右可见光相机114B位于右角部110B。如图1C至图1D所示,眼戴设备100还包括左可见光相机114A。

左和右可见光相机114A、114B对可见光范围波长敏感。可见光相机114A、114B中的每一者具有不同的前向视场,这些视场重叠以使得能够生成三维深度图像,例如,右可见光相机114B描绘右视场111B。通常,“视场”是在空间中的特定定位处和定向上通过相机可见的场景的部分。视场111A和111B具有重叠视场304(图3)。当可见光相机捕获图像时,视场111A、111B之外的对象或对象特征未被记录在原始图像(例如,照片或图片)中。视场描述了可见光相机114A、114B的图像传感器在给定场景的所捕获的图像中拾取给定场景的电磁辐射的角度范围或幅度。视场可以被表示为视锥的角度大小;即视角。视角可以水平、垂直或对角地测量。

在示例性配置中,可见光相机114A、114B中的一者或两者具有100°的视场和480×480像素的分辨率。“覆盖角度”描述了可见光相机114A、114B或红外相机410(见图4)的透镜可有效成像的角度范围。通常,相机透镜产生大到足以完全覆盖相机的胶片或传感器的成像圈,可能包括某种渐晕(例如,与中心相比,图像朝向边缘变暗)。如果相机透镜的覆盖角度未遍及传感器,则成像圈将是可见的,通常具有朝向边缘的强渐晕,并且有效视角将限于覆盖角度。

此类可见光相机114A、114B的示例包括高分辨率互补金属氧化物半导体(CMOS)图像传感器和能够具有480p(例如,640×480像素)、720p、1080p或更大的分辨率的数字VGA相机(视频图形阵列)。其他示例包括可见光相机114A、114B,其可以高帧速率(例如,每秒三十至六十帧或更多)捕获高清晰度(HD)视频,并且以1216×1216像素(或更大像素)的分辨率存储该记录。

眼戴设备100可捕获来自可见光相机114A、114B的图像传感器数据以及由图像处理器数字化的地理定位数据,以存储在存储器中。可见光相机114A、114B在二维空间域中捕获相应的左原始图像和右原始图像,这些原始图像包括二维坐标系上的像素矩阵,该二维坐标系包括用于水平定位的X轴和用于垂直定位的Y轴。每个像素包括颜色属性值(例如,红色像素光值、绿色像素光值或蓝色像素光值);和定位属性(例如,X轴坐标和Y轴坐标)。

为了捕获立体图像以用于稍后显示为三维投影,图像处理器412(在图4中示出)可耦接到可见光相机114A、114B以接收并存储视觉图像信息。图像处理器412或另一处理器控制可见光相机114A、114B的操作以充当模拟人类双眼视觉的立体相机,并且可将时间戳添加到每个图像。每对图像上的时间戳允许将图像一起显示为三维投影的一部分。三维投影产生沉浸式逼真体验,这在包括虚拟现实(VR)和视频游戏的各种上下文中是期望的。

眼戴设备100还具有立体声扬声器系统,该立体声扬声器系统包括用于向佩戴者的左耳呈现音频信号的左扬声器185A和用于向佩戴者的右耳呈现音频信号的右扬声器185B。立体声扬声器系统的音频处理器413(图4)向左扬声器185A和右扬声器185B输送音频信号。

图1B是图1A的眼戴设备100的右角部110B的横截面透视图,其描绘了相机系统的右可见光相机114B和电路板140B。图1C是图1A的眼戴设备100的示例性硬件配置的侧视图(左),其示出了相机系统的左可见光相机114A。图1D是图1C的眼戴设备的左角部110A的横截面透视图,其描绘了相机系统的左可见光相机114A和电路板140A。

除了连接和耦接位于左侧面170A而非右侧面170B上之外,左可见光相机114A的结构和布置基本上类似于右可见光相机114B。如图1B的示例所示,眼戴设备100包括右可见光相机114B和右电路板140B,该电路板可以是柔性印刷电路板(PCB)。右铰链126B将右角部110B连接到眼戴设备100的右镜腿125B。在一些示例中,右可见光相机114B、柔性PCB 140B或其他电连接器或触点等部件可位于右镜腿125B或右铰链126B上。左铰链126A将左角部110A连接到眼戴设备100的左镜腿125A。在一些示例中,左可见光相机114A、柔性PCB 140A或其他电连接器或触点等部件可位于左镜腿125A或左铰链126A上。

右角部110B包括角部体190和角部盖,图1B的横截面图中省略了该角部盖。设置在右角部110B内部的是各种互连的电路板,诸如PCB或柔性PCB,其包括用于右可见光相机114B,右扬声器185A、麦克风、低功率无线电路(例如,用于经由Bluetooth

右可见光相机114B耦接到或设置在柔性PCB 140B上且由可见光相机覆盖透镜覆盖,该透镜通过形成在框架105中的开口瞄准。例如,框架105的右边缘107B,如图2A所示,该框架连接到右角部110B,并且包括用于可见光相机覆盖透镜的开口。框架105包括被配置为面向外且远离用户的眼睛的前侧。用于可见光相机覆盖透镜的开口形成在框架105的前向或外向侧面上并穿过该前向或外向侧面。在示例中,右可见光相机114B具有面向外的视场111B(在图3中示出),其视线或视角与眼戴设备100的用户的右眼相关。可见光相机覆盖透镜也可粘附到右角部110B的前侧或面向外的表面,其中开口形成有面向外的覆盖角度,但在不同的向外方向上。耦接也可经由居间部件间接实现。

如图1B所示,柔性PCB 140B设置在右角部110B内,并且耦接到容纳在右角部110B中的一个或多个其他部件。尽管示出为形成在右角部110B的电路板上,但是右可见光相机114B可形成在左角部110A、镜腿125A、125B或框架105的电路板上。

图2A和图2B是包括两种不同类型的图像显示器的眼戴设备100的示例性硬件配置的后透视图。眼戴设备100的尺寸和形状被设计成被配置为供用户佩戴的形式;在该示例中为眼镜的形式。眼戴设备100可采取其他形式并且可结合其他类型的框架,例如,头戴器、头戴式耳机或头盔。

在眼镜的示例中,眼戴设备100包括框架105,其包括经由适于由用户的鼻部支撑的鼻梁架106连接到右边缘107B的左边缘107A。左和右边缘107A、107B包括相应的孔口175A、175B,这些孔口保持相应的光学元件180A、180B,诸如透镜和显示设备。如本文所用,术语“镜头”旨在包括透明或半透明玻璃或塑料片,其具有弯曲或平坦表面,使光会聚或发散或几乎或完全不引起会聚或发散。

虽然被示出为具有两个光学元件180A、180B,但是眼戴设备100可包括其他布置,诸如单个光学元件(或者其可不包括任何光学元件180A、180B),这取决于眼戴设备100的应用或预期用户。如图进一步所示,眼戴设备100包括与框架105的左侧面170A相邻的左角部110A以及与框架105的右侧面170B相邻的右角部110B。角部110A、110B可在相应的侧面170A、170B上集成到框架105中(如图所示)或实施为在相应的侧面170A、170B上附接到框架105的单独部件。另选地,角部110A、110B可集成到附接到框架105的镜腿(未示出)中。

在一个示例中,光学组件180A、180B的图像显示器包括集成的图像显示器。如图2A所示,每个光学组件180A、180B包括合适的显示矩阵177,诸如液晶显示器(LCD)、有机发光二极管(OLED)显示器或任何其他此类显示器。每个光学组件180A、180B还包括一个或多个光学层176,其可以任何组合包括透镜、光学涂层、棱镜、反射镜、波导、光学条带和其他光学部件。光学层176A、176B、…、176N(在图2A和本文中示出为176A-N)可包括棱镜,该棱镜具有合适的尺寸和构造并包括用于接收来自显示矩阵的光的第一表面和用于向用户的眼睛发射光的第二表面。光学层176A-N的棱镜在形成在左和右边缘107A、107B中的相应的孔口175A、175B的全部或至少一部分上方延伸,以在用户的眼睛透过对应的左和右边缘107A、107B观看时允许用户看到棱镜的第二表面。光学层176A-N的棱镜的第一表面从框架105面向上,并且显示矩阵177覆盖在棱镜上,使得由显示矩阵177发射的光子和光照射在第一表面上。棱镜的尺寸和形状被设计成使得光在棱镜内被折射并且被光学层176A-N的棱镜的第二表面导向用户的眼睛。在这一点而言,光学层176A-N的棱镜的第二表面可以是凸形的以将光导向眼睛的中心。棱镜的尺寸和形状可任选地被设计成放大由显示矩阵177投影的图像,并且光行进穿过棱镜,使得从第二表面观察的图像在一个或多个维度上大于从显示矩阵177发射的图像。

在一个示例中,光学层176A-N可包括透明的LCD层(保持镜头打开),除非且直到施加使该层不透明(关闭或遮挡镜头)的电压。眼戴设备100上的图像处理器412可执行程序以将电压施加到LCD层,以便产生主动式快门系统,从而使得眼戴设备100适用于观看被显示为三维投影的视觉内容。除了LCD之外的技术可用于主动式快门模式,包括响应于电压或另一类型的输入的其他类型的反应层。

在另一示例中,光学组件180A、180B的图像显示设备包括如图2B所示的投影图像显示器。每个光学组件180A、180B包括激光投影仪150,其是使用扫描镜或检流计的三色激光投影仪。在操作期间,光源诸如激光投影仪150设置在眼戴设备100的镜腿125A、125B中的一个镜腿之中或之上。在该示例中,光学组件180B包括一个或多个光学条带155A、155B、…155N(在图2B中示出为155A-N),其在每个光学组件180A、180B的透镜的宽度上,或者在透镜的前表面与后表面之间的透镜的深度上间隔开。

当由激光投影仪150投影的光子行进穿过每个光学组件180A、180B的透镜时,光子遇到光学条带155A-N。当特定光子遇到特定光学条带时,光子要么朝向用户的眼睛重定向,要么传递到下一光学条带。激光投影仪150的调制和光学条带的调制的组合控制特定的光子或光束。在示例中,处理器通过发出机械、声学或电磁信号来控制光学条带155A-N。虽然被示出为具有两个光学组件180A、180B,但是眼戴设备100可包括其他布置,诸如单个或三个光学组件,或者每个光学组件180A、180B可被布置有不同的布置,这取决于眼戴设备100的应用或预期用户。

在另一示例中,图2B中示出的眼戴设备100可包括两个投影仪,左投影仪150A(未示出)和右投影仪150B(示出为投影仪150)。左光学组件180A可包括左显示矩阵177A(未示出)或左光学条带155'A、155'B、…、155'N(155撇,A至N,未示出),其被配置为与来自左投影仪150A的光交互。类似地,右光学组件180B可包括右显示矩阵177B(未示出)或右光学条带155”A、155”B、…、155”N(155双撇,A至N,未示出),其被配置为与来自右投影仪150B的光交互。在该示例中,眼戴设备100包括左显示器和右显示器。

图3是三维(3D)场景306、由左可见光相机114A捕获的左原始图像302A和由右可见光相机114B捕获的右原始图像302B的图形描绘。如图所示,左视场111A可与右视场111B重叠。重叠视场304表示由图像中两个相机114A、114B捕获的部分。术语“重叠”在涉及视场时意味着所生成的原始图像中的像素矩阵重叠百分之三十(30%)或更多。“基本上重叠”意味着所生成的原始图像中的像素矩阵或场景的红外图像中的像素矩阵重叠百分之五十(50%)或更多。如本文所述,两个原始图像302A、302B可被处理为包括时间戳,该时间戳允许将图像一起显示为三维投影的一部分。

为了捕获立体图像,如图3所示,在给定时刻捕获真实场景306的一对原始红绿蓝(RGB)图像:由左相机114A捕获的左原始图像302A和由右相机114B捕获的右原始图像302B。当(例如,由图像处理器412)处理该对原始图像302A、302B时,生成深度图像。所生成的深度图像可在眼戴设备的光学组件180A、180B上、在另一显示器(例如,移动设备401上的图像显示器580)上、或在屏幕上查看。

在一个示例中,所生成的深度图像在二维或三维空间域中,并且可包括多维位置坐标系上的顶点矩阵,该多维位置坐标系包括用于水平定位(例如,长度)的X轴、用于垂直定位(例如,高度)的Y轴和任选地用于深度(例如,距离)的Z轴。每个顶点可包括颜色属性(例如,红色像素光值、绿色像素光值或蓝色像素光值);定位属性(例如,X位置坐标、Y位置坐标和任选的Z位置坐标);纹理属性;反射率属性;或它们的组合。纹理属性量化深度图像的感知纹理,诸如深度图像的顶点区域中的颜色或强度的空间布置。

在一个示例中,HRTF建模系统400(图4)包括眼戴设备100,其包括框架105、从框架105的左侧面170A延伸的左镜腿125A,以及从框架105的右侧面170B延伸的右镜腿125B。眼戴设备100还可包括具有重叠的视场的至少两个可见光相机114A、114B。在一个示例中,眼戴设备100包括具有左视场111A的左可见光相机114A,如图3所示。左相机114A连接到框架105或左镜腿125A以从场景306的左侧捕获左原始图像302A。眼戴设备100还包括具有右视场111B的右可见光相机114B。右相机114B连接到框架105或右镜腿125B以从场景306的右侧捕获右原始图像302B。

图4是示例性HRTF建模系统400的功能框图,该系统包括经由各种网络495诸如因特网连接的可穿戴设备例如眼戴设备100、移动设备401和服务器系统498。如图所示,HRTF建模系统400包括眼戴设备100与移动设备401之间的低功率无线连接425和高速无线连接437。

如图4所示,如本文所述,眼戴设备100包括一个或多个可见光相机114A、114B,它们捕获静止图像、视频图像或静止图像和视频图像两者。相机114A、114B可具有对高速电路430的直接存储器访问(DMA)并且用作立体相机。相机114A、114B可用于捕获初始深度图像,这些初始深度图像可被渲染到三维(3D)模型中,该3D模型是红色、绿色和蓝色(RGB)成像场景的纹理映射图像,或者可分别显示在光学组件180A至180B的图像显示器上。设备100还可包括深度传感器,该深度传感器使用红外信号来估计对象相对于设备100的定位。在一些示例中,深度传感器包括一个或多个红外发射器415和红外相机410。

眼戴设备100还包括每个光学组件180A、180B的两个图像显示器(一个与左侧面170A相关联,一个与右侧面170B相关联)。眼戴设备100还包括图像显示器驱动器442、图像处理器412、低功率电路420和高速电路430。每个光学组件180A、180B的图像显示器用于呈现图像,包括静止图像、视频图像、或静止和视频图像。图像显示器驱动器442耦接到每个光学组件180A、180B的图像显示器,以便控制图像的显示。

眼戴设备100还包括一对扬声器185A至185B(例如,一个与眼戴设备的左侧相关联,另一个与眼戴设备的右侧相关联)。扬声器185A可并入到眼戴设备100的框架105、镜腿125或角部110中。扬声器185由音频处理器413在低功率电路420、高速电路430或两者的控制下驱动。扬声器185用于呈现音频信号,包括与虚拟对象相关联的音轨。音频处理器413耦接到扬声器185,以便根据HRTF建模来控制声音的呈现,从而提供对应于光学组件180A至180B的图像显示器上呈现的虚拟对象的位置的声学定位信息。音频处理器413可以是能够管理眼戴设备100所需的音频处理(例如,能够进行HRTF建模)的任何处理器。

图4所示的用于眼戴设备100的部件位于一个或多个电路板上,例如,位于边缘或镜腿中的印刷电路板(PCB)或柔性印刷电路(FPC)。另选地或附加地,所描绘的部件可位于眼戴设备100的角部、框架、铰链或鼻梁架中。左和右可见光相机114A、114B可包括数字相机元件,诸如互补金属氧化物半导体(CMOS)图像传感器、电荷耦合器件、透镜、或任何其他相应的可用于捕获包括具有未知对象的场景的静止图像或视频数据的可见或光捕获元件。

如图4所示,高速电路430包括高速处理器432、存储器434和高速无线电路436。在该示例中,图像显示器驱动器442耦接到高速电路430并且由高速处理器432操作,以便驱动每个光学组件180A、180B的左和右图像显示器。高速处理器432可以是能够管理眼戴设备100所需的任何通用计算系统的高速通信和操作的任何处理器。高速处理器432包括使用高速无线电路436来管理到无线局域网(WLAN)的高速无线连接437上的高速数据传输所需的处理资源。

在一些示例中,高速处理器432执行操作系统,诸如LINUX操作系统或眼戴设备100的其他此类操作系统,并且操作系统被存储在存储器434中以供执行。除了任何其他职责之外,执行眼戴设备100的软件架构的高速处理器432还用于管理利用高速无线电路436的数据传输。在一些示例中,高速无线电路436被配置为实施电气和电子工程师协会(IEEE)802.11通信标准,本文中也称为Wi-Fi。在其他示例中,高速无线电路436可实施其他高速通信标准。

低功率电路420包括低功率处理器422和低功率无线电路424。眼戴设备100的低功率无线电路424和高速无线电路436可包括短距离收发器(Bluetooth

存储器434包括能够存储各种数据和应用的任何存储设备,所述数据包括由左和右可见光相机114A、114B、红外相机410、图像处理器412生成的相机数据、以及由图像显示器驱动器442生成以在每个光学组件180A、180B的图像显示器上显示的图像。虽然存储器434被示出为与高速电路430集成,但在其他示例中,存储器434可以是眼戴设备100的单独的独立元件。在某些此类示例中,电气布线线路可提供从图像处理器412或低功率处理器422通过包括高速处理器432的芯片到存储器434的连接。在其他示例中,高速处理器432可管理存储器434的寻址,使得低功率处理器422将在需要涉及存储器434的读或写操作的任何时间启动高速处理器432。

如图4所示,眼戴设备100的高速处理器432可耦接到相机系统(可见光相机114A、114B)、图像显示器驱动器442、用户输入设备491和存储器434。如图5所示,移动设备401的CPU 530可耦接到相机系统570、移动显示器驱动器582、用户输入层591和存储器540A。

服务器系统498可以是作为服务或网络计算系统的一部分的一个或多个计算设备,例如包括处理器、存储器和网络通信接口以通过网络495与眼戴设备100和移动设备401通信的计算设备。

眼戴设备100的输出部件包括视觉元件,诸如与每个透镜或光学组件180A、180B相关联的左和右图像显示器,如图2A和图2B所述(例如,显示器,诸如液晶显示器(LCD)、等离子体显示面板(PDP)、发光二极管(LED)显示器、投影仪或波导)。眼戴设备100可包括面向用户的指示符(例如,LED、扬声器或振动致动器),或面向外的信号(例如,LED、扬声器)。每个光学组件180A、180B的图像显示器由图像显示器驱动器442驱动。眼戴设备100的输出部件还包括附加指示符,诸如可听元件(例如,音频处理器413控制下的扬声器185A至185B)、触觉部件(例如,致动器,诸如用于生成触觉反馈的振动马达)和其他信号生成器。例如,设备100可包括面向用户的指示符组和面向外的信号组。面向用户的指示符组被配置为由设备100的用户看到或以其他方式感知到。例如,设备100可包括被定位成使得用户可以看见它的LED显示器、被定位成生成用户可以听到的声音的一个或多个扬声器、或者提供用户可以感觉到的触觉反馈的致动器。面向外的信号组被配置为由设备100附近的观察者看到或以其他方式感知到。类似地,设备100可包括被配置和定位成由观察者感知到的LED、扬声器或致动器。

眼戴设备100的输入部件可包括字母数字输入部件(例如,被配置为接收字母数字输入的触摸屏或触摸板、摄影光学键盘或其他字母数字配置的元件)、基于点的输入部件(例如,鼠标、触摸板、轨迹球、操纵杆、运动传感器或其他指点仪器)、触觉输入部件(例如,按钮开关、感测触摸或触摸手势的位置、力或位置和力的触摸屏或触摸板,或其他触觉配置的元件)、视觉输入(例如,经由相机114A至114B捕获的手势)和音频输入部件(例如,麦克风)等。移动设备401和服务器系统498可包括字母数字、基于点、触觉、音频、视觉和其他输入部件。

在一些示例中,眼戴设备100包括被称为惯性测量单元472的运动感测部件的集合。运动感测部件可以是具有微观移动部件的微机电系统(MEMS),这些微观移动部件通常足够小以成为微芯片的一部分。在一些示例性配置中,惯性测量单元(IMU)472包括加速度计、陀螺仪和磁力计。加速度计感测设备100相对于三个正交轴(x、y、z)的线性加速度(包括由于重力而引起的加速度)。陀螺仪感测设备100绕三个旋转轴(俯仰、滚转、偏航)的角速度。加速度计和陀螺仪可一起提供关于设备相对于六个轴(x、y、z、俯仰、滚转、偏航)的定位、定向和运动数据。如果存在磁力计,则磁力计感测设备100相对于磁北极的航向。设备100的定位可以由位置传感器诸如GPS单元473、用于生成相对定位坐标的一个或多个收发器、高度传感器或气压计和其他定向传感器来确定。还可经由低功率无线电路424或高速无线电路436从移动设备401通过无线连接425和437接收此类定位系统坐标。

IMU 472可包括数字运动处理器或程序,或者与数字运动处理器或程序协作,该数字运动处理器或程序从部件采集原始数据,并且计算关于设备100的定位、定向和运动的多个有用值。例如,从加速度计采集的加速度数据可被积分以获得相对于每个轴(x、y、z)的速度;并再次被积分以获得设备100的定位(以线性坐标x、y和z表示)。来自陀螺仪的角速度数据可被积分以获得设备100的定位(以球面坐标表示)。用于计算这些有效值的程序可存储在存储器434中并且由眼戴设备100的高速处理器432执行。

眼戴设备100可任选地包括附加的外围传感器,诸如与眼戴设备100集成的生物计量传感器、特性传感器或显示元件。例如,外围设备元件可包括任何I/O部件,包括输出部件、运动部件、定位部件或本文所述的任何其他此类元件。例如,生物计量传感器可包括检测表情(例如,手势、面部表情、声音表达、身体姿势或眼睛追踪)、测量生物信号(例如,血压、心率、体温、出汗或脑电波)或识别人(例如,基于语音、视网膜、面部特征、指纹或电生物信号诸如脑电图数据的识别)等的部件。

移动设备401可以是智能电话、平板电脑、膝上型计算机、接入点或能够使用低功率无线连接425和高速无线连接437两者与眼戴设备100连接的任何其他此类设备。移动设备401连接到服务器系统498和网络495。网络495可包括有线和无线连接的任何组合。

如图4所示的HRTF建模系统400包括通过网络耦接到眼戴设备100的计算设备,诸如移动设备401。HRTF建模系统400包括用于存储指令的存储器和用于执行指令的处理器。由处理器432执行HRTF建模系统400的指令将眼戴设备100配置为单独操作或与一个或多个其他计算设备协作,例如,移动设备401或服务器系统498。HRTF建模系统400可利用眼戴设备100的存储器434或移动设备401(图5)的存储器元件540A、540B、540C。此外,HRTF建模系统400可利用眼戴设备100的处理器元件432、422或移动设备401(图5)的中央处理单元(CPU)530。另外,HRTF建模系统400可进一步利用服务器系统498的存储器和处理器元件。在这个方面,HRTF建模系统400的存储器和处理功能可跨眼戴设备100、移动设备401和服务器系统498共享或分布。

在一些示例性具体实施中,存储器434包括手势库480。手势库480包括姿态和手势,其中手部处于各种定位和定向。所存储的姿态和手势适用于与在图像中检测到的手形进行比较。库480包括手部特征点例如,从手腕到指尖的三维坐标,以用于匹配。例如,存储在库480中的手势记录可包括手势标识符(例如,指向手指、握紧的拳头、张开的手掌、放松的手、抓持对象、捏合、伸展)、视点或方向参考(例如,手掌侧可见、手背侧、外侧)以及关于定向的其他信息,连同手腕、十五个指节间关节、五个指尖以及其他骨骼或软组织标志的三维坐标。在一些具体实施中,检测手形的过程涉及将一个或多个所捕获的视频数据帧中的像素级数据与存储在库480中的手势进行比较,直到找到匹配,例如,通过应用机器视觉算法。当超过机器视觉算法中设置的预定义置信度阈值时,可确定匹配。

在一些示例性具体实施中,存储器434还包括音频滤波器481、虚拟对象数据库482、虚拟对象处理系统484、音频区域检测系统486、以及音频处理系统488。

音频滤波器481包括多个预定义HRTF音频滤波器(例如,用于每个区域的左音频滤波器和右音频滤波器),用于基于虚拟对象音轨的定位来处理虚拟对象音轨。在一个示例中,任何区域所需的HRTF均衡和延迟被预先计算为一小组双二阶滤波器(例如,每个区域4至7个双二阶滤波器;其中每个滤波器表示6个乘积累加运算)。数字双二阶滤波器是二阶递归线性滤波器,包含两个极点和两个零点。在Z域中,双二阶滤波器的传递函数是两个二次函数的比率(H(z)=(b0+b1z

虚拟对象数据库482包括与虚拟对象相关联的信息。在一个示例中,虚拟对象数据库482包括音频信息(例如,音轨)和视觉信息(例如,用于创建外观的图像)。

虚拟对象处理系统484生成用于在光学组件180A至180B的图像显示器上呈现虚拟对象并且控制虚拟对象的移动的指令。虚拟对象处理系统484还计算与虚拟对象相关联的信息,诸如虚拟对象的定位、方向速度和相对于用户的距离。音频区域检测系统486生成用于检测虚拟对象当前相对于用户的头部处于哪个区域中的指令。在一个示例中,音频区域检测系统484维持表示用户的头部周围区域的地图(见图8A),以用于区域检测。音频处理系统488生成指令,这些指令用于响应于虚拟对象的当前定位将HRTF滤波器应用于虚拟对象的音轨,并经由音频处理器413和扬声器185A至185B向用户呈现声音。

存储器434还可包括图像捕获应用、定位系统和图像处理系统。在相机正在捕获视频数据帧的HRTF建模系统400中,图像捕获应用将处理器432配置为检测手形(例如,指向食指)。定位系统将处理器432配置为获得定位数据,以用于确定眼戴设备100相对于物理环境的定位。该定位数据可从一系列图像、IMU 472、GPS单元或它们的组合中导出。图像处理系统将处理器432配置为与图像显示器驱动器442和图像处理器412协作,以在光学组件180A至180B的显示器上呈现所捕获的静态图像。

图5是示例性移动设备401的大致功能框图。移动设备401包括闪存存储器540A,其存储要由CPU 530执行以执行本文所述的所有功能或功能子集的程序。

移动设备401可包括相机570,其包括至少两个可见光相机(具有重叠的视场的第一和第二可见光相机)或具有基本上重叠的视场的至少一个可见光相机和深度传感器。闪存存储器540A还可包括经由相机570生成的多个图像或视频。

如图所示,移动设备401包括图像显示器580、控制图像显示器580的移动显示器驱动器582和显示器控制器584。在图5的示例中,图像显示器580包括用户输入层591(例如,触摸屏),其层叠在由图像显示器580使用的屏幕的顶部上或以其他方式集成到该屏幕中。

可使用的触摸屏式的移动设备的示例包括(但不限于)智能电话、个人数字助理(PDA)、平板计算机、膝上型计算机或其他便携式设备。然而,触摸屏式的设备的结构和操作是以示例的方式提供的;如本文所述的主题技术并不旨在局限于此。出于本讨论的目的,图5因此提供了具有用户界面的示例性移动设备401的框图图示,该用户界面包括用于接收输入(通过手、触笔或其他工具的触摸、多点触摸或手势等)的触摸屏输入层591和用于显示内容的图像显示器580

如图5所示,移动设备401包括用于经由广域无线移动通信网络进行数字无线通信的至少一个数字收发器(XCVR)510,示出为WWAN XCVR。移动设备401还包括附加的数字或模拟收发器,诸如用于诸如经由NFC、VLC、DECT、ZigBee、Bluetooth

为了生成用于定位移动设备401的位置坐标,移动设备401可包括全球定位系统(GPS)接收器。另选地或附加地,移动设备401可利用短距离XCVR 520和WWAN XCVR 510中的任一者或两者来生成用于定位的位置坐标。例如,基于蜂窝网络、Wi-Fi或Bluetooth

收发器510、520(即,网络通信接口)符合现代移动网络所利用的各种数字无线通信标准中的一个或多个标准。WWAN收发器510的示例包括(但不限于)被配置为根据码分多址(CDMA)和第3代合作伙伴计划(3GPP)网络技术运行的收发器,所述技术包括例如但不限于3GPP类型2(或3GPP2)和LTE,有时被称为“4G”。例如,收发器510、520提供信息的双向无线通信,所述信息包括数字化音频信号、静态图像和视频信号、用于显示的网页信息以及web相关输入,以及去往/来自移动设备401的各种类型的移动消息通信。

移动设备401还包括用作中央处理单元(CPU)的微处理器;如图4中的CPU 530所示。处理器是具有被构造并布置成执行一个或多个处理功能通常是各种数据处理功能的元件的电路。尽管可使用分立的逻辑部件,但是这些示例利用形成可编程CPU的部件。微处理器例如包括一个或多个集成电路(IC)芯片,其结合了执行CPU的功能的电子元件。例如,CPU530可基于任何已知或可用的微处理器架构,诸如使用ARM架构的精简指令集计算(RISC),正如现今在移动设备和其他便携式电子设备中通常使用的。当然,处理器电路的其他布置可用于形成智能电话、膝上型计算机和平板电脑中的CPU 530或处理器硬件。

通过将移动设备401配置为例如根据CPU 530可执行的指令或程序来执行各种操作,CPU 530用作移动设备401的可编程主机控制器。例如,此类操作可包括移动设备的各种一般操作,以及与用于移动设备上的应用的程序相关的操作。尽管处理器可使用硬连线逻辑来配置,但是移动设备中的典型处理器是通过执行程序来配置的通用处理电路。

移动设备401包括用于存储程序和数据的存储器或存储系统。在示例中,存储器系统可根据需要包括闪存存储器540A、随机存取存储器(RAM)540B和其他存储器部件540C。RAM 540B用作由CPU 530处理的指令和数据的短期存储装置,例如,用作工作数据处理存储器。闪存存储器540A通常提供长期存储。

因此,在移动设备401的示例中,闪存存储器540A用于存储由CPU 530执行的程序或指令。根据设备的类型,移动设备401存储并运行移动操作系统,特定应用通过该移动操作系统执行。移动操作系统的示例包括Google Android、Apple iOS(用于iPhone或iPad设备)、Windows Mobile、Amazon Fire OS、RIM BlackBerry OS等。

眼戴设备100内的处理器432可构建眼戴设备100周围的环境的地图,确定眼戴设备在映射的环境内的位置,并且确定眼戴设备相对于映射的环境中的一个或多个对象的相对定位。处理器432可构建地图,并且使用应用于从一个或多个传感器接收的数据的即时定位与地图构建(SLAM)算法来确定位置和定位信息。传感器数据包括从相机114A、114B中的一者或两者接收的图像、从激光测距仪接收的距离、从GPS单元473接收的定位信息、从IMU572接收的运动和加速度数据、或者来自此类传感器或来自提供用于确定定位信息的数据的其他传感器的数据的组合。在增强现实的上下文中,SLAM算法用于构建并更新环境的地图,同时追踪并更新设备(或用户)在映射的环境中的位置。数学解可使用各种统计方法来近似,诸如粒子滤波器、卡尔曼滤波器、扩展卡尔曼滤波器和协方差交集。在包括以高帧速率(例如,每秒三十个帧)捕获视频的高清晰度(HD)摄像机的系统中,SLAM算法至少与帧速率一样频繁地更新地图和对象的位置;换言之,每秒三十次地计算和更新映射和定位。

传感器数据包括从相机114A、114B中的一者或两者接收的图像、从激光测距仪接收的距离、从GPS单元473接收的定位信息、从IMU 472接收的运动和加速度数据、或者来自此类传感器或来自提供用于确定定位信息的数据的其他传感器的数据的组合。

图6描绘了示例性物理环境600以及用于自然特征追踪(NFT;例如,使用SLAM算法的追踪应用)的元素。眼戴设备100的用户602存在于示例性物理环境600(在图6中为内部房间)中。眼戴设备100的处理器432使用所捕获的图像来确定其相对于环境600内的一个或多个对象604的定位,使用环境600的坐标系(x,y,z)来构建环境600的地图,并且确定其在坐标系内的定位。另外,处理器432通过使用与单个对象604a相关联的两个或更多个位置点(例如,三个位置点606a、606b和606c)或者通过使用与两个或更多个对象604a、604b、604c相关联的一个或多个位置点606来确定眼戴设备100在环境内的头部姿态(滚转、俯仰和偏航)。眼戴设备100的处理器432可定位环境600内的虚拟对象608(诸如图6中所示的钥匙),以便在增强现实体验期间进行查看。

标记610被配准在环境中的位置处,以辅助设备完成追踪和更新用户、设备和对象(虚拟的和物理的)在映射的环境中的位置的任务。有时将标记与高对比度物理对象诸如安装在较浅色的墙壁上的相对较暗的对象诸如框架图像604a配准,以帮助相机和其他传感器进行检测标记的任务。标记可以是预先指定的,或者可以由眼戴设备100在进入环境时指定。

标记610可使用信息编码或以其他方式与信息链接。标记可包括定位信息、物理代码(诸如条形码或QR代码)或它们的组合,并且可对用户可见或隐藏。与每个标记610相关联的一组数据被存储在眼戴设备100的存储器434中。该一组数据包括关于标记610a、标记的定位(位置和定向)、一个或多个虚拟对象或它们的组合的信息。标记定位可包括一个或多个标记界标616a的三维坐标,诸如图6所示的大致矩形的标记610a的角部。标记定位可以相对于真实世界地理坐标、标记坐标系、眼戴设备100的定位或其他坐标系来表示。与标记610a相关联的该一个或多个虚拟对象可包括各种材料中的任何材料,包括静止图像、视频、音频、触觉反馈、可执行应用、交互式用户界面和体验、以及此类材料的组合或序列。在该上下文中,能够被存储在存储器中并且在遇到标记610a时被检索或与所指定的标记相关联的任何类型的内容都可被分类为虚拟对象。例如,图6所示的钥匙608是在标记位置处显示为2D或3D静态图像的虚拟对象。

在一个示例中,标记610a可在存储器中配准为位于物理对象604a(例如,图6所示的带框架艺术品)附近并与其相关联。在另一示例中,标记可在存储器中配准为相对于眼戴设备100的特定定位。

图7是描绘用于在可穿戴设备(例如,眼戴设备)上实施本文所述的增强现实应用的方法的流程图700。尽管如本文所述,参考眼戴设备100描述了这些步骤,但是本领域技术人员根据本文的描述将理解所描述的步骤针对其他类型的设备的其他具体实施。另外,可以设想,在图7中以及在其他附图中示出的并且在本文中描述的步骤中的一个或多个步骤可省略、同时或依序执行、以不同于所示和所述的次序执行、或结合附加步骤执行。

在框702处,眼戴设备100捕获在眼戴设备100附近的物理环境600的一个或多个输入图像。处理器432可连续地从可见光相机114接收输入图像,并且将这些图像存储在存储器434中以供处理。另外,眼戴设备100可从其他传感器捕获信息(例如,来自GPS单元的位置信息、来自IMU 472的定向信息、或来自激光距离传感器的距离信息)。

在框704处,眼戴设备100将所捕获的图像中的对象与存储在图像库中的对象进行比较以识别匹配。在一些具体实施中,处理器432将所捕获的图像存储在存储器434中。已知对象的图像库存储在虚拟对象数据库482中。

在一个示例中,处理器432被编程为识别预定义的特定对象(例如,悬挂在墙壁上的已知位置处的特定图片604a、另一墙壁上的窗口604b、或定位在地板上的对象诸如保险箱604c)。其他传感器数据诸如GPS数据可用于缩小在比较中使用的已知对象(例如,仅与通过GPS坐标识别出的房间相关联的图像)的数量。在另一示例中,处理器432被编程为识别预定义的一般对象(诸如公园内的一棵或多棵树)。

在框706处,眼戴设备100确定其相对于对象的定位。处理器432可通过将所捕获的图像中的两个或更多个点之间(例如,一个对象604上的两个或更多个位置点之间或者两个对象604中的每个对象上的位置点606之间)的距离与所识别的对象中的对应点之间的已知距离进行比较和处理,来确定其相对于对象的定位。所捕获的图像的点之间的距离大于所识别的对象的点之间的距离,说明眼戴设备100比捕获包括所识别的对象的图像的成像器更靠近所识别的对象。另一方面,所捕获的图像的点之间的距离小于所识别的对象的点之间的距离,说明眼戴设备100比捕获包括所识别的对象的图像的成像器更远离所识别的对象。通过处理相对距离,处理器432能够确定相对于对象的定位。另选地或附加地,可使用其他传感器信息(诸如激光距离传感器信息)来确定相对于对象的定位。

在框708处,眼戴设备100构建围绕眼戴设备100的环境600的地图,并且确定其在环境内的位置。在一个示例中,在所识别的对象(框704)具有预定义坐标系(x,y,z)的情况下,眼戴设备100的处理器432使用该预定义坐标系来构建地图,并且基于相对于所识别的对象的所确定的定位(框706)来确定其在该坐标系内的定位。在另一示例中,眼戴设备使用环境内的永久或半永久对象604的图像(例如,公园内的树或公园长凳)来构建地图。根据该示例,眼戴设备100可限定用于环境的坐标系(x′,y′,z′)。

在框710处,眼戴设备100确定眼戴设备100在环境内的头部姿态(滚转、俯仰和偏航)。处理器432通过使用一个或多个对象604上的两个或更多个位置点(例如,三个位置点606a、606b和606c)或通过使用两个或更多个对象604上的一个或多个位置点606来确定头部姿态。使用传统图像处理算法,处理器432通过比较在所捕获的图像与已知图像的位置点之间延伸的线的角度和长度来确定滚转、俯仰和偏航。

在框712处,眼戴设备100向用户呈现视觉图像。处理器432使用图像处理器412和图像显示器驱动器442在图像显示器180上向用户呈现图像。处理器响应于眼戴设备100在环境600内的位置而经由图像显示器显影并呈现视觉图像。在一个示例中,视觉图像包括用于操纵GUI(图8B)特征的手部1002和虚拟航天器1004(图10)的图像。

在框714处,随着用户在环境600中移动,重复以上参考框706-712所述的步骤,以更新眼戴设备100的定位以及用户602所观看的内容。

图8A是表示区域地图800的图示,其中对象(图8A中的36个对象)定位在围绕用户周围的对象的多个区域(例如,36个区域;未示出)中的每个区域中,以用于选择HRTF滤波器,从而应用于音轨以便在用户的耳朵803处呈现。区域地图定义了每个区域的边界。在一个示例中,用户的头部802周围的空间被定义为36个区域:围绕头部旋转的12个扇区(如时钟),其中每个扇区分为3个垂直区域:耳朵上方808、耳朵水平位置804、以及耳朵下方812。对象806a至806n定位在用户耳朵水平位置804周围的相应区域内,对象810a至810n定位在用户耳朵上方水平位置808周围的相应区域内,对象814a至814n定位在用户耳朵下方水平位置812周围的相应区域内。

图8B是图形用户界面(GUI)850,该GUI用于测试响应于虚拟对象相对于用户的头部802的定位而应用于该对象的音轨的滤波器。时钟852存在于用户的头部802周围,以表示围绕头部802的12个扇区/区域。存在环形控件854和线形控件860,用于选择应用于音轨的滤波器,以使得声音听起来似乎来自于用户的头部802周围的不同位置。环形控件854选择声音在围绕头部802的平面中的方向,线形控件860选择声音是在耳朵水平位置、耳朵上方水平位置还是耳朵下方水平位置。操纵控件选择滤波器,以使得声音听起来似乎来自所期望的方向。

环形控件854在时钟852的周围。环形控件包括环形轨道858和定位在轨道858内用于选择方向的选择器856。所示出的选择器856包括指示符,该指示符表示与所期望的方向相关联的角度信息,所期望的方向为声音应被感知所来自的方向(所示示例中的90度表示声音应听起来似乎来自用户的右侧)。用户围绕环形轨道858移动选择器856,以改变方向选择。

线形控件860包括线形轨道864。选择器862定位在轨道864内,用于选择水平位置(例如,耳朵水平位置、耳朵下方水平位置、耳朵上方水平位置)。用户沿轨道864移动选择器862,以改变水平位置。

GUI 850还包括用于选择音轨的音频选择按钮866、用于播放选择音轨的播放按钮868、用于暂停音轨的暂停按钮870、以及用于将指示符856/862重置到其默认位置(例如,在90度的选择856以及在0度的选择器862)的重置按钮872。

GUI可呈现在眼戴设备100的显示器180、移动设备401的显示器580或远程计算机诸如服务器系统498的显示器上。在一个示例中,用户可使用眼戴设备100的用户输入设备491、使用移动设备的用户输入层591或另一设备的用户输入来操纵选择器856/862并致动按钮866/868/870/872。

在另一示例中,用户可通过由眼戴设备的相机114所捕获的手势来操纵选择器856/862并致动按钮866/868/870/872。根据该示例,眼戴设备100的处理器432被配置为使用相机114A、114B捕获视频数据帧。将图像中的对象与手势库480进行比较,以识别与动作相关联的预定义手势(例如,指向食指)。识别出手势后,确定其相对于选择器856/862的定位,并致动按钮866/868/870/872。手势的修改(例如,当食指的指尖靠近按钮时的轻击动作或当食指的指尖靠近选择器时的轻扫动作)导致按钮/选择器的致动。

在一些具体实施中,确定所检测到的手形是否与预定义手势匹配的过程涉及将一个或多个所捕获的视频数据帧中关于手形的像素级数据与存储于手势库480中的手势集合进行比较。所检测到的手形数据可包括手腕、多达十五个指节间关节、多达五个指尖以及在所捕获的帧中找到的其他骨骼或软组织标志的三维坐标。将这些数据与存储在手势库480中的手势数据进行比较,直到找到最佳匹配。在一些示例中,该过程包括计算所检测到的手形指尖坐标与存储在库480中的每个手势的指尖坐标集之间的测地距离之和。和在可配置的阈值准确度值内表示匹配。

在另一示例性具体实施中,确定所检测到的手形是否与预定义手势匹配的过程涉及使用机器学习算法来将一个或多个所捕获的视频数据帧中关于手形的像素级数据与包括手势的图像集合进行比较。

机器学习是指通过经验逐渐改进的算法。通过处理大量不同的输入数据集,机器学习算法可开发关于特定数据集的改进的一般化,然后在处理新数据集时使用这些一般化来产生准确的输出或解。广义地说,机器学习算法包括一个或多个参数,这些参数将响应于新的经验而调整或改变,从而逐渐地改进算法;这是类似于学习的过程。

在计算机视觉的背景下,数学模型试图仿效人类视觉系统完成的任务,目的是使用计算机从图像中提取信息并实现对图像内容的准确理解。计算机视觉算法已经被开发用于包括人工智能和自主导航的多个领域,以提取和分析数字图像和视频中的数据。

深度学习是指基于人工神经网络或仿效人工神经网络的一类机器学习方法。人工神经网络是由多个简单的、高度互连的处理元件(节点)组成的计算系统,这些处理元件通过它们对外部输入的动态状态响应来处理信息。大型人工神经网络可能具有数百或数千个节点。

卷积神经网络(CNN)是一种经常应用于分析包括数字照片和视频的视觉图像的神经网络。CNN中的节点之间的连接模式通常根据人类视觉皮层的组织来建模,人类视觉皮层包括布置成对视场中的重叠区域做出响应的个体神经元。适用于本文所述确定过程的神经网络基于以下架构中的一者:VGG16、VGG19、ResNet50、Inception V3、Xception或其他CNN兼容架构。

在机器学习的示例中,处理器432使用被称为手部特征模型的机器训练算法来确定所检测到的手形是否基本上与预定义手势匹配。处理器432被配置为访问通过机器学习训练的手部特征模型,并且应用该手部特征模型以在一个或多个视频数据帧中识别和定位该手形的特征。

在一个示例性具体实施中,经训练的手部特征模型接收包含所检测到的手形的视频数据帧,并将该帧中的图像抽象为层以供分析。基于经训练的手部特征模型,逐层地将每个层中的数据与存储在手势库480中的手势数据进行比较,直到识别出良好匹配。

在一个示例中,使用卷积神经网络来执行逐层图像分析。在第一卷积层中,CNN识别所学习特征(例如,手部特征点、关节坐标集等)。在第二卷积层中,图像被变换成多个图像,其中所学习特征各自在相应的子图像中被强调。在池化层中,图像和子图像的尺寸和分辨率被减小,以便隔离每个图像的包括可能的感兴趣特征(例如,可能的手掌形状、可能的手指关节)的部分。来自非输出层的图像的值和比较被用于对帧中的图像进行分类。如本文所用的分类是指使用经训练的模型来根据所检测到的手形对图像进行分类的过程。例如,如果所检测到的手形与来自库480的指向手势匹配,则图像可被分类为“存在指向手势”。

在一些示例性具体实施中,处理器432响应于检测到指向手势而在显示器180A至180B上呈现指示符1002(见图10)。指示符1002通知佩戴者已经检测到预定义手势。在一个示例中,指示符1002是对象,诸如图10中所示的指向手指。指示符1002可包括一个或多个可视的、可听的、可触知的元素和其他元素,以通知或警告佩戴者已经检测到指向手势。用户可通过在眼戴设备100的视场内移动所检测到的手势来移动指示符1002。

图9A是列出用于使用HRTF来呈现音频信号的示例性方法中的步骤的流程图900。尽管如本文所述,参考眼戴设备100描述了这些步骤,但是本领域技术人员根据本文的描述将理解所描述的步骤针对其他类型的移动设备的其他具体实施。另外,可以设想,所示和所述的步骤中的一个或多个步骤可省略、同时或依序执行、以不同于所示和所述的次序执行、或结合附加步骤执行。

在框902处,系统呈现虚拟对象(例如,图10中的航天器1004)。在示例中,处理器432从虚拟对象数据库482中检索虚拟对象。所检索的虚拟对象具有相关联的音轨。处理器432使用虚拟对象处理系统484来处理虚拟对象,该虚拟对象处理系统控制图像处理器412以在光学组件180A至180B的显示器上将虚拟对象呈现为图像。所呈现的虚拟对象在三维空间中具有虚拟定位,虚拟对象处理系统484追踪该定位。

在框904处,系统确定虚拟对象相对于用户的头部的当前定位(方向和任选的距离),其中该虚拟对象具有相关联的音轨。当前定位包括相对于用户的头部的方向。当前定位还可包括相对于用户的头部的距离。在一个示例中,方向和距离由虚拟对象处理系统484计算的矢量表示,该矢量与用户的头部相关联的定位和由虚拟对象处理系统484追踪的虚拟对象的虚拟定位相交。

在框906处,系统响应于所确定的定位来识别音频区域。处理器432使用音频区域检测系统486来确定音频区域。在一个示例中,音频区域检测系统486检索3D音频区域地图,其包括围绕原点的球形,该原点表示邻近佩戴者的头部、在其上或在佩戴者的头部内的位置,其中该球形被划分为多个音频区域(例如,36个音频区域)。随后,音频区域检测系统486从该原点投射在框904处所计算的矢量,并计算矢量与音频区域地图之间的交集。为了识别当前音频区域,音频区域检测系统486最终将相交区域识别为虚拟对象的当前音频区域。

在框908处,系统将对应于当前音频区域的左预定义滤波器和右预定义滤波器应用于与虚拟对象相关联的音轨,以产生左音频信号和右音频信号。处理器432将对应的预定义滤波器应用于虚拟对象的音轨。在一个示例中,音频处理系统488从存储在存储器434中的音频滤波器481中检索对应于该区域的音频滤波器。随后,音频处理系统488将所检索到的滤波器应用于音轨,以产生左音频信号和右音频信号。

在框910处,系统使用第一扬声器呈现左音频信号,使用第二扬声器呈现右音频信号。处理器432使用第一扬声器185A(例如,对应于用户的左耳)呈现左音频信号,并且使用第二扬声器185B(例如,对应于用户的右耳)呈现右音频信号。在一个示例中,音频处理系统488指示音频处理器413向第一扬声器185A呈现左音频信号,并且向第二扬声器185B呈现右音频信号。

图9B是列出示例性方法中的步骤的流程图920,该方法用于调节虚拟对象的音轨以产生对应于虚拟对象相对于用户的头部的方向速度的音频信号。该调节提供了与用户的视觉解释相匹配的更逼真的音频体验。

在框922处,系统确定虚拟对象相对于用户的头部的方向速度。系统通过监视虚拟对象的当前定位随时间的移动来确定方向速度。在一个示例中,虚拟对象处理系统484周期性地(例如,每10ms)计算虚拟对象的当前定位(例如,如以上参考框904所述)。随后,虚拟对象处理系统484计算虚拟对象的先前(例如,前一刻)定位与当前定位之间的方向分量以获得该对象相对于用户的相对速度,其中该方向分量是沿在与用户的头部相关联的原点与邻近该虚拟对象的定位之间延伸的线。

在框924处,系统响应于所确定的方向速度来调节左音频信号和右音频信号的频率。处理器432调节左音频信号和右音频信号的频率。在示例中,音频处理系统488指示音频处理器413调节频率(例如,当方向速度朝向用户时增加频率,当方向速度远离用户时减小频率)。音频处理系统488可通过应用传统的多普勒频移算法来调节频率。

图9C是列出示例性方法中的步骤的流程图940,该方法用于调节振幅,以产生对应于虚拟对象相对于用户的头部的距离的音频信号。该调节提供了与用户的视觉解释相匹配的更逼真的音频体验。

在框942处,系统确定虚拟对象相对于用户的头部的距离信息。系统通过监视虚拟对象的当前定位来确定距离。在一个示例中,虚拟对象处理系统484周期性地(例如,每10ms)计算虚拟对象的当前定位(例如,如以上参考框904所述)。随后,虚拟对象处理系统484计算与用户的头部相关联的原点与虚拟对象的当前定位之间的距离。

在框944处,系统响应于所确定的距离信息来调节左音频信号和右音频信号的振幅。处理器432调节左音频信号和右音频信号的振幅。在示例中,音频处理系统488指示音频处理器413调节振幅(例如,当距离相对较近时增加振幅,当距离相对较远时增加振幅)。音频处理系统488可通过应用传统的线性算法或非线性算法来调节振幅。

如本文所述,眼戴设备100、移动设备401和服务器系统498的功能中的任何功能可以被体现在一个或多个计算机软件应用或编程指令集中。根据一些示例,“功能”、“应用”、“指令”或“程序”是执行在程序中定义的功能的程序。可采用各种程序设计语言来开发以各种方式结构化的应用中的一个或多个应用,诸如面向对象的程序设计语言(例如,Objective-C、Java或C++)或面向过程程序设计语言(例如,C语言或汇编语言)。在特定示例中,第三方应用(例如,由除特定平台的供应商之外的实体使用ANDROID

因此,机器可读介质可采取许多形式的有形存储介质。非易失性存储介质包括例如光盘或磁盘,诸如任何计算机设备等中的任何存储设备,诸如可用于实施附图中所示的客户端设备、媒体网关、代码转换器等。易失性存储介质包括动态存储器,诸如此类计算机平台的主存储器。有形传输介质包括同轴电缆;铜线和光纤,包括构成计算机系统内的总线的导线。载波传输介质可采取电信号或电磁信号、或声波或光波的形式,诸如在射频(RF)和红外(IR)数据通信期间生成的那些。因此,计算机可读介质的常见形式包括例如:软盘、软磁盘、硬盘、磁带、任何其他磁介质、CD-ROM、DVD或DVD-ROM、任何其他光学介质、穿孔卡片纸带、任何其他具有孔图案的物理存储介质、RAM、PROM和EPROM、FLASH-EPROM、任何其他存储器芯片或盒、传输数据或指令的载波、传输此类载波的电缆或链路、或计算机可以从其中读取程序代码或数据的任何其他介质。许多这些形式的计算机可读介质可参与将一个或多个指令的一个或多个序列承载到处理器以供执行。

除了上文刚刚陈述的,无论是否在权利要求书中陈述,已陈述或说明的内容都不旨在或不应解释为导致任何部件、步骤、特征、对象、益处、优点或等效物献给公众。

应当理解,除非本文另外阐述了特定的含义,否则本文所用的术语和表达具有与关于它们对应的相应调查和研究领域的此类术语和表达一致的通常含义。诸如“第一”和“第二”等的关系术语仅可用于将一个实体或动作与另一个实体或动作区分开,而不一定要求或暗示这些实体或动作之间的任何实际的此类关系或顺序。术语“包括”、“包含”、“含有”、“具有”或其任何其他变型形式旨在涵盖非排他性的包括,使得包括或包含一系列元素或步骤的过程、方法、制品或装置不仅包括那些元素或步骤,而是还可以包括未明确列出的或对于此类过程、方法、制品或装置固有的其他元素或步骤。在没有进一步限制的情况下,前缀为“一”或“一个”的元素并不排除在包括该元素的过程、方法、制品或装置中另外的相同元素的存在。

除非另有说明,否则本说明书中,包括所附权利要求书中阐述的任何和所有测量、值、额定值、定位、量值、尺寸和其他规格是近似的,而不是精确的。此类量旨在具有与它们涉及的功能和它们所属的领域中的惯例一致的合理范围。例如,除非另外明确说明,否则参数值等可以从所述量或范围变化多达正负百分之十。

此外,在前述具体实施方式中可看出,出于使本公开简化的目的,各种特征在各种示例中被组合在一起。公开的本方法不应被解释为反映所要求保护的示例需要比每个权利要求中明确记载的特征更多的特征的意图。相反,如以下权利要求所反映的,要求保护的本主题在于少于任何单个公开的示例的所有特征。因此,将以下权利要求据此并入到具体实施方式中,其中每个权利要求作为独立要求保护的主题而独立存在。

虽然前文已描述了被认为是最佳模式的示例和其他示例,但应当理解,可在其中作出各种修改且本文所公开的主题可以各种形式和示例来实施,并且其可应用于许多应用中,本文仅描述了其中的一些应用。所附权利要求书旨在要求保护落入本发明构思的真实范围内的任何和所有修改和变型。

相关技术
  • 用于生成头部相关传递函数滤波器的布置
  • 用于确定头部相关传递函数的方法和存储介质
技术分类

06120116511594