掌桥专利:专业的专利平台
掌桥专利
首页

可穿戴设备及其控制方法

文献发布时间:2023-06-19 09:54:18


可穿戴设备及其控制方法

技术领域

本公开涉及可穿戴设备及其控制方法,具体涉及在可穿戴设备的显示器上显示对象的AR(增强现实)信息的可穿戴设备及其控制方法。

背景技术

为了实现增强现实眼镜,可以使用波导和显示器。波导可以划分成反射类型和衍射类型,并且可以使用液晶显示器(LCD)、硅上液晶(LCoS)、数字光处理(DLP)和激光扫描投影器(LSP)类型作为显示器。

在用于输出虚拟图像的方法中,视觉辐辏调节(vergence-accommodation)冲突可能出现在任何类型的显示器中。因此,可能破坏实际的感觉,并且这可能引起眼疲劳或运动病(例如眩晕)。

同时,由于LSP类型使用线光,因此深度(距离或深度感)可能不会在虚拟图像中表现出来,从而引起了虚拟图像的全部距离利用相同深度来表现的问题。

发明内容

技术问题

提出本公开以解决上述问题,并且本公开的目的在于提供一种可穿戴设备及其控制方法,其通过为激光投影器增加焦点调整元件来显示与对象相对应的AR信息。

技术方案

根据本公开的方面,提供了一种可穿戴设备,包括:相机;传感器;显示器;激光投影器;以及处理器,被配置为:基于由传感器获得的感测数据识别用户的注视,识别由相机获得的图像中包括的至少一个对象的位置信息,以及基于所识别的用户的注视和对象的位置信息,控制激光投影器在显示器上提供与对象有关的增强现实(AR)信息,其中,激光投影器包括:发光元件,被配置为发射激光;焦点调整元件,被配置为调整所发射的激光的焦点;以及扫描镜,被配置为控制焦点被调整的光的扫描方向,并且其中,处理器被配置为:基于所识别的用户的注视和对象的位置信息,控制焦点调整元件的驱动状态。

处理器可以被配置为:通过将用户的注视与对象的位置信息进行比较,识别对象的位置是否与用户的注视相对应,以及基于所识别的结果控制焦点调整元件的驱动状态。

处理器可以被配置为:基于对象的位置与用户的注视相对应,通过控制焦点调整元件的焦距变为第一焦距,在显示器上提供与对象有关的AR信息;以及基于对象的位置不与用户的注视相对应,通过控制焦点调整元件的焦距变为第二焦距,在显示器上提供与对象有关的AR信息。

第一焦距可以是焦点调整元件的独特焦距,并且第二焦距可以与独特焦距不同。

处理器可以被配置为:识别所获得的图像中包括的多个对象中的每个对象的位置信息;基于提供了与多个对象之中的对应于用户的注视的第一对象有关的第一AR信息,控制焦点调整元件的焦距变为第一焦距;以及基于提供了与多个对象之中的不对应于用户的注视的第二对象有关的第二AR信息,控制焦点调整元件的焦距变为第二焦距。

处理器可以被配置为:基于提供了第二AR信息,根据第二对象的深度信息控制焦点调整元件的焦距变为第二焦距。

处理器可以被配置为:获得第二对象的深度信息中包括的深度值和与所识别的用户的注视相对应的深度值之间的差;以及基于所获得的深度值之差,控制焦点调整元件的焦距变为第二焦距。

处理器可以被配置为:基于所获得的图像中包括了多个对象,通过基于多个对象中的每个对象的位置信息确定扫描起始位置、扫描方向和扫描路径中的至少一项,来控制扫描镜。

处理器可以被配置为:基于多个对象中的每个对象的位置信息,确定扫描起始位置、扫描方向和扫描路径中的至少一项,使得焦点调整元件的焦距阶段性地改变。

处理器可以被配置为:基于多个对象中的每个对象的位置信息,确定扫描起始位置、扫描方向和扫描路径中的至少一项,以最小化扫描镜的旋转操作。

根据本公开的另一方面,提供了一种用于控制包括激光投影器的可穿戴设备的方法,激光投影器包括:发光元件,被配置为发射激光;焦点调整元件,被配置为调整所发射的激光的焦点;以及扫描镜,被配置为控制焦点被调整的光的扫描方向,方法包括:基于由传感器获得的感测数据识别用户的注视;识别由相机获得的图像中包括的至少一个对象的位置信息;基于所识别的用户的注视和对象的位置信息,控制焦点调整元件的驱动状态;以及基于所识别的用户的注视和对象的位置信息,在显示器上提供与对象有关的增强现实(AR)信息。

控制焦点调整元件的驱动状态可以包括:通过将用户的注视与对象的位置信息进行比较,识别对象的位置是否与用户的注视相对应,以及基于所识别的结果控制焦点调整元件的驱动状态。

在显示器上提供AR信息可以包括:基于对象的位置与用户的注视相对应,通过控制焦点调整元件的焦距变为第一焦距,在显示器上提供与对象有关的AR信息;以及基于对象的位置不与用户的注视相对应,通过控制焦点调整元件的焦距变为第二焦距,在显示器上提供与对象有关的AR信息。

第一焦距可以是焦点调整元件的独特焦距,并且第二焦距可以与独特焦距不同。

用于控制可穿戴设备的方法还可以包括:识别所获得的图像中包括的多个对象中的每个对象的位置信息,其中,控制焦点调整元件的驱动状态可以包括:基于提供了与多个对象之中的对应于用户的注视的第一对象有关的第一AR信息,控制焦点调整元件的焦距变为第一焦距;以及基于提供了与多个对象之中的不对应于用户的注视的第二对象有关的第二AR信息,控制焦点调整元件的焦距变为第二焦距。

控制焦点调整元件的驱动状态可以包括:基于提供了第二AR信息,根据第二对象的深度信息控制焦点调整元件的焦距变为第二焦距。

控制焦点调整元件的驱动状态可以包括:获得第二对象的深度信息中包括的深度值和与所识别的用户的注视相对应的深度值之间的差;以及基于所获得的深度值之差,控制焦点调整元件的焦距变为第二焦距。

控制焦点调整元件的驱动状态可以包括:基于所获得的图像中包括了多个对象,通过基于多个对象中的每个对象的位置信息确定扫描起始位置、扫描方向和扫描路径中的至少一项,来控制扫描镜。

控制扫描镜可以包括:基于多个对象中的每个对象的位置信息,确定扫描起始位置、扫描方向和扫描路径中的至少一项,使得焦点调整元件的焦距阶段性地改变。

控制扫描镜可以包括:基于多个对象中的每个对象的位置信息,确定扫描起始位置、扫描方向和扫描路径中的至少一项,以最小化扫描镜的旋转操作。

附图说明

图1a和图1b是示出根据用户注视的对象的清晰度的图;

图2a和图2b是示出根据穿戴了可穿戴设备的用户的注视的AR信息的图;

图3是示出当未设置焦点调整元件时显示AR信息的实施例的图;

图4是示出当为设置焦点调整元件时预处理AR信息的实施例的图;

图5是示出根据本公开的实施例的可穿戴设备的框图;

图6是示出当设置了焦点调整元件时显示AR信息的实施例的图;

图7和图8示出在视网膜上形成虚拟图像的一个像素的情况的图;

图9和图10是示出扫描镜上反射的激光的移动路径的图;

图11至图14是示出根据每个实施例的AR信息显示方法的图;

图15至图18是示出根据每个实施例的焦点调整元件的改变量的图;以及

图19是示出根据实施例的用于控制可穿戴设备的方法的流程图。

具体实施方式

将在简要说明描述说明书和附图的方式之后详细描述本公开。

已经考虑本公开的实施例中的功能,尽可能地将说明书和权利要求中使用的术语选择为一般术语。然而,这些术语可以根据本领域技术人员的意图、先例、技术解释、新技术的出现等而变化。此外,也存在由申请人任意选择的术语。如果不存在特定术语定义,这样的术语可以解释为本说明书中所定义的涵义,并且可以基于说明书的一般内容和本技术领域的公知常识来解释。

在本说明书中的附图中的相同的附图标记或符号表示执行基本上相同的功能的部件或组件。为了便于描述和理解,将在不同实施例中使用相同的附图标记来做出描述。即,虽然具有相同附图标记的组件在多个附图中示出,但是所述多个附图不是示出一个实施例。

此外,包括诸如“第一”或“第二”之类的序数可以用于区分说明书和权利要求书中的组件。这样的序数用于区分相同或类似的组件,并且所述术语不应由于序数的使用而进行限制性地解释。这些术语仅用来将元件彼此区分。例如,对于使用这样的序数的组件,使用顺序或排列顺序不应利用其数字进行限制性地解释。如果需要,所述序数可以互换。

除非另外特别定义,否则单数表达可以涵盖复数表达。要理解的是,诸如“包括”或“由……组成”之类的术语在本文中用于表明存在特性、数量、步骤、操作、元件、部件或其组合,而不排除存在或添加一个或多个其它特性、数量、步骤、操作、元件、部件或其组合的可能性。

本公开的这些实施例可以进行各种改变并且包括各种实施例,并且将在附图中示出并在说明书中详细描述特定的实施例。然而,应该理解的是,这并不限制特定实施例的范围,并且包括在所公开的精神和技术范围内包括的所有修改、等同形式和/或替代形式。在描述本公开时,当确定详细描述可能会不必要地模糊本公开的要点时,可以省略现有技术的详细描述。

本公开中的诸如“模块”、“单元”或“部件”之类的术语用于指代执行至少一个功能或操作的组件,并且这样的组件可以被实现为硬件、软件、或者硬件和软件的组合。此外,除了需要在单个特定的硬件中实现多个“模块”、“单元”、“部件”等中的每一个时,这些组件可以集成在至少一个模块或芯片中并且可以在至少一个处理器中实现。

此外,在本公开的实施例中,除了直接连接之外,特定部件与另一部件的连接可以包括经由又一介质的间接连接。当描述特定部件包括另一特定部件时,除非另外提及,否则其暗示还可以包括又一部件,而不是排除又一部件。

图1a和图b是示出根据用户注视的对象的清晰度的图。

图1a是示出用户将用户的眼睛注视在前方左侧的vehicle(车辆)10上的情况。当用户将用户眼睛注视在作为位于左侧的对象的vehicle10上时,用户可能模糊地识别出用户的眼睛所注视的部分之外的对象。例如,用户可能模糊地识别出用户的眼睛所注视的左侧部分之外的部分的building(建筑物)11。为了便于描述,在本说明书中,被用户清晰地识别的对象可以是用实线显示,并且被模糊地识别的对象可以用虚线显示。例如,用户的眼睛所注视的vehicle 10用实线显示,并且位于用户的眼睛所未注视的部分上的building 11用虚线显示。

图1b是示出用户的眼睛注视在前方右侧的building 11上的情况的图。当用户将用户眼睛注视在作为位于右侧的对象的building 11上时,用户可能模糊地识别出用户的眼睛所注视的部分之外的对象。例如,可能模糊地识别出vehicle 10。

图2a和图2b是示出根据穿戴了可穿戴设备的用户的注视的AR信息的图。

可穿戴设备可以识别用户可识别范围中的对象,并且在可穿戴设备所包括的显示器上显示与该对象有关的AR信息。例如,可穿戴设备可以显示vehicle 10的AR信息20,并且vehicle 10的AR信息20可以包括:名称、制造公司、可穿戴设备到所识别的对象的距离。

图2a示出在穿戴了可穿戴设备之后用户将用户的眼睛注视在左侧的vehicle 10上的实施例。用户可以识别前方的vehicle 10对象和building 11对象。可穿戴设备可以显示关于所识别的vehicle 10对象和building 11对象的AR信息。参考图2a,可穿戴设备可以显示AR信息,包括:类型(Vehicle)、制造公司(Company:Samsung)、以及可穿戴设备与vehicle 10对象的距离(Distance:10m)中的至少一项。此外,可穿戴设备可以显示AR信息,包括:类型(Building)、建筑物名称(Name:abc)、以及可穿戴设备与building 11对象的距离(100m)中的至少一项。这里提供的AR信息可以是由用户通过菜单等设置的信息类型、由当前操作的应用提供的信息、根据对象的类型的信息等,但不限于此。

同时,可穿戴设备可以显示除了对象的AR信息之外的各种信息。例如,可穿戴设备可以显示与导航功能有关的信息。参考图2a和图2b,可穿戴设备可以在用户的前部显示与导航功能有关的AR信息(Go10m(前进10m)),并且该与导航功能有关的信息可以指用于到达目的地的方向和距离标引。图2a和图2b仅示出了“Go 10m”,但是与导航功能有关的信息可以包括:显示各种方向和距离的信息,例如“left 15m(向左15m)”、“right 20m(向右20m)”、“turn back30m(向后30m)”等。

图2a示出在穿戴了可穿戴设备之后用户将用户的眼睛注视在左侧的vehicle 10上时可穿戴设备显示AR信息的实施例。

图2b示出在穿戴了可穿戴设备之后用户将用户的眼睛注视在右侧的building 11上时可穿戴设备显示AR信息的实施例。

用户可以清晰地识别用户的眼睛所注视的对象。然而,用户可能模糊地识别出用户的眼睛未注视的对象。可穿戴设备可以显示AR信息,而不考虑用户的注视在哪个对象上。因此,在与图2a和图2b相对应的实施例中,可穿戴设备可以清晰地显示与vehicle 10和building11相对应的AR信息。换言之,可穿戴设备可以利用相同的清晰度显示AR信息,而与用户注视的位置无关。

图3是示出当未设置焦点调整元件时显示AR信息的实施例的图。

可穿戴设备可以包括:激光扫描投影器(LSP)或激光投影器150,其将稍后参考图5进行描述。激光投影器150可以包括:发光元件151、焦点调整元件152以及扫描镜153。这里的发光元件151可以是发射红色、绿色和蓝色激光的元件并且可以被称为RGB激光器。

参考图3,可穿戴设备可以使用没有焦点调整元件152的激光投影器150在显示器上显示AR信息。

附图标记310可以表示透过透明显示器看见的图像。图像320可以是由可穿戴设备在透明显示器上显示的AR信息图像。图像320可以包括:与每个对象相对应的AR信息20和21或附加信息22。激光投影器150可以使用发光元件151来在显示器上显示图像320。可穿戴设备可以使用激光投影器150在透明显示器上显示图像320,并且可穿戴设备向用户最终显示的图像可以是图像330。图像330可以是通过将透过透明显示器看见的图像与显示有AR信息的图像组合所获得的图像。

同时,用户识别的vehicle 10对象和building 11对象与可穿戴设备的距离可以彼此不同。然而,可穿戴设备可以利用相同的清晰度显示AR信息,而与用户注视的位置无关,因此,用户可能对距离或深度感产生困惑。例如,用户识别的对象可以与可穿戴设备相距不同的距离。然而,如果可穿戴设备利用相同的清晰度显示与每个对象相对应的AR信息而与用户注视的位置无关,那么用户可能对关于每个对象的距离或深度感和与每个对象相对应的AR信息产生困惑。

为了解决这样的问题,可穿戴设备可以针对关于与每个对象相对应的AR信息的图像执行预处理操作。

图4是示出当激光投影器150不包括焦点调整元件时可穿戴设备100预处理AR信息的实施例的图。

参考图4,可穿戴设备可以识别用户注视的位置,并且通过考虑用户注视的位置,针对AR信息图像的一些AR信息执行预处理操作。

例如,可穿戴设备可以区分在用户注视的位置处的对象和未在用户注视的位置处的对象。可穿戴设备可以清晰地显示与在用户注视的位置处的对象相对应的AR信息,并且可以模糊地显示与未在用户注视的位置处的对象相对应的AR信息。

换言之,可穿戴设备可以预先针对AR信息执行预处理操作,并且可穿戴设备可以预先获得图像420,在该图像420中,通过考虑用户注视的位置而确定了与每个对象相对应的AR信息的清晰度(清晰或模糊状态)。预处理操作可以指适于预先改变AR信息的清晰度的操作,并且可穿戴设备可以经由激光投影器150输出一些AR信息的清晰度被改变的图像。这里,激光投影器150可以包括焦点调整元件。

附图标记410可以表示透过透明显示器看见的图像。附图标记420可以表示由可穿戴设备在透明显示器上显示的AR信息图像。图像420可以包括:与每个对象相对应的AR信息20和21以及附加信息22。激光投影器150可以使用发光元件151来在显示器上显示图像420。可穿戴设备可以使用激光投影器150在透明显示器上显示图像420,并且可穿戴设备向用户最终显示的图像可以是图像430。图像430可以是通过将透过透明显示器看见的图像与显示有AR信息的图像组合所获得的图像。

图5是示出根据本公开的实施例的可穿戴设备的框图。

参考图5,可穿戴设备100可以包括:相机110、传感器120、显示器130、处理器140、激光扫描投影器(LSP)或激光投影器150。

相机110可以是由可穿戴设备100用作用于识别用户前方的对象的设备,并且相机110可以捕捉用于识别前方的物体和环境的图像。可穿戴设备100可以检测位于使用相机110的用户前方的对象的特性。此外,可穿戴设备100可以检测由相机110识别的对象在空间(深度图)中如何分布以及每个对象是什么(对象识别)。此外,可穿戴设备100可以通过使用所测量的信息确定在对应的位置上显示哪个信息。

传感器120可以用作用于识别用户的注视的设备。例如,传感器120可以检测用户瞳孔的移动,以识别用户正在看哪里。这里,传感器120和相机110被分开示出,但是可穿戴设备100可以包括除了相机110之外的用于识别前方对象的相机、以及可以附接到传感器120的其他相机。

对于显示器130,可以使用透明显示器,从而使用户能够看到前方。用户可以透过显示器130朝前看,并且与特定对象相对应的AR信息可以显示在显示器130的一部分上。

处理器140可以执行可穿戴设备的总体控制操作。具体地,处理器可以使用由相机110捕捉的图像信息来识别对象并且获得与对象相对应的AR信息。此外,处理器可以控制激光投影器150在显示器140上显示AR信息。

处理器可以实现为处理数字信号的数字信号处理器(DSP)或微处理器。然而,本公开不限于此,并且处理器可以包括中央处理单元(CPU)、微控制器单元(MCU)、微处理单元(MPU)、控制器、应用处理器(AP)或通信处理器(CP)以及ARM处理器中的一个或多个,或者可以被定义为相应的术语。此外,处理器140可以被实现为包括处理算法的片上系统(SoC)或大规模集成(LSI),或可以以现场可编程门阵列(FPGA)的形式实现。

处理器140可以基于由传感器120获得的感测数据识别用户的注视,并且处理器140可以识别关于由相机110获得的图像中包括的至少一个对象的信息。关于对象的信息可以包括诸如对象的类型、名称、形状、颜色等之类的对象信息,并且可以包括关于对象位于哪个位置的位置信息。

处理器140可以基于所识别的用户的注视和对象的信息,获得与对象有关的增强现实(AR)信息。为了获得对象的信息,用户可以分析由相机110捕捉的图像。可以在由相机捕捉的图像中识别对象,并且可以获得与对应的对象相对应的AR信息。作为用于获得AR信息的方法,处理器140可以使用内部存储设备。可以通过使用存储在内部存储设备中的数据库预先获得对象的信息。

同时,在实际实现中,处理器140可以使用外部服务器以获得与对象相对应的AR信息。处理器140将对象的信息发送到外部服务器并且从外部服务器接收对应的AR信息。这里,处理器140还可以另外包括用于发送和接收数据的通信器(未示出)。

同时,处理器140可以控制激光投影器150在显示器130上提供所获得的AR信息。

激光投影器150可以包括:发光元件151,其发射激光;焦点调整元件152,其调整所发射的激光的焦点;以及扫描镜153,其控制焦点被调整的光的扫描方向。

参考图5,激光投影器150可以是激光扫描投影器(LSP),并且可以包括:发光元件151、焦点调整元件152以及扫描镜153。

激光投影器150可以是用于输出激光光源的设备,并且可以使用LSP方法。

发光元件151可以主要输出具有红色、绿色和蓝色这三种颜色的光源,并且可以通过额外将白色光源与这三种光源组合来输出具有不同颜色的光。

焦点调整元件152可以是由发光元件151输出的光从其中透过并且可以折射光的元件。当控制焦点调整元件152时,可以改变所透射的光的折射程度。当光的折射程度改变时,虚拟图像的焦点就可以改变,因此,用户可以清晰或模糊地识别对象。

焦点调整元件152可以由液体透镜、液晶透镜等形成。液体透镜可以指通过物理地改变透镜的厚度或形状而调整折射率的透镜,液晶透镜可以指通过改变分子的化学构型或排列而调整折射率的透镜。

处理器140可以基于所识别的用户的注视和对象的位置信息,控制焦点调整元件152的驱动状态。

这里,处理器140可以通过将用户的注视与对象的位置信息进行比较,识别对象的位置是否与用户的注视相对应。处理器140可以基于所识别的结果,控制焦点调整元件152的驱动状态。

具体地,当对象的位置与用户的注视相对应时,处理器140可以控制焦点调整元件152的焦距变为第一焦距,并且可以在显示器130上提供与对象有关的AR信息。这里,焦距可以是光透射过焦点调整元件152之后在交汇处的焦点和基准点之间的距离。基准点可以指焦点调整元件152的顶点。焦距可以根据焦点调整元件152的折射率而变化。例如,当焦点调整元件152的折射率改变时,焦距也可以改变。第一焦距可以对应于在焦点调整元件152具有特定折射率的状态下的预先存储的距离。

当处理器140通过调整焦点调整元件152而改变折射率时,焦距可以被改变。当焦距改变时,对象的清晰度可以不同。清晰度不同可以暗示在用户的视网膜上形成的图像的清晰度的改变。具体地,当由激光投影器150输出的光相同时,由用户识别的图像的清晰度可以根据焦点调整元件152的折射率的改变而变化。

同时,当对象的位置不对应于用户的注视时,处理器140可以控制焦点调整元件152的焦距变为第二焦距,并且可以在显示器130上提供与对象有关的AR信息。

这里,第一焦距可以指焦点调整元件152的独特焦距,并且第二焦距可以与该独特焦距不同。

同时,处理器140可以识别所获得的图像中包括的多个对象中的每个对象的位置信息。当提供与多个对象之中的对应于用户注视的第一对象有关的第一AR信息时,处理器140可以控制焦点调整元件152的焦距变为第一焦距。

当提供与多个对象之中的不对应于用户注视的第二对象有关的第二AR信息时,处理器140可以控制焦点调整元件152的焦距变为第二焦距。

此外,当提供第二AR信息时,处理器140可以基于第二对象的深度信息,控制焦点调整元件152的焦距变为第二焦距。

此外,处理器140可以获得第二对象的深度信息中包括的深度值和与所识别的用户的注视相对应的深度值之间的差,并且基于所获得的深度值之差控制焦点调整元件152的焦距变为第二焦距。这里的深度值可以指表示对象的距离感的标引。深度值可以将对象到可穿戴设备100的距离作为基准。

此外,当所获得的图像包括多个对象时,处理器140可以通过基于多个对象中的每个对象的位置信息,确定扫描起始位置、扫描方向和扫描路径中的至少一项,来控制扫描镜153。扫描镜153可以反射由发光元件151输出的光(光源),以将光投影到特定位置处。因此,处理器140可以反射由发光元件151输出的光(光源),以通过调整扫描镜153的起始位置、方向、路径等,将光投影到特定位置处。

此外,处理器140可以基于多个对象中的每个对象的位置信息,确定扫描起始位置、扫描方向和扫描路径中的至少一项,从而阶段性地改变焦点调整元件152的焦距。

此外,处理器140可以基于多个对象中的每个对象的位置信息,确定扫描起始位置、扫描方向和扫描路径中的至少一项,从而最小化扫描镜153的旋转操作。稍后将参考图15至图18对此进行详细描述。

当使用激光投影器150时,即使未设置焦点调整元件152,AR信息也可以预先被模糊,然后被显示在显示器上。在这样的情况下,可以展现类似的效果。然而,实质上穿过晶状体要在视网膜上形成的像素对应于极小的激光点,因此不对应于被光学模糊的图像。因此,用户可能会由于发送到大脑的图像的清晰度信息与在视网膜上实际形成的图像的清晰度之间的差而感到别扭。

然而,由于根据本公开的实施例的可穿戴设备100经由焦点调整元件152输出图像,因此与分布(或聚焦或形成)至视网膜的一个像素相对应的光的尺寸可以在光学上与对象实际看起来模糊时的情况相同。因此,用户可以清晰地识别AR信息。此外,除了用户注视的区域之外的AR信息被模糊地表现,因此有利于保护用户的视网膜。

因此,在可穿戴设备不包括焦点调整元件152的情况下,用户可能对于虚拟图像或AR信息的深度(距离或深度感)感到别扭。然而,当使用根据本公开的实施例的可穿戴设备100时,可以通过反映AR信息的深度(距离或深度感)来体验自然的增强现实环境。

图6是示出当设置了焦点调整元件时显示AR信息的实施例的图。

已经参考了图1至图4在上文描述了可穿戴设备不包括焦点调整元件152的实施例,但是参考图6,可穿戴设备的激光投影器150还可以包括焦点调整元件152。

附图标记610可以表示透过透明显示器看见的图像。附图标记620可以表示由可穿戴设备在透明显示器上显示的AR信息图像。图像620可以包括:与每个对象相对应的AR信息20和21或附加信息22。激光投影器150可以使用发光元件151来在显示器上显示图像620。可穿戴设备可以使用激光投影器150在透明显示器上显示图像620,并且可穿戴设备向用户最终显示的图像可以是图像630。图像630可以是通过将透过透明显示器看见的图像与显示有AR信息的图像组合所获得的图像。

这里,图像620中包括的AR信息可以是与未经过预处理操作的图像相对应的信息。

当激光投影器150通过发光元件151发射未经过预处理操作的图像620时,可穿戴设备可以控制通过发光元件151发射的激光,以使其透过焦点调整元件152。

这里,可穿戴设备可以识别每个对象的位置和用户注视的位置。此外,可穿戴设备可以通过考虑对象的位置和用户注视的位置,控制焦点调整元件152。

此外,可穿戴设备可以区分在用户注视的位置处的对象和未在用户注视的位置处的对象。可穿戴设备可以控制焦点调整元件152,以清晰地显示与在用户注视的位置处的对象相对应的AR信息,并且可以控制焦点调整元件152,以模糊地显示与未在用户注视的位置处的对象相对应的AR信息。

存在用于由可穿戴设备控制焦点调整元件152的方法的各种方法。可穿戴设备可以通过改变焦点调整元件152的折射率,来调整图像的清晰度。在根据本公开的实施例的焦点调整元件152中,当透镜的厚度改变时,折射率可以改变。然而,在根据本公开的实施例的焦点调整元件152中,虽然透镜的厚度未改变,但是折射率可以通过透镜的材料和内部组件的改变而改变,并且图像的清晰度可以根据折射率的改变而被调整。

因此,可穿戴设备可以通过焦点调整元件152透射未经过预处理操作的图像620,并且使用户通过彼此不同的焦点来识别与每个对象相对应的AR信息中的每一个。

用户可以通过透明显示器看到显示有AR信息的图像,其中该AR信息是通过考虑对象的位置和用户注视的位置两者而获得的。通过透明显示器显示的最终图像630可以显示有与每个对象相对应的合适的AR信息,并且可以具体是通过反映距离和深度感而获得的图像。因此,用户对距离和深度感产生的困惑可以更少。

同时,在参考图6的描述中,描述了焦点调整元件152设置在发光元件151和扫描镜153之间,但是根据另一实施例,焦点调整元件152可以存在于各个位置处。

图7和图8示出在视网膜上形成虚拟图像的一个像素的情况的图。

图7是示出当激光投影器150不包括焦点调整元件时可穿戴设备100预处理AR信息的实施例的图。

附图标记710可以表示透过透明显示器看见的图像。图像720可以是由可穿戴设备在透明显示器上显示的AR信息图像。图像720可以包括:与每个对象相对应的AR信息20和21或附加信息22。激光投影器150可以使用发光元件151来在显示器上显示图像720。可穿戴设备可以使用激光投影器150在透明显示器上显示图像720,并且可穿戴设备向用户最终显示的图像可以是图像730。图像730可以是通过将透过透明显示器看见的图像与显示有AR信息的图像组合所获得的图像。

这里,图像720中包括的AR信息可以是与经过预处理操作的图像相对应的信息。上面已经参考图4详细描述了该处理操作。

可穿戴设备100可以预处理AR信息,并且经由激光投影器150输出通过改变一些AR信息的清晰度而获得的图像。在这种情况下,与由激光投影器150输出的分布(或聚焦或形成)至用户的视网膜的图像相对应的光的尺寸可以相同。具体地,当激光投影器150不包括焦点调整元件时,与包括聚焦(或形成或分布)在视网膜上的AR信息在内的虚拟图像720的一个像素相对应的光的尺寸可以相同。这可以是由激光器的属性引起的结果。当用户识别由激光器输出的图像时,用户可以识别出具有与距离信息无关的相同清晰度的图像。

同时,即使根据对象的距离信息预处理AR信息,用户也可能很别扭地识别AR信息。经由激光器输出的图像可能不自然得表现距离感,并且用户可能感受到眼睛疲劳或眩晕。

为了解决这样的问题,可穿戴设备100还可以在激光投影器150中包括焦点调整元件152。

图8是示出还包括焦点调整元件152时可穿戴设备100显示AR信息的实施例。

附图标记810可以表示透过透明显示器看见的图像。图像820可以是由可穿戴设备在透明显示器上显示的AR信息图像。图像820可以包括:与每个对象相对应的AR信息20和21或附加信息22。激光投影器150可以使用发光元件151来在显示器上显示图像820。可穿戴设备可以使用激光投影器150在透明显示器上显示图像820,并且可穿戴设备向用户最终显示的图像可以是图像830。图像830可以是通过将透过透明显示器看见的图像与显示有AR信息的图像组合所获得的图像。

同时,与图7不同,与图像820中的一些AR信息相对应的部分21和22可以不经过预处理操作。

在可穿戴设备100中,焦点调整元件152可以设置在发光元件151和扫描镜153之间,并且图像可以被输出。

在这种情况下,与由激光投影器150输出的分布至用户的视网膜的图像相对应的光的尺寸可以根据焦点调整元件152而变化。可穿戴设备100可以在确定是否清晰地显示对象的AR信息之后调整焦点调整元件152,并且在这种情况下,在用户的视网膜上形成的图像的尺寸可以根据焦点调整元件的折射率而变化。

例如,与用户注视的位置相对应的对象的AR信息可以经由激光投影器150输出,并且作为虚拟图像的AR信息的图形像素可以在用户的视网膜上形成小图像。这里,与用户的注视距离大约10m的AR信息22的像素可以在用户的视网膜上形成为稍大的图像。此外,与用户的注视距离大约90m的AR信息21的像素可以在用户的视网膜上形成为非常大的图像。

当比较尺寸时,图像的尺寸可以按照AR信息20、22和21的顺序变大。在视网膜上形成的图像的尺寸越大,用户可以识别的对应部分越模糊。因此,用户可以最清晰地识别AR信息20,中度模糊地识别AR信息22,并且最模糊地识别AR信息21。

可穿戴设备100可以基于对象的位置信息或到可穿戴设备100的距离信息,调整焦点调整元件152,从而改变在视网膜上形成的图像的尺寸。由于用户有差别地识别图像的尺寸,因此用户可以自然地识别在透明显示器上显示的AR信息。使用根据图8的实施例的可穿戴设备100的用户可以感受到更少的眼睛疲劳和眩晕。

图9和图10是示出扫描镜上反射的激光的移动路径的图。

激光投影器150可以包括扫描镜153,并且可穿戴设备100可以通过扫描镜153将从发光元件151输出的光投影到各个位置。扫描镜153可以用于反射光,并且可穿戴设备100可以通过调整扫描镜153的角度,将光投影到希望的位置。

可穿戴设备100可以控制扫描镜153,以通过希望的移动路径投影光。

图9是示出可穿戴设备100通过控制扫描镜153投影光的一条移动路径的实施例的图。这里的图像910、920和930可以分别与图6的图像610、620和630相对应。

可穿戴设备100可以控制激光投影器150的扫描镜153显示AR信息,并将扫描镜153移动到显示器的任意位置。图像930可以是通过将包括AR信息的图像920与透过透明显示器看见的图像910组合而获得的图像。可穿戴设备100可以使用激光投影器150输出AR信息20、21和22,以合成图像920。在这种情况下,激光投影器150可以控制扫描镜153,以将光投影到所有位置。

图9示出光被投影到所有位置,但这仅用于说明光能够被扫描镜153投影到的位置,实际上光可以只被投影到显示有与图像920相对应的AR信息20、21和22的区域。例如,发光元件151将光发射到显示有与图像920相对应的AR信息20、21和22的区域中,但是发光元件151可以不将光发射到未显示有与图像920相对应的AR信息20、21和22的区域中。

同时,根据另一实施例的可穿戴设备100可以将与可见光相对应的光发射到与显示有与图像920相对应的AR信息20、21和22的区域,并且可以将与人眼不能识别的不可见光相对应的光发射到与不显示与图像920相对应的AR信息20、21和22的区域。

同时,图10是示出可穿戴设备100通过控制扫描镜153投影光的移动路径的另一实施例的图。这里的图像1010、1020和1030可以分别与图6的图像610、620和630相对应。

参考图10,可穿戴设备100可以不针对所有的可能位置移动扫描镜153。可穿戴设备100可以只针对图像1020中显示有AR信息20、21和22的区域移动扫描镜153。图10所示的移动路径可以是用于只穿过图像1020中显示有AR信息20、21和22的区域的最小移动路径。

图9和图10所示的扫描镜153的移动路径仅是针对各种移动路径中的一些的描述,并且未示出的各种方法也可以在实际实现中应用。

同时,在图3、图4、图6、图7、图8、图9和图10中,分别对透过透明显示器看见的图像和显示有AR信息的图像进行描述,但是在实际实现中,所述图像可以通过用于将所捕捉的图像与AR信息进行组合的方法实现。具体地,可穿戴设备100可以捕捉用户前方的场景,将其存储为一幅图像,并且新生成与AR信息有关的图像。可穿戴设备100可以通过将通过捕捉用户前方的场景获得的图像和与AR信息有关的图像进行组合,来生成一幅图像。可穿戴设备100可以在显示器上显示一幅经组合的图像。

图11至图14是示出根据每个实施例的AR信息显示方法的图。

参考图11,多个对象30至对象33可以位于用户的前方,并且用户可以将注视50置于多个对象中的任意一个上。在图11中,假设Sign(标志)30、bear(熊)31、vehicle 32和building 33对象位于用户前方。假设用户的注视位于Sign 30上。图11的假设可以与图12至图18中相同。

图12是示出当激光投影器150不包括焦点调整元件152时可穿戴设备100显示AR信息的实施例的图。

与每个对象相对应的每个AR信息可以包括:类型(类别)、名称和与可穿戴设备100的距离信息。

与Sign 30对象相对应的AR信息40可以包括:Sign、stop(停)和20m。换言之,关于AR信息40,类型可以被存储为Sign,名称可以被存储为Stop,并且可穿戴设备100到对象的距离信息可以被存储为20m。当可穿戴设备100识别Sign 30对象时,可穿戴设备100可以获得与Sign 30对象相对应的AR信息40,并且在这种情况下,AR信息40可以是Sign、stop和20m。

与bear 31对象相对应的AR信息41可以包括animal(动物)、bear和30m。换言之,关于AR信息41,类型可以被存储为animal,名称可以被存储为bear,并且可穿戴设备100到对象的距离信息可以被存储为30m。当可穿戴设备100识别bear 31对象时,可穿戴设备100可以获得与bear 31对象相对应的AR信息41,并且在这种情况下,AR信息40可以是animal、bear和30m。

与vehicle 32对象相对应的AR信息42可以包括:vehicle、Samsung和10m。换言之,关于AR信息42,类型可以被存储为vehicle,名称可以被存储为Samsung,并且可穿戴设备100到对象的距离信息可以被存储为10m。当可穿戴设备100识别vehicle 32对象时,可穿戴设备100可以获得与vehicle 32对象相对应的AR信息42,并且在这种情况下,AR信息42可以是vehicle、Samsung和10m。

与building 33对象相对应的AR信息43可以包括:building、abc和100m。换言之,关于AR信息43,类型可以被存储为building,名称可以被存储为abc,并且可穿戴设备100到对象的距离信息可以被存储为100m。当可穿戴设备100识别building 33对象,可穿戴设备100可以获得与building 33对象相对应的AR信息43,并且在这种情况下,AR信息43可以是building、abc和100m。

参考图12,当未设置焦点调整元件152时,可穿戴设备100可以分别清晰地显示与各对象相对应的所有的AR信息40、41、42和43,而与所存储的距离信息无关。

然而,如果可穿戴设备100清晰地显示所有的AR信息40、41、42和43,则由于用户未注视的对象和对应AR信息之间的距离感上的差异,导致用户可能会感受到眼睛疲劳和困惑。具体地,如果用户注视在与可穿戴设备100相距20m的距离处的Sign上,则用户可以模糊地看见与可穿戴设备100相距100m的距离处的building 33。如果在清晰地看到与building33相对应的AR信息43的同时模糊地看到building 33,那么用户可能感受到眼睛疲劳,并且可能被距离感困惑。

因此,可穿戴设备100可以通过使用焦点调整元件152解决上面的问题。

图13和图14是示出可穿戴设备100使用焦点调整元件152显示AR信息的实施例。

参考图13和图14,可穿戴设备100可以使用焦点调整元件152,改变在用户的视网膜上形成的图像的尺寸和图像的清晰度。用户可以根据焦点调整元件152的改变而清晰地或模糊地看见AR信息。

图13是示出使用可穿戴设备100到对象的距离信息,通过两种清晰度级别显示AR信息的实施例的图。

参考图13的(a),用户的注视可以位于Sign对象上,并且可穿戴设备100可以控制焦点调整元件152清晰地显示与Sign相对应的AR信息40。

可穿戴设备100可以控制焦点调整元件152模糊地显示与用户未注视的对象相对应的AR信息41、42和43。

这里,可穿戴设备100可以控制焦点调整元件152以具有相同的模糊级别。

参考图13的(b),可穿戴设备100可以根据每个对象的距离信息,显示与对象相对应的AR信息。这里,可穿戴设备100可以针对每个AR信息有区别地显示清晰度。假设用户注视在Sign上。此外,根据上面参考图12的假设,与Sign的距离可以是20m,与bear的距离可以是30m,与vehicle的距离可以是10m,并且与building的距离可以是100m。

在这种情况下,可穿戴设备100可以识别每个对象的距离信息并识别焦距差。焦距差可以指:从可穿戴设备100到用户注视的位置处的距离和从可穿戴设备100到对象的距离之间的差。可穿戴设备100可以使用焦距差控制焦点调整元件152。

由于用户注视在Sign上,并且Sign与可穿戴设备100相距20m,因此焦距差的标准可以是20m。Sign和焦点在距离上的差是0m,因此,Sign的焦距差可以是0。bear和焦点在距离上的差是10m,因此,bear的焦距差可以是10。此外,vehicle和焦点在距离上的差是-10m,因此,vehicle的焦距差可以是-10。此外,building和焦点在距离上的差100m,因此,building的焦距差可以是100。

可穿戴设备100可以控制焦点调整元件152,以使用焦距差显示具有不同清晰度的AR信息。参考图13,当焦距差是0时,可穿戴设备100可以清晰地显示与对应的对象相对应的AR信息。当焦距差不是0时,可穿戴设备100可以以相同的级别(图13的(b)中的模糊级别1)模糊地显示与对应的对象相对应的AR信息。

同时,可穿戴设备100可以使用焦距差针对每个对象显示不同的清晰度,并且可以显示对象的AR信息,如图13的(a)所示。具体地,当可穿戴设备100中包括的焦点调整元件152的折射率改变时,输出光的焦距可以改变。当焦距根据焦点调整元件152的经改变的折射率而改变时,用户可以有区别地识别与对象相对应的AR信息的清晰度。

参考图13的(a),可穿戴设备100可以清晰地显示与焦距差为0的Sign对象相对应的AR信息40。可穿戴设备100可以以模糊级别1显示与焦距差不为0的对象相对应的AR信息41、42和43。

同时,图14是示出使用可穿戴设备100到对象的距离信息,以多种清晰度级别显示AR信息的实施例的图。这里,距离信息可以指从可穿戴设备100到对象的距离。

如上面参考图13所述,可穿戴设备100可以获得每个对象的焦距差。在图13中,通过划分焦距差为0的对象和焦距差不为0的对象,将清晰度划分成两种,但是参考图14,可以通过按照特定的单位划分焦距差来具体划分清晰度。

例如,如图14的(b)所示,如果焦距差(绝对值)是0到5,则清晰度可以被标识为清楚,如果焦距差是6到30,则清晰度可以被标识为模糊级别1,如果焦距差是31到50,则清晰度可以被标识为模糊级别2,并且如果焦距差是51到100,则清晰度可以被标识为模糊级别3。这里,级别越高,其对应的清晰度就越模糊。当焦距差(绝对值)大于100时,清晰度可以被标识为“无”,并且可以设置为完全不显示AR信息。这里,可穿戴设备100可以控制焦点调整元件152或控制发光元件151,以完全不显示AR信息。

这里,使用绝对值形式的焦距差的理由在于:焦点(注视)和对象在距离上的差异实际上是有意义的,并且距离差异的负值和距离差异的正值之间的差异通常不会被用户区分出来。然而,在实际实现中,可以对清晰度进行不同设置,以区分距离差异的负值和距离差异的正值。

同时,如同根据本公开的另一实施例的控制方法,如果焦距差是100或更大,则可穿戴设备100可以控制不生成AR信息。

可穿戴设备100可以基于图14的(b)中指定的清晰度显示AR信息,并且这在图14的(a)中示出。

参考图14的(a),可穿戴设备100可以清晰地显示与Sign相对应的AR信息40。可穿戴设备100可以显示清晰度以级别1模糊的模糊级别1的与bear和vehicle相对应的AR信息41和42。此外,可穿戴设备100可以清晰度以级别3模糊的模糊级别3的与building相对应的AR信息43。

在参考图13和图14的描述中,基于特定的范围针对焦距差指定清晰度,但是在实际实现中,可穿戴设备100可以根据焦距差的值划分每种清晰度。例如,当焦距差是1到100时,可穿戴设备100可以识别将清晰度标识为1到100。

图15至图18是示出根据每个实施例的焦点调整元件的改变量的图。

图15至图18是示出焦点调整元件根据扫描镜153的移动路径的改变量的图。扫描镜153的移动路径可以指由发光元件151输出并由扫描镜153反射的光被投影的路径。

参考图15至图18,为了便于计算,假设从一个方块水平或竖直地移动到另一方块花费1秒。在实际实现中,在从一个方块到另一方块的移动的过程中可能不会花费相同的时间,并且可能在特定的部分中出现延迟。

参考图15的(a),可穿戴设备100可以控制扫描镜153,使得所投影的光的流动路径从左下端开始,向右移动,并且经过所有的部分。在这种情况下,扫描镜为了将投影光移动到所有的部分所花费的时间可以是大约168秒。

虽然扫描镜153将投影光移动到所有的部分,但是可穿戴设备100可以只在显示AR信息时通过发光元件151输出光。因此,可穿戴设备100可以控制激光投影器150,以不将光实际投影到AR信息未被显示的部分中。

在这种情况下,未显示有AR信息的部分的焦距差可以被设置成保持原始焦点。这是为了最小化焦点调整元件152的改变,因为未显示有人工智能的部分与焦点调整元件152的改变无关。

沿着根据图15的(a)的扫描镜153的流动路径的焦点调整元件的改变量可以如图15的(b)所示。焦点调整元件的改变量可以通过焦距差的改变量来标识。

参考图15的(b),在40秒到100秒之间,焦距差可以反复改变。为了便于计算,已经在上面将时间单位描述为一秒的单位,但是时间单位实际上可以实现为10

参考图16的(a),光的投影的起始位置是左下端,并且移动路径可以在竖直方向上往复,以将光投影到所有的部分。如上面参考图15的(a)所述,可能花费168秒来等待扫描镜153完成所有的移动。

当根据图16的(a)来识别焦点调整元件152的改变量时,其可以与图16的(b)所示的相同。

参考图16的(b),可以确认,焦距差在120秒附近的短时间段期间改变,并且可穿戴设备100可能必须使用高速焦点调整元件152。

图17的(a)是示出可穿戴设备100控制扫描镜153的移动路径以最小化焦点调整元件152的改变量的实施例的图。与图15和图16中不同,可穿戴设备100可以控制扫描镜153,以不将光投影到整个路径,而是只将光投影到需要的部分。

为了最小化焦点调整元件152的改变量,可穿戴设备100可以针对具有相同焦距差的每个区域移动扫描镜153。此外,可穿戴设备100可以将扫描镜153从具有小焦距差的部分移动到具有大焦距差的部分,或从具有大焦距差的部分移动到具有小焦距差的部分。在这种情况下,总的移动时间可以是59秒。

当沿着图17的(a)的移动路径控制扫描镜153时,焦点调整元件152的改变量可以与图17的(b)中的相同。参考图17的(b),焦距差可以在特定时间处改变。然而,由于焦距差一旦改变就被保持,因此焦点调整元件152可以不反复地改变。例如,在图17的实施例中,可穿戴设备100可以使用正常的焦点调整元件,无需使用高速焦点调整元件。在这种情况下,可穿戴设备100的组件的成本可以减少。

图18的(a)是示出可穿戴设备100控制扫描镜153以最小化扫描镜153的移动路径的实施例的图。为了最小化扫描镜153的移动路径,可穿戴设备100可以简单地只考虑显示有AR信息的区域,而不考虑焦点调整元件152的改变。在这种情况下,所需要的总时间可以是57秒。

当沿着根据图18的(a)的移动路径控制扫描镜153时,焦点调整元件152的改变量可以与图18的(b)中的相同。参考图18的(b),焦距差可以在特定时间处改变。然而,由于焦距差一旦改变就被保持,因此焦点调整元件152可以不反复地改变。在这种情况下,由于焦点调整元件152在短时间段期间不反复地改变,因此可穿戴设备100可以使用正常的焦点调整元件152,从而可以导致成本减少。

在图18的(b)的情况下,未按照从小焦距差到大焦距差的顺序控制扫描镜153的移动路径,而仅控制扫描镜153以最小化扫描镜153的移动路径。因此,焦点调整元件152的改变的程度可能比图17的实施例中的更大。

可穿戴设备100可以控制扫描镜153的移动路径以最小化焦点调整元件152的改变量,并且可以控制扫描镜153的移动路径以最小化扫描镜153的移动路径。

同时,在实际实现中,可穿戴设备100可以控制扫描镜153以通过识别上面描述的两种情况而选择最优方法。可穿戴设备100可以对主要项应用权重,以自动选择最优方法。此外,在实际实现中,可穿戴设备100可以提供用于引导用户选择各种方法中的一种的UI。

同时,可穿戴设备100可以必须选择两种方法中的任意一种。在这种情况下,由于焦点调整元件152的驱动速度可能低于扫描镜153的驱动速度,因此使用最小化焦点调整元件152的改变量的方法可能比最小化扫描镜153的移动路径的方法有效。

图19是示出根据实施例的用于控制可穿戴设备的方法的流程图。

同时,根据本公开的实施例,通过用于控制可穿戴设备的方法,可以基于由传感器获得的感测数据识别用户的注视(S1905),其中可穿戴设备包括:激光投影器,包括:发光元件,被配置为发射激光;焦点调整元件,被配置为调整所发射的激光的焦点;以及扫描镜,被配置为控制焦点被调整的光的扫描方向。

此外,可以识别由相机获得的图像中包括的至少一个对象的位置信息(S1910)。

此外,可以基于所识别的用户的注视和对象的位置信息,控制焦点调整元件的驱动状态(S1915)。

此外,可以基于所识别的用户的注视和对象的位置信息,在显示器上提供与对象有关的增强现实(AR)信息(S1920)。

这里,步骤S1915可以包括:通过将用户的注视与对象的位置信息进行比较,识别对象的位置是否与用户的注视相对应;以及基于所识别的结果控制焦点调整元件的驱动状态。

此外,步骤S1920可以包括:基于对象的位置与用户的注视的位置相对应,通过控制焦点调整元件的焦距变为第一焦距,在显示器上提供与对象有关的AR信息;以及基于对象的位置不与用户的注视的位置相对应,通过控制焦点调整元件的焦距变为第二焦距,在显示器上提供与对象有关的AR信息。

这里,第一焦距可以是焦点调整元件的独特焦距,并且第二焦距可以与独特焦距不同。

此外,用于控制可穿戴设备的方法还可以包括:识别所获得的图像中包括的多个对象中的每个对象的位置信息,其中,控制焦点调整元件的驱动状态可以包括:基于提供了与多个对象之中的对应于用户的注视位置的第一对象有关的第一AR信息,控制焦点调整元件的焦距变为第一焦距;以及基于提供了与多个对象之中的不对应于用户的注视位置的第二对象有关的第二AR信息,控制焦点调整元件的焦距变为第二焦距。

步骤S1915可以包括:基于提供了第二AR信息,根据第二对象的深度信息控制焦点调整元件的焦距变为第二焦距。

步骤S1915可以包括:获得第二对象的深度信息中包括的深度值和与所识别的用户的注视相对应的深度值之间的差;以及基于所获得的深度值之差,控制焦点调整元件的焦距变为第二焦距。

控制方法还可以包括:基于所获得的图像中包括了多个对象,通过基于多个对象中的每个对象的位置信息确定扫描起始位置、扫描方向和扫描路径中的至少一项,来控制扫描镜。

控制扫描镜可以包括:基于多个对象中的每个对象的位置信息,确定扫描起始位置、扫描方向和扫描路径中的至少一项,从而阶段性地改变焦点调整元件的焦距。

控制扫描镜可以包括:基于多个对象中的每个对象的位置信息,确定扫描起始位置、扫描方向和扫描路径中的至少一项,以最小化扫描镜的旋转操作。

图19中的用于控制可穿戴设备的方法可以在具有图5的配置的可穿戴设备上执行,并且也可以在具有其他配置的可穿戴设备上执行。

同时,可以以可安装在相关技术的可穿戴设备中的应用的形式来实现根据上述本公开的实施例的方法。

另外,可以通过相关技术的可穿戴设备中的软件升级或硬件升级来简单实现根据上述本公开的实施例的方法。

此外,可以通过在电子设备中配备的嵌入式服务器或电子设备的外部服务器执行上述公开的实施例。

同时,根据实施例的用于控制可穿戴设备的方法可以被实现为程序并且被设置在可穿戴设备中。具体地,包括用于控制可穿戴设备的方法的程序可以被存储并设置在非暂时性计算机可读介质中。

此外,上述实施例可以在使用软件、硬件或其组合的计算机或类似设备可读的记录介质中实现。根据考虑硬件的实施方式,可以使用以下至少一项实现本公开的实施例:专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、处理器、控制器、微控制器、微处理器和用于执行其他功能的电子单元。在一些情况下,本说明书中描述的实施例可以被实现为处理器140本身。根据通过软件的实施方式,诸如本说明书中描述的处理和功能的实施例可以被实现为独立软件模块。每个软件模块可以执行本说明书中描述的一个或多个功能和操作。

可以将根据上文所描述的本公开的实施例的用于在可穿戴设备上执行处理操作的计算机指令存储在非暂时性计算机可读介质中。当存储在这样的非暂时性计算机可读介质中的计算机指令由处理器执行时,计算机指令可以使特定的机器在根据上面描述的实施例的可穿戴设备上执行处理操作。

非暂时性计算机可读介质不是短时间段存储数据的介质(诸如,寄存器、高速缓存或存储器),而是可以指半永久地存储数据且可由机器读取的介质。非暂时性计算机可读介质的特定示例可以包括CD、DVD、硬盘驱动、蓝光盘、USB、存储卡和ROM。

虽然已经参考本公开的优选实施例示出和描述了本公开,但是本公开不限于上述特定实施例,并且显然的是,在不脱离所附权利要求所要求保护的本公开的主旨的情况下,本公开所属技术领域的普通技术人员可以进行各种修改。此外,旨在这样的修改不应被解释为独立于本公开的技术思想或前景。

虽然已经参考本公开的优选实施例示出和描述了本公开,但是本公开不限于上述特定实施例,并且显然的是,在不脱离所附权利要求所要求保护的本公开的主旨的情况下,本公开所属技术领域的普通技术人员可以进行各种修改。此外,旨在这样的修改不应被解释为独立于本公开的技术思想或前景。

相关技术
  • 可穿戴设备、可穿戴设备的主单元、可穿戴设备的固定单元及可穿戴设备的控制方法
  • 可穿戴设备控制方法、可穿戴设备控制装置及可穿戴设备
技术分类

06120112348057