掌桥专利:专业的专利平台
掌桥专利
首页

用于展示虚拟对象的方法、装置、设备、介质和产品

文献发布时间:2023-06-19 12:24:27


用于展示虚拟对象的方法、装置、设备、介质和产品

技术领域

本公开涉及计算机领域,进一步涉及人机交互技术领域,尤其涉及用于展示虚拟对象的方法、装置、设备、介质和产品。

背景技术

目前,在利用虚拟偶像进行直播的过程中,经常会对虚拟对象进行展示,例如在直播带货的过程中,需要展示虚拟商品。

现在对于虚拟商品的展示方式通常为,基于虚拟商品对应的二维贴图展示虚拟商品。然而,这种方式只能进行静态展示,无法实现与虚拟商品之间的互动,存在着展示效果较差的问题。

发明内容

本公开提供了一种用于展示虚拟对象的方法、装置、设备、介质和产品。

根据第一方面,提供了一种用于展示虚拟对象的方法,包括:获取真实对象信息;对真实对象信息进行三维建模,得到三维虚拟对象;确定针对三维虚拟对象的手部控制信息和/或语音控制信息;基于手部控制信息和/或语音控制信息,展示三维虚拟对象。

根据第二方面,提供了一种用于展示虚拟对象的装置,包括:信息获取单元,被配置成获取真实对象信息;建模单元,被配置成对真实对象信息进行三维建模,得到三维虚拟对象;信息确定单元,被配置成确定针对三维虚拟对象的手部控制信息和/或语音控制信息;展示单元,被配置成基于手部控制信息和/或语音控制信息,展示三维虚拟对象。

根据第三方面,提供了一种执行用于展示虚拟对象的方法的电子设备,包括:一个或多个处理器;存储器,用于存储一个或多个程序;当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如上任意一项用于展示虚拟对象的方法。

根据第四方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,计算机指令用于使计算机执行如上任意一项用于展示虚拟对象的方法。

根据第五方面,提供了一种计算机程序产品,包括计算机程序,计算机程序在被处理器执行时实现如上任意一项用于展示虚拟对象的方法。

根据本公开的技术,提供一种用于展示虚拟对象的方法,能够基于对真实对象信息进行三维建模,得到三维虚拟对象,并基于手部控制信息和/或语音控制信息,展示三维虚拟对象。这一过程可以实现虚拟商品的三维形态展示,并且还可以基于手部控制和/或语音控制,进一步调整三维形态的展示效果,从而实现了与虚拟商品之间的互动,展示效果更好。

应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。

附图说明

附图用于更好地理解本方案,不构成对本公开的限定。其中:

图1是本公开的一个实施例可以应用于其中的示例性系统架构图;

图2是根据本公开的用于展示虚拟对象的方法的一个实施例的流程图;

图3是根据本公开的用于展示虚拟对象的方法的一个应用场景的示意图;

图4是根据本公开的用于展示虚拟对象的方法的另一个实施例的流程图;

图5是根据本公开的用于展示虚拟对象的装置的一个实施例的结构示意图;

图6是用来实现本公开实施例的用于展示虚拟对象的方法的电子设备的框图。

具体实施方式

以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。

需要说明的是,在不冲突的情况下,本公开中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本公开。

图1是根据本公开第一实施例的示例性系统架构示意图,其示出了可以应用本公开的用于展示虚拟对象的方法的实施例的示例性系统架构100。

如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。

用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103可以为手机、电脑以及平板等电子设备,在终端设备101、102、103中,可以安装有各种应用软件,如用于进行虚拟直播的软件。其中,用于进行虚拟直播的软件能够显示虚拟偶像在虚拟空间内进行相应的活动,如虚拟偶像在虚拟空间内进行直播卖货。

终端设备101、102、103可以是硬件,也可以是软件。当终端设备101、102、103为硬件时,可以是各种电子设备,包括但不限于电视、智能手机、平板电脑、电子书阅读器、车载电脑、膝上型便携计算机和台式计算机等等。当终端设备101、102、103为软件时,可以安装在上述所列举的电子设备中。其可以实现成多个软件或软件模块(例如用来提供分布式服务),也可以实现成单个软件或软件模块。在此不做具体限定。

服务器105可以是提供各种服务的服务器,例如可以获取终端设备101、102、103中用于进行虚拟直播的软件的虚拟直播信息,虚拟直播信息可以包括进行虚拟直播的偶像、直播卖货的虚拟商品、虚拟直播所在的虚拟空间中的虚拟道具等。服务器105可以从虚拟直播信息中确定需要进行展示的虚拟对象,如虚拟商品。此时服务器105能够进一步获取虚拟商品对应的真实商品信息,也即是真实对象信息。再基于真实商品信息建模,得到三维的虚拟商品。基于针对三维的虚拟商品的手势控制信息和/或语音控制信息,控制在终端设备101、102、103中展示三维的虚拟商品。

需要说明的是,服务器105可以是硬件,也可以是软件。当服务器105为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当服务器105为软件时,可以实现成多个软件或软件模块(例如用来提供分布式服务),也可以实现成单个软件或软件模块。在此不做具体限定。

需要说明的是,本公开实施例所提供的用于展示虚拟对象的方法可以由终端设备101、102、103执行,也可以由服务器105执行。相应地,用于展示虚拟对象的装置可以设置于终端设备101、102、103中,也可以设置于服务器105中。

应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。

继续参考图2,示出了根据本公开的用于展示虚拟对象的方法的一个实施例的流程200。本实施例的用于展示虚拟对象的方法,包括以下步骤:

步骤201,获取真实对象信息。

在本实施例中,真实对象信息用于描述需要展示的虚拟对象对应的真实参数,真实对象信息的形式可以为图片形式(如真实对象的照片)、视频形式(如真实对象的视频)、文字形式(如真实对象的文字描述信息)、数字形式(如真实对象的长、宽、高等参数数据)等各类形式,本实施例对此不做限定。执行主体(如图1中的服务器105或者终端设备101、102、103)可以与管理虚拟直播的电子设备建立连接,执行主体也可以为管理虚拟直播的电子设备。在执行主体与管理虚拟直播的电子设备建立连接的情况下,执行主体可以从管理虚拟直播的电子设备中获取虚拟直播对应的虚拟场景,虚拟场景中可以包括虚拟直播中的虚拟偶像、虚拟商品、虚拟物体、虚拟道具等各类虚拟对象。又或者,在执行主体为管理虚拟直播的电子设备的情况下,可以直接从本地读取虚拟直播对应的虚拟场景。进一步的,执行主体可以在虚拟场景中确定需要进行展示的虚拟对象。具体的,执行主体可以识别虚拟场景的类别,如虚拟直播类别、虚拟对象配置类别等。在虚拟场景的类别为虚拟直播类别的情况下,可以将需要进行展示的商品实际参数确定为真实对象信息。在虚拟场景的类别为虚拟对象配置类别时,可以将需要进行展示的虚拟道具、虚拟物体等待配置项对应的真实参数确定为真实对象信息。

步骤202,对真实对象信息进行三维建模,得到三维虚拟对象。

在本实施例中,在执行主体获取到真实对象信息之后,可以对真实对象信息进行三维建模,具体可以将真实对象信息输入预设的三维建模应用软件,以使预设的三维建模应用软件基于真实对象信息在虚拟三维空间中构建出相对应的、三维形式的三维虚拟对象。其中,真实对象信息和三维虚拟对象是针对同一个对象的不同信息。预设的三维建模应用软件可以采用现有的软件,如3Ds MAX(一种基于PC系统的三维动画渲染和制作软件)。

步骤203,确定针对三维虚拟对象的手部控制信息和/或语音控制信息。

在本实施例中,语音控制信息为控制对三维虚拟对象进行相应的展示的语音,手部控制信息为控制对三维虚拟对象进行相应的展示的手部动作,可以包括但不限于手部移动动作、手部手势动作等。具体的,语音控制信息可以为虚拟场景中的虚拟偶像发出的语音,也可以为控制虚拟偶像的相关人员发出的语音。例如,在虚拟直播的过程中,通常会利用工具人(控制虚拟偶像的人员)实现指定的动作、表情,再采用动捕设备、面捕设备等设备捕捉工具人的动作、表情,基于相关的参数控制虚拟偶像呈现相对应的动作、表情。以及还可以利用工具人说话,基于录音设备捕捉工具人的语音,基于声源合成技术,将工具人的语音转换成虚拟偶像的语音,以使虚拟偶像按照工具人发出的语音发声。此时工具人发出的语音也可以作为语音控制信息。进一步的,动捕设备还可以捕捉工具人的手部动作,并将相应的参数返回给虚拟偶像,以使虚拟偶像基于该参数控制手部的动作,此时手部控制信息可以为工具人的手部动作,手部控制信息也可以为虚拟偶像的手部动作,本实施例对此不做限定。可选的,执行主体可以管理多个三维虚拟对象,对于每个三维虚拟对象,执行主体可以确定与该三维虚拟对象对应的语音控制信息和/或手部控制信息,从而实现多个三维虚拟对象并行展示。进一步可选的,手部控制信息可以基于摄像设备捕捉手部动作图像确定得到。

步骤204,基于手部控制信息和/或语音控制信息,展示三维虚拟对象。

在本实施例中,执行主体可以预先存储有手部控制信息和/或语音控制信息以及展示效果之间的对应关系,在获取到手部控制信息和/或语音控制信息之后,能够基于对应关系确定与手部控制信息和/或语音控制信息对应的展示效果,并控制三维虚拟对象按照相应的展示效果进行展示。其中,展示效果可以包括但不限于展示时长、展示动画、展示运动轨迹、展示角度变化轨迹、展示特效等各类效果的各类组合。

可选的,基于手部控制信息和/或语音控制信息,展示三维虚拟对象可以包括:基于手部控制信息,确定三维虚拟对象的展示运动轨迹、展示角度变化轨迹和/或第一展示动画;基于语音控制信息,确定三维虚拟对象的展示时长和/或第二展示动画;按照展示运动轨迹、展示角度变化轨迹、第一展示动画、展示时长和/或第二展示动画,控制三维虚拟对象进行展示。如果手部控制信息包括手部的运动轨迹,基于手部的初始坐标和三维虚拟对象的初始坐标建立对应关系,基于手部从初始坐标开始运动的运动轨迹,映射生成从三维虚拟对象的初始坐标开始运动的展示运动轨迹。如果手部控制信息包括手部的角度变化轨迹,基于手部的角度变化幅度确定三维虚拟对象的角度变化幅度,基于角度变化幅度和三维虚拟对象的初始角度生成角度变化轨迹。以及,执行主体基于对语音控制信息进行语音识别,可以得到语音指示的展示时长和/或展示动画。上述的第一展示动画可以预先与相应的手部控制信息对应存储,上述的第二展示动画可以预先与相应的语音控制信息对应存储。在对三维虚拟对象进行展示时,还可以将第一展示动画和第二展示动画叠加展示。例如,如果第一展示动画为旋转展示、且第二展示动画为镜头由远及近推进式展示,则可以将第一展示动画和第二展示动画叠加,得到镜头由远及近推进地进行旋转展示,基于叠加后的展示效果,展示三维虚拟对象。

在本实施例的一些可选的实现方式中,基于手部控制信息和/或语音控制信息,展示三维虚拟对象,包括:获取预设的展示时长;基于手部控制信息和/或语音控制信息,按照预设的展示时长控制三维虚拟对象进行展示。

在本实施例中,执行主体也可以预设有展示时长,如3秒。在控制三维虚拟对象进行展示时,可以按照预设的展示时长控制展示,如控制三维虚拟对象按照相应的展示效果展示3秒。

举例来说,在虚拟直播推销某个商品时,工作人员可以佩戴手捕设备、面捕设备、录音设备等各类设备,驱动虚拟主播发出相应的声音,做出相应的动作。如果虚拟主播要展示该商品,则可以对该商品进行三维建模,得到三维虚拟商品,同时,工作人员可以发出相应的手部控制信息、语音控制信息,展示该三维虚拟商品。如,工作人员说:“给大家旋转看一下商品”,此时可以控制三维虚拟商品旋转展示。如果该商品为衣物,为了更好的展示衣物的上身效果,可以基于真实模特进行建模,得到三维虚拟模特,并控制三维虚拟商品和三维虚拟模特贴合展示。此时,工作人员可以发出相应的手部控制信息、语音控制信息,展示该三维虚拟模特。如,工作人员说:“给大家看一下上身效果”,此时可以控制三维虚拟模特进行特写展示。其中,可以综合对语音控制信息的语音识别结果、对手部控制信息的手部识别结果,共同确定需要展示的对象以及展示方式。

继续参见图3,其示出了根据本公开的用于展示虚拟对象的方法的一个应用场景的示意图。在图3的应用场景中,执行主体可以先获取虚拟场景301,在虚拟场景301中,虚拟偶像302正在进行虚拟直播,用以推销虚拟商品。执行主体可以先获取真实的商品信息,基于真实的商品信息和预设的三维建模软件,得到三维虚拟商品304。之后,执行主体可以检测在虚拟场景301中的虚拟偶像302所发出的语音以及虚拟偶像302的手部动作。在图3中,虚拟偶像302所发出的语音即为语音控制信息303,即,“给大家360度看看这个商品”,虚拟偶像302手部的运动轨迹以及手部的手势动作即为手部控制信息。在图3的应用场景中,以仅检测到语音控制信息303、未检测到手部控制信息做示例,此时执行主体可以基于语音控制信息303展示三维虚拟商品304,即,控制三维虚拟商品304进行360度旋转,以使用户获取到各种角度展示的三维虚拟商品304,提高了展示全面性,展示效果更好。

本公开上述实施例提供的用于展示虚拟对象的方法,能够基于对真实对象信息进行三维建模,得到三维虚拟对象,并基于手部控制信息和/或语音控制信息,展示三维虚拟对象。这一过程可以实现虚拟商品的三维形态展示,并且还可以基于手部控制和/或语音控制,进一步调整三维形态的展示效果,从而实现了与虚拟商品之间的互动,展示效果更好。

继续参见图4,其示出了根据本公开的用于展示虚拟对象的方法的另一个实施例的流程400。如图4所示,本实施例的用于展示虚拟对象的方法可以包括以下步骤:

步骤401,获取真实对象信息。

步骤402,对真实对象信息进行三维建模,得到三维虚拟对象。

在本实施例中,针对步骤401至步骤402的详细描述,请请参照针对步骤201至步骤202的详细描述,在此不再赘述。

步骤403,获取手捕设备。

在本实施例中,手捕设备可以为手套形式的、用于监测各个手指的动作情况的设备。执行主体可以与手捕设备之间建立连接,对于连接的方式本实施例不做限定。例如通过蓝牙与手捕设备建立连接,此时执行主体可以基于蓝牙搜索,从搜索列表中确定出手捕设备的设备标识,基于设备标识连接至手捕设备,用以获取手捕设备。

步骤404,建立手捕设备与三维虚拟对象之间的绑定关系。

在本实施例中,执行主体在获取到手捕设备之后,可以将手捕设备与三维虚拟对象进行关联绑定,也即是,建立手捕设备与三维虚拟对象之间的绑定关系。具体的,执行主体可以调用预设的应用软件实现绑定关系的建立。其中,手捕设备还可以用于控制虚拟偶像的手部动作,基于手捕设备与三维虚拟对象之间的绑定关系,可以实现虚拟偶像的手部动作与三维虚拟对象的展示效果之间的对应关系,提高了虚拟偶像与虚拟对象之间的交互效果。在这种情况下,预设的应用软件用于将虚拟对象和虚拟偶像的手掌骨骼进行绑定,以使视觉效果上虚拟对象随着虚拟偶像的手部进行移动或者旋转。

步骤405,基于绑定关系,确定手捕设备传输的、针对三维虚拟对象的手部控制信息。

在本实施例中,执行主体在建立手捕设备与三维虚拟对象之间的绑定关系之后,还可以基于绑定关系,确定与三维虚拟对象相对应的手捕设备,接收该手捕设备传输的手部控制信息,作为针对三维虚拟对象的手部控制信息。其中,手捕设备可以检测各个手指的运动情况,并基于该运动情况生成手部控制信息。例如,检测到手指做出了某个手势,将该手势作为手部控制信息,又或者,检测到手部的平移或者旋转,将平移信息或者旋转信息作为手部控制信息。

步骤406,确定针对三维虚拟对象的手部控制信息和/或语音控制信息;手部控制信息至少包括手部平移信息、手部旋转信息和/或手势控制信息。

在本实施例中,执行主体除了基于手捕设备传输的、针对三维虚拟对象的手部控制信息,还可以采用摄像设备捕捉手部图像,得到手部控制信息。在本步骤中,所确定的手部控制信息可以为上述手捕设备传输的手部控制信息,也可以为汇总上述手捕设备传输的手部控制信息以及摄像设备捕捉的手部图像得到的手部控制信息,本实施例对此不做限定。优选的,可以采用手捕设备确定手势控制信息,以及采用摄像设备确定手部平移信息和手部旋转信息。

步骤407,基于手部平移信息确定三维虚拟对象的展示平移轨迹,和/或,基于手部旋转信息确定三维虚拟对象的展示旋转轨迹。

在本实施例中,手部平移信息可以为虚拟偶像或者指定人员的手部进行平移的参数,可以包括但不限于平移距离、平移方向。手部旋转信息可以为虚拟偶像或者指定人员的手部进行旋转的参数,可以包括但不限于旋转角度、旋转方向。执行主体可以基于手部平移信息的平移距离、平移方向,确定三维虚拟对象的展示平移轨迹,以及基于手部旋转信息的旋转角度、旋转方向,确定三维虚拟对象的展示旋转轨迹。其中,展示平移轨迹为从三维虚拟对象的当前位置,沿着平移方向,移动与平移距离相匹配的距离的轨迹。展示旋转轨迹为从三维虚拟对象的当前角度,沿着旋转方向,旋转与旋转角度匹配的角度的轨迹。

步骤408,基于展示平移轨迹控制和/或展示旋转轨迹控制三维虚拟对象进行展示。

在本实施例中,执行主体可以控制三维虚拟对象沿着展示平移轨迹进行平移,或者控制三维虚拟对象沿着展示旋转轨迹进行旋转。又或者,执行主体可以控制三维虚拟对象同时沿着展示平移轨迹和展示旋转轨迹进行平移和旋转。

步骤409,确定与手势控制信息对应的展示动画效果,控制三维虚拟对象按照展示动画效果进行展示。

在本实施例中,执行主体还可以预先存储与不同的手势对应的不同展示动画效果。在获取手势控制信息之后,可以确定与手势控制信息的手势对应的展示动画效果,控制三维虚拟对象按照该展示动画效果进行展示。其中,预先存储的不同手势可以包括但不限于点赞手势、ok手势、比心手势、张开手势、握拳手势、胜利手势等,不同展示动画效果可以包括但不限于对象旋转动画、对象出现动画、对象消失动画等,本实施例对此不做限定。举例来说,张开手势同时可以对应着对象旋转动画、对象消失动画和对象出现动画,此时的展示动画效果具体为,三维虚拟对象从手部位置消失且在空中位置旋转出现。

步骤410,确定语音控制信息中的展示关键词;基于与展示关键词对应的展示参数,展示三维虚拟对象。

在本实施例中,执行主体还可以对语音控制信息进行语音识别,得到展示关键词。再进一步确定与展示关键词对应的展示参数,展示参数可以包括但不限于展示时长参数、进行展示拍摄的摄像设备参数、展示动作参数等。举例来说,如果语音控制信息为“让大家360度看看这个商品”,则可以确定展示关键词为“360度”,进一步的,执行主体可以确定预先存储的、与展示关键词具有对应关系的展示参数,如展示时长3秒、摄像设备的镜头距离小于阈值、以及预置的360度旋转动画,此时,可以拉近摄像设备的镜头距离,按照预置的360度旋转动画展示三维虚拟对象,持续展示3秒后停止展示。

本公开的上述实施例提供的用于展示虚拟对象的方法,还可以基于手部的平移或者旋转,控制三维虚拟对象的平移或者旋转。以及基于手势对应的展示动画,设定三维虚拟对象的展示效果。以及基于语音控制信息的展示关键词对应的展示参数,展示三维虚拟对象。这一过程进一步丰富了展示效果多样性,以及人机互动方式的多样性,展示效果更好。此外,还可以利用手捕设备与三维虚拟对象之间建立绑定关系,以此确定手部控制信息,提高了手部控制信息的获取精准度。

进一步参考图5,作为对上述各图所示方法的实现,本公开提供了一种用于展示虚拟对象的装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种服务器中。

如图5所示,本实施例的用于展示虚拟对象的装置500包括:信息获取单元501、建模单元502、信息确定单元503、展示单元504。

信息获取单元501,被配置成获取真实对象信息。

建模单元502,被配置成对真实对象信息进行三维建模,得到三维虚拟对象。

信息确定单元503,被配置成确定针对三维虚拟对象的手部控制信息和/或语音控制信息。

展示单元504,被配置成基于手部控制信息和/或语音控制信息,展示三维虚拟对象。

在本实施例的一些可选的实现方式中,手部控制信息至少包括手部平移信息和/或手部旋转信息;以及,展示单元504进一步被配置成:基于手部平移信息确定三维虚拟对象的展示平移轨迹,和/或,基于手部旋转信息确定三维虚拟对象的展示旋转轨迹;基于展示平移轨迹和/或展示旋转轨迹控制三维虚拟对象进行展示。

在本实施例的一些可选的实现方式中,手部控制信息至少包括手势控制信息;以及,展示单元504进一步被配置成:确定与手势控制信息对应的展示动画效果;控制三维虚拟对象按照展示动画效果进行展示。

在本实施例的一些可选的实现方式中,展示单元504进一步被配置成:确定语音控制信息中的展示关键词;基于与展示关键词对应的展示参数,展示三维虚拟对象。

在本实施例的一些可选的实现方式中,展示单元504进一步被配置成:获取预设的展示时长;基于手部控制信息和/或语音控制信息,按照预设的展示时长控制三维虚拟对象进行展示。

在本实施例的一些可选的实现方式中,上述装置还包括:设备获取单元,被配置成获取手捕设备;绑定单元,被配置成建立手捕设备与三维虚拟对象之间的绑定关系;控制确定单元,被配置成基于绑定关系,确定手捕设备传输的、针对三维虚拟对象的手部控制信息。

应当理解,用于展示虚拟对象的装置500中记载的单元501至单元504分别与参考图2中描述的方法中的各个步骤相对应。由此,上文针对用处理虚拟对象的方法描述的操作和特征同样适用于装置500及其中包含的单元,在此不再赘述。

根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。

图6示出了用来实现本公开实施例的用于展示虚拟对象的方法的电子设备600的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。

如图6所示,设备600包括计算单元601,其可以根据存储在只读存储器(ROM)602中的计算机程序或者从存储单元608加载到随机访问存储器(RAM)603中的计算机程序,来执行各种适当的动作和处理。在RAM603中,还可存储设备600操作所需的各种程序和数据。计算单元601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。

设备600中的多个部件连接至I/O接口605,包括:输入单元606,例如键盘、鼠标等;输出单元607,例如各种类型的显示器、扬声器等;存储单元608,例如磁盘、光盘等;以及通信单元609,例如网卡、调制解调器、无线通信收发机等。通信单元609允许设备600通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。

计算单元601可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元601的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元601执行上文所描述的各个方法和处理,例如用于展示虚拟对象的方法。例如,在一些实施例中,用于展示虚拟对象的方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元608。在一些实施例中,计算机程序的部分或者全部可以经由ROM 602和/或通信单元609而被载入和/或安装到设备600上。当计算机程序加载到RAM 603并由计算单元601执行时,可以执行上文描述的用于展示虚拟对象的方法的一个或多个步骤。备选地,在其他实施例中,计算单元601可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行用于展示虚拟对象的方法。

本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。

用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。

在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。

为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。

可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。

计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。

应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。

上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。

相关技术
  • 用于展示虚拟对象的方法、装置、设备、介质和产品
  • 用于处理虚拟对象的方法、装置、设备、介质和产品
技术分类

06120113284438