掌桥专利:专业的专利平台
掌桥专利
首页

一种交互方法、装置、计算机设备和存储介质

文献发布时间:2023-06-19 16:06:26



技术领域

本公开涉及增强现实技术领域,具体而言,涉及一种交互方法、装置、计算机设备和存储介质。

背景技术

针对一些对象抓取类的交互活动,传统方式一般是基于平面进行交互,且在交互过程中仅有一个正面视角,用户在交互体验过程中不可切换视角操作,使得用户沉浸式交互体验较差。

随着增强现实(Augmented Reality,AR)技术的逐渐普及,如何基于AR技术实现沉浸式的交互过程,成为值得研究的问题。

发明内容

本公开实施例至少提供一种交互方法、装置、计算机设备和存储介质。

第一方面,本公开实施例提供了一种交互方法,包括:

获取终端拍摄的现实场景画面;

基于所述现实场景画面,确定并展示第一虚拟对象和多个第二虚拟对象融入所述现实场景画面后的增强现实AR画面;所述第二虚拟对象为待被所述第一虚拟对象抓取的对象;所述多个第二虚拟对象中包含不同属性特征的第二虚拟对象,不同属性特征对应的抓取难度不同;

响应目标触发操作,从多个第二虚拟对象中确定待抓取的目标第二虚拟对象;

展示所述第一虚拟对象抓取所述目标第二虚拟对象的AR画面。

基于上述实施例,通过在终端拍摄到的现实场景画面中融入第一虚拟对象和多个第二虚拟对象,多个第二虚拟对象中包含不同属性特征的第二虚拟对象,不同属性特征对应的抓取难度不同,因此,能够为用户呈现出对应抓取难度不同的目标第二虚拟对象融入现实场景画面后的AR画面;在此基础上,可以根据抓取难度的不同,从多个第二虚拟对象中触发抓取目标第二虚拟对象。这种基于AR的对象抓取交互方式,可以通过实时调整现实场景画面,并同步呈现对应的虚拟对象,使用户沉浸到三维真实世界中执行相关交互过程,并能观察到各个视角下的AR场景对象(包括现实对象和虚拟对象);另外,通过呈现不同属性特征的第二虚拟对象并为其配置相应的抓取难度,可以增加交互活动的多样性,从而让用户有在现实世界中真实执行相关交互过程的沉浸式体验的同时,有更多的交互思考过程,使得对象抓取类交互活动更加丰富多样。

一种可选的实施方式中,所述响应目标触发操作,从多个第二虚拟对象中确定待抓取的目标第二虚拟对象,包括:

响应目标触发操作,根据所述终端当前的拍摄朝向以及各个所述第二虚拟对象在现实场景中的位置信息,确定待抓取的目标第二虚拟对象。

这里,终端的拍摄朝向反映了操作用户自己当前的朝向,因此,终端的拍摄朝向所瞄向的第二虚拟对象,可以认为是用户意向抓取的第二虚拟对象,如此,可以将所在位置与终端的拍摄朝向匹配的第二虚拟对象作为待抓取的目标第二虚拟对象。

一种可选的实施方式中,所述根据所述终端当前的拍摄朝向以及各个所述第二虚拟对象在所述现实场景中的位置信息,确定待抓取的目标第二虚拟对象,包括:

根据所述终端当前的拍摄朝向以及各个所述第二虚拟对象在所述现实场景中的位置信息,确定与所述拍摄朝向匹配的至少一个候选第二虚拟对象;

在所述至少一个候选第二虚拟对象为一个的情况下,将该候选第二虚拟对象作为所述目标第二虚拟对象;

在所述至少一个候选第二虚拟对象为多个的情况下,将多个候选第二虚拟对象中,对应的在所述现实场景中的位置与所述终端之间的距离最近的候选第二虚拟对象作为所述目标第二虚拟对象。

该实施方式中,若终端朝向的候选第二虚拟对象有多个,也就是多个候选第二虚拟对象之间是有遮挡关系的,此时,可以将当前没有被遮挡的候选第二虚拟对象,也就是在现实场景中的位置与终端之间的距离最近的候选第二虚拟对象作为目标第二虚拟对象,这种抓取选择方式符合现实世界中的交互规律。

一种可选的实施方式中,所述确定并展示第一虚拟对象和多个第二虚拟对象融入所述现实场景画面后的增强现实AR画面,包括:

根据所述第一虚拟对象和所述多个第二虚拟对象在所述现实场景中对应的位置信息,以及与各个所述第二虚拟对象的属性特征分别匹配的抓取得分,确定并展示所述第一虚拟对象和所述多个第二虚拟对象融入所述现实场景画面后的AR画面;

其中,所述第一虚拟对象在所述现实场景中对应的位置与所述终端在所述现实场景中的位置相匹配。

该实施方式,能够使得用户能够较为直观的感受到第一虚拟对象和第二虚拟对象在AR画面中的空间立体效果,以及第二虚拟对象的抓取得分。

一种可选的实施方式中,所述展示所述第一虚拟对象抓取所述目标第二虚拟对象的AR画面,包括:

展示所述第一虚拟对象通过发射第三虚拟对象抓取所述目标第二虚拟对象的AR画面。

该实施方式,通过第一虚拟对象发射第三虚拟对象抓取目标第二虚拟对象的方式,提供了一种借助第三方工具执行抓取交互过程的方式,丰富了交互方式。

一种可选的实施方式中,所述展示第一虚拟对象和多个第二虚拟对象融入所述现实场景画面后的增强现实AR画面,包括:

展示所述第一虚拟对象和所述多个第二虚拟对象融入所述现实场景画面后的AR画面,并根据所述终端当前的拍摄朝向在所述AR画面中展示瞄准标识,所述瞄准标识用于指示当前瞄准的所述第一虚拟对象的抓取方向;

响应所述终端拍摄朝向的变化,移动所述瞄准标识在所述AR画面中的位置。

该实施方式,在展示第一虚拟对象和多个第二虚拟对象融入现实场景画面后的AR画面的同时,根据终端当前的拍摄朝向在AR画面中展示瞄准标识,由于该述瞄准标识用于指示当前瞄准的第一虚拟对象的抓取方向,因此在响应终端拍摄朝向的变化的过程中,通过在AR画面中展示瞄准标识,也就是指示第一虚拟对象当前所瞄准的位置,可以为用户决定是否调整拍摄朝向以及如何调整拍摄朝向做参考。

一种可选的实施方式中,所述基于所述现实场景画面,确定并展示第一虚拟对象和多个第二虚拟对象融入所述现实场景画面后的增强现实AR画面,包括:

基于所述现实场景画面,判断所述现实场景画面是否与目标场景类型匹配;

若匹配,则基于所述现实场景画面,确定并展示所述第一虚拟对象和所述多个第二虚拟对象融入所述现实场景画面后的AR画面。

该实施方式,在确定现实场景画面与目标场景类型匹配的情况下,才会展示第一虚拟对象和多个第二虚拟对象融入现实场景画面后的AR画面,也即,上述过程通过限定生成AR画面的场景类型,将交互过程限定在匹配的场景类型下,进而可以使得上述交互活动融入更合理的真实场景中,提高真实感体验。

一种可选的实施方式中,所述基于所述现实场景画面,确定并展示第一虚拟对象和多个第二虚拟对象融入所述现实场景画面后的增强现实AR画面,包括:

基于所述现实场景画面,确定并展示所述第一虚拟对象和第二虚拟对象集合中的第一部分第二虚拟对象融入所述现实场景画面后的AR画面;

响应所述终端拍摄位姿的变化,基于更新后的现实场景画面,确定并更新展示所述第二虚拟对象集合中的第二部分第二虚拟对象融入所述现实场景画面后的AR画面;所述第一部分第二虚拟对象与所述第二部分第二虚拟对象之间至少存在部分不同的第二虚拟对象。

该实施方式,基于现实场景画面,能够展示第二虚拟对象集合中的第一部分第二虚拟对象融入现实场景画面后的AR画面,也即在该AR画面中展示部分第二虚拟对象。之后,响应终端拍摄位姿的变化,例如用户调整终端的拍摄角度,使得当前拍摄到的现实场景画面更新,进而更新AR画面中展示的第二虚拟对象;这样,利用AR技术,将平面交互过程转换为空间交互过程,而且使得用户可以在空间中进行移动式交互,进一步提升了用户的沉浸式交互体验。

第二方面,本公开实施例还提供一种交互装置,包括:

获取模块,用于获取终端拍摄的现实场景画面;

第一展示模块,用于基于所述现实场景画面,确定并展示第一虚拟对象和多个第二虚拟对象融入所述现实场景画面后的增强现实AR画面;所述第二虚拟对象为待被所述第一虚拟对象抓取的对象;所述多个第二虚拟对象中包含不同属性特征的第二虚拟对象,不同属性特征对应的抓取难度不同;

确定模块,用于响应目标触发操作,从多个第二虚拟对象中确定待抓取的目标第二虚拟对象;

第二展示模块,用于展示所述第一虚拟对象抓取所述目标第二虚拟对象的AR画面。

一种可选的实施方式中,所述确定模块,用于响应目标触发操作,根据所述终端当前的拍摄朝向以及各个所述第二虚拟对象在现实场景中的位置信息,确定待抓取的目标第二虚拟对象。

一种可选的实施方式中,所述确定模块,用于根据所述终端当前的拍摄朝向以及各个所述第二虚拟对象在所述现实场景中的位置信息,确定与所述拍摄朝向匹配的至少一个候选第二虚拟对象;

在所述至少一个候选第二虚拟对象为一个的情况下,将该候选第二虚拟对象作为所述目标第二虚拟对象;

在所述至少一个候选第二虚拟对象为多个的情况下,将多个候选第二虚拟对象中,对应的在所述现实场景中的位置与所述终端之间的距离最近的候选第二虚拟对象作为所述目标第二虚拟对象。

一种可选的实施方式中,所述第一展示模块,用于根据所述第一虚拟对象和所述多个第二虚拟对象在所述现实场景中对应的位置信息,以及与各个所述第二虚拟对象的属性特征分别匹配的抓取得分,确定并展示所述第一虚拟对象和所述多个第二虚拟对象融入所述现实场景画面后的AR画面;

其中,所述第一虚拟对象在所述现实场景中对应的位置与所述终端在所述现实场景中的位置相匹配。

一种可选的实施方式中,所述第二展示模块,用于展示所述第一虚拟对象通过发射第三虚拟对象抓取所述目标第二虚拟对象的AR画面。

一种可选的实施方式中,所述第一展示模块,用于展示所述第一虚拟对象和所述多个第二虚拟对象融入所述现实场景画面后的AR画面,并根据所述终端当前的拍摄朝向在所述AR画面中展示瞄准标识,所述瞄准标识用于指示当前瞄准的所述第一虚拟对象的抓取方向;

响应所述终端拍摄朝向的变化,移动所述瞄准标识在所述AR画面中的位置。

一种可选的实施方式中,所述第一展示模块,用于基于所述现实场景画面,判断所述现实场景画面是否与目标场景类型匹配;

若匹配,则基于所述现实场景画面,确定并展示所述第一虚拟对象和所述多个第二虚拟对象融入所述现实场景画面后的AR画面。

一种可选的实施方式中,所述第一展示模块,用于基于所述现实场景画面,确定并展示所述第一虚拟对象和第二虚拟对象集合中的第一部分第二虚拟对象融入所述现实场景画面后的AR画面;

响应所述终端拍摄位姿的变化,基于更新后的现实场景画面,确定并更新展示所述第二虚拟对象集合中的第二部分第二虚拟对象融入所述现实场景画面后的AR画面;所述第一部分第二虚拟对象与所述第二部分第二虚拟对象之间至少存在部分不同的第二虚拟对象。

第三方面,本公开实施例还提供一种计算机设备,包括:处理器、存储器和总线,所述存储器存储有所述处理器可执行的机器可读指令,当计算机设备运行时,所述处理器与所述存储器之间通过总线通信,所述机器可读指令被所述处理器执行时执行上述第一方面,或第一方面中任一种可能的交互方法的步骤。

第四方面,本公开实施例还提供一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行上述第一方面,或第一方面中任一种可能的交互方法的步骤。

关于上述交互装置、计算机设备和存储介质的效果描述参见上述交互方法的说明,这里不再赘述。

为使本公开的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。

附图说明

为了更清楚地说明本公开实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,此处的附图被并入说明书中并构成本说明书中的一部分,这些附图示出了符合本公开的实施例,并与说明书一起用于说明本公开的技术方案。应当理解,以下附图仅示出了本公开的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。

图1示出了本公开实施例所提供的一种交互方法的流程图;

图2示出了本公开实施例所提供的一种对象抓取的交互活动页面的示意图;

图3示出了本公开实施例所提供的展示抓取得分和重量的AR画面的展示示意图;

图4示出了本公开实施例所提供的确定并展示第一虚拟对象和多个第二虚拟对象融入现实场景画面后的AR画面的具体实施流程图;

图5示出了本公开实施例所提供的一种交互装置的示意图;

图6示出了本公开实施例所提供的一种计算机设备的结构示意图。

具体实施方式

为使本公开实施例的目的、技术方案和优点更加清楚,下面将结合本公开实施例中附图,对本公开实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本公开一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本公开实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本公开的实施例的详细描述并非旨在限制要求保护的本公开的范围,而是仅仅表示本公开的选定实施例。基于本公开的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本公开保护的范围。

另外,本公开实施例中的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的实施例能够以除了在这里图示或描述的内容以外的顺序实施。

在本文中提及的“多个或者若干个”是指两个或两个以上。“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。字符“/”一般表示前后关联对象是一种“或”的关系。

随着AR技术的逐渐普及,增强现实内容的交互形式变得多样化,如何合理利用增强现实独特的交互形式,创造沉浸式的交互体验,是一个亟待解决的问题。

本公开实施例是针对“对象抓取”这种交互活动提出的AR交互方式。针对对象抓取类的交互活动,传统交互方式都是平面式交互,且在交互过程中仅有一个正面视角,玩家在游戏体验过程中不可切换视角操作。本公开实施例提出的基于AR的对象抓取类交互方式,可以通过实时调整现实场景画面,并同步呈现对应的虚拟对象,使用户沉浸到三维真实世界中执行相关交互过程,并能观察到各个视角下的AR场景对象(包括现实对象和虚拟对象);另外,通过呈现不同属性特征的第二虚拟对象并为其配置相应的抓取难度,可以让用户在参与交互活动的过程中有更多的交互思考过程,使得对象抓取类交互活动更加丰富多样。

针对以上方案所存在的缺陷,均是发明人在经过实践并仔细研究后得出的结果,因此,上述问题的发现过程以及下文中本公开针对上述问题所提出的解决方案,都应该是发明人在本公开过程中对本公开做出的贡献。

应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。

本发明实施例提供的交互方法可以应用于对象抓取类的交互活动中,例如抓取虚拟物品积攒得分的交互活动。交互过程中,用户可以通过调整AR画面中的虚拟抓手的抓取方向来抓取虚拟物品,例如可以通过调整终端当前的拍摄朝向,瞄准虚拟物品,响应于抓取操作,能够利用虚拟抓手抓取到瞄准的虚拟物品,通过该虚拟物品的抓取难度,在游戏画面中展示抓取过程。

下面对本公开实施例所公开的一种交互方法进行详细介绍,本公开实施例所提供的交互方法的执行主体一般为具有一定计算能力的计算机设备,该计算机设备例如包括:终端设备或其它处理设备,终端设备可以为用户设备(User Equipment,UE)、移动设备、用户终端、手持设备、计算设备、车载设备、可穿戴设备等。在一些可能的实现方式中,该交互方法可以通过处理器调用存储器中存储的计算机可读指令的方式来实现。

下面以执行主体为终端设备为例对本公开实施例提供的交互方法加以说明。

参见图1所示,为本公开实施例提供的一种交互方法的流程图,所述方法包括步骤S101~S104,其中:

S101:获取终端拍摄的现实场景画面。

本步骤中,终端可以为上述列举的各种能够支持AR画面展示的终端设备,例如,手机、平板电脑等具有拍摄功能的设备。在执行本公开实施例的过程中,需要开启终端的摄像头(这里主要是指后置摄像头拍摄场景画面),实时获取现实场景信息。现实场景画面也即用户手持终端拍摄到的其所在现实场景的真实画面。

S102:基于现实场景画面,确定并展示第一虚拟对象和多个第二虚拟对象融入现实场景画面后的增强现实AR画面;第二虚拟对象为待被第一虚拟对象抓取的对象;多个第二虚拟对象中包含不同属性特征的第二虚拟对象,不同属性特征对应的抓取难度不同。

第一虚拟对象可以为用于抓取第二虚拟对象的对象;第一虚拟对象在现实场景中对应的位置可以与终端在现实场景中的位置相匹配。多个第二虚拟对象中可以包含不同属性特征的第二虚拟对象,其中,属性特征可以包括通过观察AR画面中的第二虚拟对象,可直观感受到的第二虚拟对象的特征信息,例如第二虚拟对象的形状、颜色、尺寸、特效等信息;属性特征还可以包括以数字形式呈现在AR画面中的第二虚拟对象的特征信息,这类特征信息通常不能通过观察第二虚拟对象得到,例如第二虚拟对象的重量、抓取距离和抓取时长等。

针对形状这一属性特征,第二虚拟对象例如可以包括球体、正方体、长方体、不规则形体等任意预设形状的虚拟对象。针对颜色这一属性特征,第二虚拟对象例如可以包括红色、黄色、蓝色等任意预设颜色的虚拟对象。针对尺寸这一属性特征,以第二虚拟对象为球体为例,第二虚拟对象可以包括体积大小不同的球体。针对特效这一属性特征,第二虚拟对象例如可以包括闪烁频率不同的虚拟对象。针对重量、抓取距离和抓取时长等属性特征,可以利用预先设置的参数信息进行表示,在此不再详述。

针对上述的属性特征,不同属性特征对应的抓取难度不同,抓取难度可以体现在第一虚拟对象在抓取第二虚拟对象时的时长和/或速度上。例如,体积越大和/或重量越高的第二虚拟对象,相应的抓取时长越长。或者,预先设置目标形状的第二虚拟对象、或者预先设置目标特效的第二虚拟对象、或者预先设置目标颜色的第二虚拟对象,其对应第二虚拟对象的抓取时长相比其他属性特征的抓取时长要长。

参见图2所示,其为一种对象抓取的交互活动页面的示意图,其中,第一虚拟对象可以为虚拟抓手,第二虚拟对象以不同尺寸大小的球体矿石为例,第一虚拟对象在现实场景画面中的位置可以为终端在现实场景中的位置,随着用户调整终端在现实场景中的拍摄位姿,例如,改变终端的拍摄角度,可以改变终端当前的拍摄朝向(需要说明的是,这里改变终端当前的拍摄朝向是指改变拍摄角度下拍摄朝向的改变,不是将后置摄像头拍摄改为前置摄像头拍摄),在该拍摄朝向下,结合虚拟抓手在现实场景中的位置,虚拟抓手可以瞄准现实场景中的对应位置(具体可以是一个射线范围,如图2中所示的虚线),以待抓取虚拟矿石。而在抓取虚拟矿石时,可以根据该虚拟矿石对应的属性特征,判断抓取难度,之后根据与其匹配的抓取难度,以该抓取难度对应的抓取速度抓取该虚拟矿石;所用抓取时长或者说整个抓取过程的交互时长,与抓取难度及抓取速度匹配。

在现实场景画面中融入第一虚拟对象和第二虚拟对象,具体实施时,可以基于现实场景画面,加载预先存储的虚拟场景,该虚拟场景中可以包括与终端在现实场景中的位置相匹配的第一虚拟对象和在现实场景中相对位置固定的多个第二虚拟对象,其中,多个第二虚拟对象的位置组成位置阵列。位置阵列可以包括各个第二虚拟对象在虚拟场景中的位置信息,也即该位置阵列可以表征各个第二虚拟对象之间的相对位置关系。之后,可以按照终端在现实场景中的位置的指示在现实场景中加载第一虚拟对象,并按照位置阵列的指示在现实场景中加载第二虚拟对象,可以确定第一虚拟对象和多个第二虚拟对象融入现实场景画面后的AR画面,并展示AR画面。

S103:响应目标触发操作,从多个第二虚拟对象中确定待抓取的目标第二虚拟对象。

目标触发操作可以包括但不仅限于:点击、连击(包括双击和三击及以上)、滑动等操作。目标触发操作可以包括用户触发终端屏幕中展示的AR画面的任意位置,或者,可以是用户点击终端屏幕中展示的第一虚拟对象,以请求第一虚拟对象抓取待抓取的目标第二虚拟对象。

具体实施时,响应目标触发操作,根据终端当前的拍摄朝向以及各个第二虚拟对象在现实场景中的位置信息,确定待抓取的目标第二虚拟对象。

目标第二虚拟对象可以是终端当前的拍摄朝向所指向的第二虚拟对象。终端当前的拍摄朝向可以是指终端内后置摄像头拍摄的朝向,可以利用终端内部设置的运动检测装置检测终端当前的拍摄朝向。这里运动检测装置可以包括陀螺仪等角运动检测装置,陀螺仪可以检测装置拍摄角度的变化,进而判定终端当前的拍摄朝向。

具体实施时,在现实场景中加载了虚拟场景后,现实场景中分布有多个第二虚拟对象,每个第二虚拟对象在现实场景中的位置信息固定,可以直接根据加载后的场景信息,获取终端当前的拍摄视角下的各个第二虚拟对象的位置信息。在第一虚拟对象在现实场景中对应的位置与终端在现实场景中的位置相匹配的情况下,终端当前的拍摄朝向可以为第一虚拟对象在现实场景中的抓取朝向,之后,根据各个第二虚拟对象在现实场景中的位置信息和第一虚拟对象在现实场景中的抓取朝向,可以确定待抓取的目标第二虚拟对象,例如,可以将抓取朝向指示的第二虚拟对象作为待抓取的目标第二虚拟对象,参见图2所示,抓取朝向指示的第二虚拟对象包括第二虚拟对象A和第二虚拟对象B。

这里,终端的拍摄朝向反映了操作用户自己当前的朝向,因此,终端的拍摄朝向所瞄向的第二虚拟对象,可以认为是用户意向抓取的第二虚拟对象,如此,可以将所在位置与终端的拍摄朝向匹配的第二虚拟对象作为待抓取的目标第二虚拟对象。

第二虚拟对象可以具有一定的空间范围,每个第二虚拟对象的位置信息可以是一个三维位置范围,此时多个候选第二虚拟对象之间可能具有遮挡关系,也就是第一虚拟对象在现实场景中的抓取朝向可能对应一个或多个第二虚拟对象,基于此,确定目标第二虚拟对象,在一些实施例中,可以根据终端当前的拍摄朝向以及各个第二虚拟对象在现实场景中的位置信息,确定与拍摄朝向匹配的至少一个候选第二虚拟对象;在至少一个候选第二虚拟对象为一个的情况下,将该候选第二虚拟对象作为目标第二虚拟对象;在至少一个候选第二虚拟对象为多个的情况下,将多个候选第二虚拟对象中,对应的在现实场景中的位置与终端之间的距离最近的候选第二虚拟对象作为目标第二虚拟对象。

这里,若终端朝向的候选第二虚拟对象有多个,也就是多个候选第二虚拟对象之间是有遮挡关系的,此时,可以将当前没有被遮挡的候选第二虚拟对象,也就是在现实场景中的位置与终端之间的距离最近的候选第二虚拟对象作为目标第二虚拟对象,这种抓取选择方式符合现实世界中的交互规律。

在具体实施中,可以将终端当前的拍摄朝向作为第一虚拟对象的抓取方向,沿该抓取方向,可以将位于抓取方向上的第二虚拟对象作为候选第二虚拟对象。例如可以理解为以第一虚拟对象在现实场景中对应的位置为基准,沿抓取方向的一条射线,被该射线击中的第二虚拟对象作为候选第二虚拟对象,比如图2中所示的虚拟对象A和第二虚拟对象B。

若确定的候选第二虚拟对象为一个,则可以将该候选第二虚拟对象作为目标第二虚拟对象;若确定的候选第二虚拟对象为多个,则可以从多个候选第二虚拟对象中选择一个目标第二虚拟对象。一种选择方式可以为,基于各个第二虚拟对象在现实场景中对应的位置和终端在现实场景中的位置,确定各个候选第二虚拟对象与终端之间在现实场景中的距离;将多个候选第二虚拟对象中,对应的在现实场景中的位置与终端之间的距离最近的候选第二虚拟对象作为目标第二虚拟对象,也即欲抓取展示在靠近屏幕的候选第二虚拟对象。另一种选择方式也可以为,将在AR画面中展示面积最大的候选第二虚拟对象作为目标第二虚拟对象。

S104:展示第一虚拟对象抓取目标第二虚拟对象的AR画面。

第一虚拟对象抓取目标第二虚拟对象,具体实施时,可以是第一虚拟对象离开原位置,也即,第一虚拟对象从AR画面中的当前终端所在位置出发,沿抓取方向到目标第二虚拟对象所在位置,抓取该目标第二虚拟对象,之后,第一虚拟对象可以将抓取到的目标第二虚拟对象按照原抓取方向的反方向返回原位置。

其中,第一虚拟对象抓取目标第二虚拟对象返回的过程中,可以根据抓取到的该目标第二虚拟对象对应的属性特征,例如形状、颜色、尺寸、特效、重量等,确定返回过程第一虚拟对象抓取目标第二虚拟对象的抓取难度。根据对应的抓取难度,展示第一虚拟对象抓取目标第二虚拟对象的AR画面,例如,针对体积较大,重量较高的目标第二虚拟对象,其对应的抓取难度较大,在AR画面中可以为用户呈现抓取时长较长,抓取速度较慢的返回过程。

这里,可以预先设置不同属性特征对应的抓取难度,可以预先设置不同抓取难度对应在AR画面中呈现的效果,也即时长和/或速度。例如,若抓取难度等级为一级,则对应的抓取时长为3秒;若抓取难度为二级,则对应的抓取时长为8秒;若抓取难度等级为三级,则对应的抓取时长为13秒;若抓取难度为四级,则对应的抓取时长为18秒等。

或者,也可以直接为不同属性特征的第二虚拟对象设置抓取过程中在AR画面中呈现的效果。

上述利用第一虚拟对象抓取第二虚拟对象,除了离开原位置抓取目标第二虚拟对象外,还可以通过发射第三虚拟对象抓取目标第二虚拟对象,也即提供了一种借助第三方工具执行抓取交互过程的方式,丰富了交互方式。在一些实施例中,展示第一虚拟对象通过发射第三虚拟对象抓取目标第二虚拟对象的AR画面。

这里,第三虚拟对象可以包括第一虚拟对象所发出的特效,例如通过抛射网状对象网罗目标第二虚拟对象;或者,通过发射射线击中并拖回目标第二虚拟对象。或者,第三虚拟对象也可以包括具有抓取能力的对象,例如虚拟子抓手,第一虚拟对象通过发射虚拟子抓手抓取目标第二虚拟对象,上述通过种借助第三方工具执行抓取交互过程的方式,能够丰富用户的交互方式,进而提升用户的交互体验。

这里,针对从原位置到目标第二虚拟对象对应的位置处的过程,运动时长和/或速度可以为预先设置的一个标准时长和/或标准速度;针对抓取返回过程,若目标第二虚拟对象对应的抓取难度较大,则返回的抓取时长相比于标准时长较长,和/或,抓取速度相比于标准匀速较慢。

上述S101~S104,通过在终端拍摄到的现实场景画面中融入第一虚拟对象和多个第二虚拟对象,多个第二虚拟对象中包含不同属性特征的第二虚拟对象,不同属性特征对应的抓取难度不同,基于此,在AR交互过程中,可以通过实时调整现实场景画面,同步呈现对应的虚拟对象,使用户沉浸到三维真实世界中执行相关交互过程,并能观察到各个视角下的AR场景对象(包括现实对象和虚拟对象);另外,通过呈现不同属性特征的第二虚拟对象并为其配置相应的抓取难度,可以让用户有更多的交互思考过程,增加交互活动的多样性。

针对S102,确定并展示第一虚拟对象和多个第二虚拟对象融入现实场景画面后的AR画面,该AR画面中还可以展示有针对第二虚拟对象的抓取交互信息,例如抓到第二虚拟对象后的抓取得分;

此外,还可以展示第二虚拟对象的属性特征,比如一些表征第二虚拟对象的抓取难度的属性特征,如重量、抓取时长和抓取距离等。

示例性的,上述抓取时长可以与第二属性对象所呈现出的属性特征相匹配。比如,体积越大的第二虚拟对象的抓取时长越长;具有目标特效的第二虚拟对象的抓取时长越长,或者,不同目标特效设置有对应的抓取时长;具有目标颜色的第二虚拟对象的抓取时长越长,或者,不同目标颜色设置有对应的抓取时长;设置不同形状对应不同抓取时长,等等。

在一些实施例中,可以根据第一虚拟对象和多个第二虚拟对象在现实场景中对应的位置信息,以及与各个第二虚拟对象的属性特征分别匹配的抓取得分,确定并展示第一虚拟对象和多个第二虚拟对象融入现实场景画面后的AR画面。

其中,第一虚拟对象在现实场景中对应的位置可以与终端在现实场景中的位置相匹配;在AR画面中,与每个第二虚拟对象对应的位置处,展示有该第二虚拟对象对应的抓取得分。

终端在现实场景中的位置可以是利用运动检测装置确定的,第一虚拟对象在现实场景中对应的位置可以是终端在现实场景中的位置。

可以根据各个第二虚拟对象的属性特征,分别设置与各个第二虚拟对象分别匹配的抓取得分。不同属性特征对应的抓取得分可以不同。

示例性的,体积越大、重量越高、以及抓取距离越远的第二虚拟对象的抓取得分越高;具有目标特效的第二虚拟对象的抓取得分高,或者,不同目标特效设置有对应的抓取得分;具有目标颜色的第二虚拟对象的抓取得分高,或者,不同目标颜色设置有对应的抓取得分;设置不同形状对应不同抓取得分,等等。

基于现实场景画面,加载预先存储的虚拟场景,可以按照终端在现实场景中的位置的指示在现实场景画面中展示第一虚拟对象,并按照位置阵列的指示在现实场景画面中展示第二虚拟对象,并在各个第二虚拟对象对应的位置处分别展示其对应的抓取得分和预设属性特征(比如重量、抓取时长等)。

上述第二虚拟对象对应的位置处,可以是第二虚拟对象本体,或者,在第二虚拟对象所在位置附近的一个信息框等,能够在页面中展示信息的方式均应落在本公开实施例所要保护的技术范围内,对上述信息展示方式不再一一列举。

参见图3所示,其为展示抓取得分和重量的AR画面的展示示意图。图3中包括多种属性特征对应的第二虚拟对象,例如,尺寸相同重量相同的第二虚拟对象C;尺寸相同重量相同,但目标特效不同的第二虚拟对象D和第二虚拟对象E,因此,可以预先设置的第二虚拟对象D和第二虚拟对象E的抓取得分不同。这里,目标特效用不同颜色表示,即颜色较深的第二虚拟对象D相比于颜色交浅的第二虚拟对象E的得分较高。

上述通过展示第二虚拟对象的抓取得分和重量,能够使得用户能够较为直观的感受到第二虚拟对象的抓取得分和抓取难度,提高用户的沉浸式AR游戏交互体验。

针对S102,展示第一虚拟对象和多个第二虚拟对象融入现实场景画面后的AR画面,该AR画面中还可以展示有第一虚拟对象用于瞄准发射的瞄准标识。该瞄准标识可以用于指示当前瞄准的、第一虚拟对象的抓取方向。

在一些实施例中,展示第一虚拟对象和多个第二虚拟对象融入现实场景画面后的AR画面,并根据终端当前的拍摄朝向在AR画面中展示瞄准标识;响应终端拍摄朝向的变化,移动瞄准标识在AR画面中的位置。

具体实施时,可以在展示的AR画面中,将终端当前的拍摄朝向作为第一虚拟对象的抓取方向,并以第一虚拟对象在现实场景中对应的位置为基准,沿抓取方向确定瞄准标识在现实场景中的位置信息,响应终端拍摄朝向的变化,相应的,抓取方向变化,则沿该抓取方向的瞄准标识在现实场景中的位置信息发生变化,也即移动瞄准标识在AR画面中的位置。

在另一些实施例中,展示第一虚拟对象和多个第二虚拟对象融入现实场景画面后的AR画面,并在屏幕的目标位置展示瞄准标识;响应终端拍摄朝向的变化,更新拍摄到的现实场景画面,进而确定当前现实场景画面对应的更新后AR画面,此时瞄准标识可以在屏幕的目标位置指示更新后AR画面中的位置,也即移动后瞄准标识在更新后AR画面中瞄准的位置。

上述在展示第一虚拟对象和多个第二虚拟对象融入现实场景画面后的AR画面的同时,根据终端当前的拍摄朝向在AR画面中展示瞄准标识,由于该述瞄准标识用于指示当前瞄准的第一虚拟对象的抓取方向,因此在响应终端拍摄朝向的变化的过程中,通过在AR画面中展示瞄准标识,也就是指示第一虚拟对象当前所瞄准的位置,可以为用户决定是否调整拍摄朝向以及如何调整拍摄朝向做参考。

针对S102,基于现实场景画面,确定并展示第一虚拟对象和多个第二虚拟对象融入现实场景画面后的AR画面,可以包括以下确定方式。

方式1、虚拟场景和现实场景可以无固定对应关系,也即可以在拍摄到的任意现实场景画面对应的现实场景中加载虚拟场景。

这种情况下,可以预先设置待加载的虚拟场景中各第二虚拟对象的上述位置阵列所对应的相对三维位置信息,这里的相对三维位置信息可以是相对于呈现在屏幕某个固定位置(比如屏幕左上角、屏幕中心点)的目标现实场景位置的相对三维位置信息;基于该目标现实场景位置对应的世界坐标位置信息,以及所述相对三维位置信息,可以得到各第二虚拟对象的世界坐标位置信息,也即得到各第二虚拟对象融入现实场景画面中的位置信息,从而可以呈现融入现实场景画面中的各第二虚拟对象。

方式2、虚拟场景和现实场景的场景类型可以具有固定对应关系,也即只能在拍摄到的目标场景类型的现实场景画面中加载虚拟场景。这里,目标场景类型可以是用于预先构建虚拟场景的现实场景类型。

具体实施时,基于现实场景画面,判断现实场景画面是否与目标场景类型匹配;若匹配,则基于现实场景画面,确定并展示第一虚拟对象和多个第二虚拟对象融入现实场景画面后的AR画面。

目标场景类型例如可以包括某些旅游景点、街道、公园、商场、AR游戏体验馆等现实场景类型。

可以提取现实场景画面中的画面特征,利用视觉检测技术,判断是否存在与该画面特征匹配的目标场景类型,若匹配,则可以确定该现实场景画面对应的现实场景属于目标场景类型;此时可以获取与该目标场景类型匹配的虚拟场景,并在该目标场景类型对应的现实场景画面中直接加载虚拟场景,具体地,可以将多个第二虚拟对象按照虚拟场景中的位置阵列的指示加载到现实场景画面中,将第一虚拟对象按照终端在现实场景中的位置的指示加载到现实场景画面中,确定并展示第一虚拟对象和多个第二虚拟对象融入该目标场景类型对应的现实场景画面后的AR画面。

这里,在虚拟场景和现实场景的场景类型具有固定对应关系的情况下,虚拟场景和现实场景的具体位置关系可以是固定对应的,也可以是相对固定的。

固定对应的意思是,虚拟场景的世界坐标位置信息与现实场景中的世界坐标位置信息具有固定对应关系(也即虚拟场景下各个第二虚拟对象在现实场景中具有唯一的世界坐标位置),例如,虚拟场景可以是一比一还原现实场景的虚拟空间,该虚拟空间的形状、大小均与现实场景相同。基于上述固定对应关系,加载虚拟场景,具体地,可以直接获取待加载的虚拟场景中各第二虚拟对象的位置阵列,基于当前拍摄到的现实场景画面对应的现实场景的世界坐标位置信息、各第二虚拟对象的位置阵列、以及虚拟场景和现实场景的固定对应关系(具体可以预先设置虚拟场景下任一第二虚拟对象在现实场景中的世界坐标位置,这样,结合位置阵列中指示的各第二虚拟对象之间的相对位置关系,可以得到各个第二虚拟对象在现实场景中的世界坐标位置),可以得到各第二虚拟对象的世界坐标位置信息,也即得到各第二虚拟对象融入现实场景画面中的位置信息,从而可以呈现融入现实场景中的各第二虚拟对象。

相对固定的意思是,虽然虚拟场景和目标场景类型是绑定的,但是,虚拟场景的具体展示位置可以不用固定在该目标场景类型对应的现实场景中的特定位置中,可以具有一定的灵活空间。在具有一定的灵活空间的情况下,虚拟场景下各第二虚拟对象在现实场景的位置信息可以参见上述虚拟场景和现实场景无固定对应关系的情况下的确定方式;若虚拟场景中各第二虚拟对象的具体展示位置固定在目标场景类型对应的现实场景中的特定位置中,则只有在拍摄到该目标场景类型对应的现实场景中的特定位置时,加载该特定位置对应的第二虚拟对象,才能呈现各第二虚拟对象。

上述无论是固定对应还是相对固定,在现实场景中呈现第一虚拟对象时,均可以按照终端在现实场景中的位置,呈现融入现实场景画面中的第一虚拟对象,且加载了第一虚拟对象后,第一虚拟对象不变,也即不会从AR画面中消失。

上述,在确定现实场景画面与目标场景类型匹配的情况下,才会展示第一虚拟对象和多个第二虚拟对象融入现实场景画面后的AR画面,也即,上述过程通过限定生成AR画面的场景类型,将交互过程限定在匹配的场景类型下,进而可以使得上述交互活动融入更合理的真实场景中,提高真实感体验。

针对S102,在一些实施例中,由于终端拍摄到的现实场景画面有限,导致虚拟场景加载后的第二虚拟对象可能不能全部呈现在现实场景画面内,而在之后随着终端拍摄位姿的变化,用户手持终端可以拍摄不同的现实场景画面,将在屏幕内展示不同的AR画面。

具体实施可以参见图4所示,其为确定并展示第一虚拟对象和多个第二虚拟对象融入现实场景画面后的AR画面的具体实施流程图。

S401:基于现实场景画面,确定并展示第一虚拟对象和第二虚拟对象集合中的第一部分第二虚拟对象融入现实场景画面后的AR画面。

其中,第一部分第二虚拟对象可以包括第二虚拟对象集合中的一部分第二虚拟对象。

具体实施时,可以基于现实场景画面,加载预先存储的虚拟场景,也即加载在该虚拟场景中设置的位置阵列下的多个第二虚拟对象。在按照位置阵列的指示加载完成后,可以确定多个第二虚拟对象融入现实场景画面后的AR画面,并展示AR画面。

加载虚拟场景,在一些实施例中,虚拟场景和现实场景可以无固定对应关系,也即可以在拍摄到的任意现实场景画面中加载虚拟场景。

这种情况下,可以直接获取预先设置的第二虚拟对象集合中各第二虚拟对象的上述位置阵列所对应的相对位置信息,这里的相对位置信息可以是相对于呈现在屏幕某个固定位置的目标现实场景位置的相对三维位置信息。基于该目标现实场景位置对应的世界坐标位置信息,以及所述相对三维位置信息,可以得到在屏幕内待呈现的第一部分第二虚拟对象的世界坐标位置信息,也即得到第一部分第二虚拟对象融入现实场景画面中的位置信息,按照该位置信息加载第一部分第二虚拟对象,可以呈现融入现实场景画面中的第一部分第二虚拟对象,同时,将终端在现实场景中的位置作为第一虚拟对象在现实场景中的位置,之后,按照第一虚拟对象在现实场景中的位置,呈现融入现实场景画面中的第一虚拟对象,进而确定并展示第一虚拟对象和第二虚拟对象集合中的第一部分第二虚拟对象融入现实场景画面后的AR画面。

在另一些实施例中,虚拟场景和现实场景类型可以具有固定对应关系,也即只能在拍摄到的现实场景画面对应的现实场景类型符合目标场景类型时加载虚拟场景。这里,目标场景类型下的现实场景可以是用于预先构建虚拟场景的现实场景。

具体实施时,基于现实场景画面,判断现实场景画面是否与目标场景类型匹配;若匹配,则基于现实场景画面,确定并展示第一虚拟对象和第二虚拟对象集合中的第一部分第二虚拟对象融入现实场景画面后的AR画面。

这里,在虚拟场景和现实场景类型具有固定对应关系的情况下,虚拟场景和现实场景的位置关系可以是固定对应的,也可以是相对固定的。

以虚拟场景和现实场景的位置关系固定对应为例,已知现实场景为游戏体验馆,拍摄到的现实场景画面为游戏体验馆的部分画面,可以识别该部分画面,确定当前拍摄到的游戏体验馆的世界坐标位置信息,也即当前屏幕所能呈现的游戏体验馆的空间范围,获取虚拟场景中第二虚拟对象集合中的各第二虚拟对象的位置阵列,按照虚拟场景和游戏体验馆之间的位置对应关系,确定出可以呈现在当前屏幕中的第一部分第二虚拟对象的世界坐标位置信息,也即第一部分第二虚拟对象的位置信息,按照该位置信息加载第一部分第二虚拟对象,可以呈现融入现实场景画面中的第一部分第二虚拟对象,同时,将终端在现实场景中的位置作为第一虚拟对象在现实场景中的位置,之后,按照第一虚拟对象在现实场景中的位置,呈现融入现实场景画面中的第一虚拟对象,进而确定并展示第一虚拟对象和第二虚拟对象集合中的第一部分第二虚拟对象融入现实场景画面后的AR画面。

由于第二虚拟对象具有一定的空间范围,因此,在当前屏幕所能呈现的游戏体验馆的空间范围内可能展示第一部分第二虚拟对象中部分第二虚拟对象的部分画面,而该部分第二虚拟对象的剩余部分画面被遮挡,可以通过调整拍摄现实场景画面的位置来实现对该部分第二虚拟对象的完整展示。

S402:响应终端拍摄位姿的变化,基于更新后的现实场景画面,确定并更新展示第二虚拟对象集合中的第二部分第二虚拟对象融入现实场景画面后的AR画面。

其中,第一部分第二虚拟对象与第二部分第二虚拟对象之间可以至少存在部分不同的第二虚拟对象。

这里,终端拍摄位姿的变化的原因,可以是用户手持终端改变拍摄角度,或者执行前进、后退、左转、右转等不同位置及姿态下的行为的过程中,造成的终端拍摄位姿的变化。

可以利用终端设备内部设置的运动检测装置,判断终端是否运动;若运动,则可以表示拍摄位姿发生变化,若未运动,则可以表示拍摄位姿未发生变化;这里,运动检测装置可以包括陀螺仪、里程计等装置,例如,在陀螺仪检测到终端角度发生变化,和/或,里程计记录终端发生位移的情况下,可以判定终端拍摄位姿发生变化,进而可以判定终端拍摄的现实场景画面发生更新,得到更新后的现实场景画面。

基于更新后的现实场景画面,确定并更新展示第二虚拟对象集合中的第二部分第二虚拟对象融入现实场景画面后的AR画面,也可以参见上述确定初始AR画面的实施方式。

在一些实施例中,若虚拟场景和现实场景无固定对应关系,且在现实场景中已经加载了虚拟场景的情况下,可以基于第二部分第二虚拟对象的相对三维位置信息,以及更新前AR画面中展示的第一部分第二虚拟对象融入现实场景画面中的位置信息,确定更新后AR画面中待展示的第二部分第二虚拟对象融入现实场景画面中的位置信息,按照第二部分第二虚拟对象的位置信息加载第二部分第二虚拟对象,可以呈现融入现实场景画面中的第二部分第二虚拟对象;同时,将终端在现实场景中的位置作为第一虚拟对象在现实场景中的位置,之后,按照第一虚拟对象在现实场景中的位置,呈现融入现实场景画面中的第一虚拟对象,进而确定并更新展示第二虚拟对象集合中的第二部分第二虚拟对象融入现实场景画面后的AR画面。

在另一些实施例中,若虚拟场景和现实场景的位置关系固定对应、且在现实场景中已经加载了虚拟场景的情况下,可以基于更新后的现实场景画面,确定更新后的现实场景画面对应的世界坐标位置信息,也即当前屏幕所能呈现的现实场景的空间范围,获取虚拟场景中各第二虚拟对象的位置阵列,按照虚拟场景和现实场景之间的位置对应关系,确定出可以呈现在当前屏幕中的第二部分第二虚拟对象的世界坐标位置信息,也即第二部分第二虚拟对象的位置信息,按照第二部分第二虚拟对象的位置信息加载第二部分第二虚拟对象,可以呈现融入特定现实场景画面中的第二部分第二虚拟对象,同时,将终端在现实场景中的位置作为第一虚拟对象在现实场景中的位置,之后,按照第一虚拟对象在现实场景中的位置,呈现融入现实场景画面中的第一虚拟对象,进而确定并更新展示第二虚拟对象集合中的第二部分第二虚拟对象融入现实场景画面后的AR画面。

上述,基于现实场景画面,能够展示第二虚拟对象集合中的第一部分第二虚拟对象融入现实场景画面后的AR画面,也即在该AR画面中展示部分第二虚拟对象。之后,响应终端拍摄位姿的变化,例如用户调整终端的拍摄角度,使得当前拍摄到的现实场景画面更新,进而更新AR画面中展示的第二虚拟对象;这样,利用AR技术,将平面交互过程转换为空间交互过程,而且使得用户可以在空间中进行移动式交互,进一步提升了用户的沉浸式交互体验。

本领域技术人员可以理解,在具体实施方式的上述方法中,各步骤的撰写顺序并不意味着严格的执行顺序而对实施过程构成任何限定,各步骤的具体执行顺序应当以其功能和可能的内在逻辑确定。

基于同一发明构思,本公开实施例中还提供了与交互方法对应的交互装置,由于本公开实施例中的装置解决问题的原理与本公开实施例上述交互方法相似,因此装置的实施可以参见方法的实施,重复之处不再赘述。

参照图5所示,为本公开实施例提供的一种交互装置的示意图,所述装置包括:获取模块501、第一展示模块502、确定模块503和第二展示模块504;其中,

获取模块501,用于获取终端拍摄的现实场景画面;

第一展示模块502,用于基于所述现实场景画面,确定并展示第一虚拟对象和多个第二虚拟对象融入所述现实场景画面后的增强现实AR画面;所述第二虚拟对象为待被所述第一虚拟对象抓取的对象;所述多个第二虚拟对象中包含不同属性特征的第二虚拟对象,不同属性特征对应的抓取难度不同;

确定模块503,用于响应目标触发操作,从多个第二虚拟对象中确定待抓取的目标第二虚拟对象;

第二展示模块504,用于展示所述第一虚拟对象抓取所述目标第二虚拟对象的AR画面。

一种可选的实施方式中,所述确定模块503,用于响应目标触发操作,根据所述终端当前的拍摄朝向以及各个所述第二虚拟对象在所述现实场景中的位置信息,确定待抓取的目标第二虚拟对象。

一种可选的实施方式中,所述确定模块503,用于根据所述终端当前的拍摄朝向以及各个所述第二虚拟对象在所述现实场景中的位置信息,确定与所述拍摄朝向匹配的至少一个候选第二虚拟对象;

在所述至少一个候选第二虚拟对象为一个的情况下,将该候选第二虚拟对象作为所述目标第二虚拟对象;

在所述至少一个候选第二虚拟对象为多个的情况下,将多个候选第二虚拟对象中,对应的在所述现实场景中的位置与所述终端之间的距离最近的候选第二虚拟对象作为所述目标第二虚拟对象。

一种可选的实施方式中,所述第一展示模块502,用于根据所述第一虚拟对象和所述多个第二虚拟对象在现实场景中对应的位置信息,以及与各个所述第二虚拟对象的属性特征分别匹配的抓取得分,确定并展示所述第一虚拟对象和所述多个第二虚拟对象融入所述现实场景画面后的AR画面;

其中,所述第一虚拟对象在所述现实场景中对应的位置与所述终端在所述现实场景中的位置相匹配。

一种可选的实施方式中,所述第二展示模块504,用于展示所述第一虚拟对象通过发射第三虚拟对象抓取所述目标第二虚拟对象的AR画面。

一种可选的实施方式中,所述第一展示模块502,用于展示所述第一虚拟对象和所述多个第二虚拟对象融入所述现实场景画面后的AR画面,并根据所述终端当前的拍摄朝向在所述AR画面中展示瞄准标识,所述瞄准标识用于指示当前瞄准的所述第一虚拟对象的抓取方向;

响应所述终端拍摄朝向的变化,移动所述瞄准标识在所述AR画面中的位置。

一种可选的实施方式中,所述第一展示模块502,用于基于所述现实场景画面,判断所述现实场景画面是否与目标场景类型匹配;

若匹配,则基于所述现实场景画面,确定并展示所述第一虚拟对象和所述多个第二虚拟对象融入所述现实场景画面后的AR画面。

一种可选的实施方式中,所述第一展示模块502,用于基于所述现实场景画面,确定并展示所述第一虚拟对象和第二虚拟对象集合中的第一部分第二虚拟对象融入所述现实场景画面后的AR画面;

响应所述终端拍摄位姿的变化,基于更新后的现实场景画面,确定并更新展示所述第二虚拟对象集合中的第二部分第二虚拟对象融入所述现实场景画面后的AR画面;所述第一部分第二虚拟对象与所述第二部分第二虚拟对象之间至少存在部分不同的第二虚拟对象。

关于装置中的各模块的处理流程、以及各模块之间的交互流程的描述可以参照上述方法实施例中的相关说明,这里不再详述。

基于同一技术构思,本申请实施例还提供了一种计算机设备。参照图6所示,为本申请实施例提供的计算机设备的结构示意图,包括:

处理器61、存储器62和总线63。其中,存储器62存储有处理器61可执行的机器可读指令,处理器61用于执行存储器62中存储的机器可读指令,所述机器可读指令被处理器61执行时,处理器61执行下述步骤:S101:获取终端拍摄的现实场景画面;S102:基于现实场景画面,确定并展示第一虚拟对象和多个第二虚拟对象融入现实场景画面后的增强现实AR画面;第二虚拟对象为待被第一虚拟对象抓取的对象;多个第二虚拟对象中包含不同属性特征的第二虚拟对象,不同属性特征对应的抓取难度不同;S103:响应目标触发操作,从多个第二虚拟对象中确定待抓取的目标第二虚拟对象;S104:展示第一虚拟对象抓取目标第二虚拟对象的AR画面。

上述存储器62包括内存621和外部存储器622;这里的内存621也称内存储器,用于暂时存放处理器61中的运算数据,以及与硬盘等外部存储器622交换的数据,处理器61通过内存621与外部存储器622进行数据交换,当计算机设备运行时,处理器61与存储器62之间通过总线63通信,使得处理器61在执行上述方法实施例中所提及的执行指令。

本公开实施例还提供一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行上述方法实施例中所述的交互方法的步骤。其中,该存储介质可以是易失性或非易失的计算机可读取存储介质。

本公开实施例还提供一种计算机程序产品,包括计算机指令,所述计算机指令被处理器执行时实现上述的交互方法的步骤。其中,计算机程序产品可以是任何能实现上述交互方法的产品,该计算机程序产品中对现有技术做出贡献的部分或全部方案可以以软件产品(例如软件开发包(Software Development Kit,SDK))的形式体现,该软件产品可以被存储在一个存储介质中,通过包含的计算机指令使得相关设备或处理器执行上述交互方法的部分或全部步骤。

所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的装置的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。在本公开所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,又例如,多个模块或组件可以结合,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些通信接口,装置或模块的间接耦合或通信连接,可以是电性,机械或其它的形式。

所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。

另外,在本公开各个实施例中的各功能模块可以集成在一个处理模块中,也可以是各个模块单独物理存在,也可以两个或两个以上模块集成在一个模块中。

所述功能如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个处理器可执行的非易失的计算机可读取存储介质中。基于这样的理解,本公开的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本公开各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-OnlyMemory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。

最后应说明的是:以上所述实施例,仅为本公开的具体实施方式,用以说明本公开的技术方案,而非对其限制,本公开的保护范围并不局限于此,尽管参照前述实施例对本公开进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本公开揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本公开实施例技术方案的精神和范围,都应涵盖在本公开的保护范围之内。因此,本公开的保护范围应所述以权利要求的保护范围为准。

技术分类

06120114700348