掌桥专利:专业的专利平台
掌桥专利
首页

直播中的交互方法、装置、存储介质与电子设备

文献发布时间:2023-06-19 18:37:28


直播中的交互方法、装置、存储介质与电子设备

技术领域

本公开涉及计算机技术领域,尤其涉及直播中的交互方法、直播中的交互装置、计算机可读存储介质与电子设备。

背景技术

网络直播在人们的日常工作及生活中得到了迅速的发展及应用,通过对直播间进行氛围营造,可以提升观众在直播间的沉浸感。

相关技术中,在直播环境中播放背景音乐,以营造直播间的氛围感;然而,仅通过直播间播放音乐营造直播间的氛围,无法提升直播间的趣味性,影响观看氛围,进一步降低了观众在直播间的沉浸感和观看体验。

发明内容

本公开提供了直播中的交互方法、直播中的交互装置、计算机可读存储介质与电子设备,进而至少在一定程度上改善观众在直播间的沉浸感较低的问题。

本公开的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本公开的实践而习得。

根据本公开的第一方面,提供一种直播中的交互方法,包括:获取直播间的声音信息;将所述声音信息发送至服务端,使所述服务端在所述直播间内的观众互动行为信息满足预设条件的情况下,向所述直播间内的观众端发送直播间互动效果的信息;所述直播间互动效果是根据由所述声音信息构建的环境音场信息生成的,与所述声音信息相匹配;或者根据所述声音信息构建所述直播间的环境音场信息,根据所述环境音场信息生成与所述声音信息相匹配的直播间互动效果;,将所述直播间互动效果的信息发送至服务端,使所述服务端在所述直播间内的观众互动行为信息满足预设条件的情况下,向所述直播间内的观众端发送所述直播间互动效果的信息;所述直播间互动效果的信息用于在所述观众端上呈现所述直播间互动效果。

可选的,所述将所述声音信息发送至服务端,使所述服务端在所述直播间内的观众互动行为信息满足预设条件的情况下,向所述直播间内的观众端发送直播间互动效果的信息,包括:将所述声音信息发送至服务端,使所述服务端根据所述声音信息构建所述直播间的环境音场信息;接收所述服务端返回的所述环境音场信息,根据所述环境音场信息生成直播间互动效果;将所述直播间互动效果的信息发送至所述服务端,使所述服务端在所述直播间内的观众互动行为信息满足预设条件的情况下,向所述直播间内的观众端发送所述直播间互动效果的信息。

可选的,所述根据所述环境音场信息生成与所述声音信息相匹配的直播间互动效果,包括:在所述直播间的当前互动模式为虚拟运镜互动模式的情况下,根据所述环境音场信息确定相机运动轨迹,采用所述相机运动轨迹控制虚拟相机进行运动并对所述直播间的虚拟场景进行拍摄,基于拍摄到的画面生成直播间互动效果;所述虚拟场景与所述直播间的真实空间相匹配。

可选的,所述根据所述环境音场信息确定相机运动轨迹,包括:在所述环境音场信息中确定最强声音点坐标;根据当前时刻的相机坐标与所述最强声音点坐标的夹角,以及所述最强声音点坐标在所述当前时刻的相机平面上的投影,确定下一时刻的相机坐标与相机平面。

可选的,所述根据所述环境音场信息确定相机运动轨迹,还包括:在确定下一时刻的相机坐标与相机平面后,根据所述环境音场信息中的音场整体强度,对所述下一时刻的相机坐标增加预设方向上的扰动,以更新所述下一时刻的相机坐标与相机平面。

可选的,所述根据所述环境音场信息生成与所述声音信息相匹配的直播间互动效果,包括:在所述直播间的当前互动模式为虚拟元素互动模式的情况下,根据所述环境音场信息确定所述直播间的虚拟场景中每个单位空间内的音强统计数据,在所述每个单位空间内渲染出尺寸与所述音强统计数据相匹配的虚拟元素,以生成直播间互动效果;所述虚拟场景与所述直播间的真实空间相匹配。

可选的,所述根据所述环境音场信息确定所述直播间的虚拟场景中每个单位空间内的音强统计数据,包括:将所述直播间的虚拟场景沿第一轴划分为多个单位空间,统计每个单位空间内沿第二轴与第三轴的平均声音强度,得到所述每个单位空间内的音强统计数据。

可选的,在根据所述环境音场信息生成直播间互动效果前,所述方法还包括:接收所述服务端发送的互动模式指示信息,所述互动模式指示信息是所述服务端根据所述观众互动行为信息所确定的;根据所述互动模式指示信息设置所述直播间的当前互动模式。

可选的,若所述声音信息为二维声音数据,则所述根据所述声音信息构建所述直播间的环境音场信息,包括:通过对所述二维声音数据进行第三维插值,将所述二维声音数据转换为三维声音数据;根据所述三维声音数据,确定所述直播间的真实空间内的多个坐标点的声音强度数据,以构建所述直播间的环境音场信息。

可选的,所述根据所述声音信息构建所述直播间的环境音场信息,根据所述环境音场信息生成与所述声音信息相匹配的直播间互动效果,包括:响应于接收到所述服务端在所述互动行为信息满足预设条件的情况下发出的互动触发指示信息,根据所述声音信息构建所述直播间的环境音场信息,根据所述环境音场信息生成与所述声音信息相匹配的直播间互动效果。

根据本公开的第二方面,提供一种直播中的交互方法,包括:获取直播间内的观众互动行为信息;在所述观众互动行为信息满足预设条件的情况下,向所述直播间内的观众端发送直播间互动效果的信息;所述直播间互动效果是根据由所述主播端的声音信息构建的环境音场信息生成的,与主播端的声音信息相匹配;所述直播间互动效果的信息用于在所述观众端上呈现所述直播间互动效果。

可选的,所述方法还包括:接收所述主播端发送的所述声音信息;根据所述声音信息构建所述直播间的环境音场信息;将所述环境音场信息返回至所述主播端,使所述主播端根据所述环境音场信息生成直播间互动效果;接收所述主播端发送的所述直播间互动效果的信息。

可选的,所述将所述环境音场信息返回至所述主播端,使所述主播端根据所述环境音场信息生成直播间互动效果,包括:在所述观众互动行为信息满足预设条件的情况下,向所述主播端发送所述环境音场信息与互动触发指示信息,使所述主播端响应于所述互动触发指示信息,根据所述环境音场信息生成直播间互动效果。

可选的,所述方法还包括:接收所述主播端发送的所述声音信息;根据所述声音信息构建所述直播间的环境音场信息;根据所述环境音场信息生成所述直播间互动效果。

可选的,所述方法还包括:根据所述观众互动行为信息确定互动模式指示信息;将所述互动模式指示信息发送至主播端,使所述主播端根据所述互动模式指示信息设置所述直播间的当前互动模式;所述直播间互动效果的类型与所述当前互动模式相匹配。

根据本公开的第三方面,提供一种直播中的交互方法,包括:将所述观众端在直播间内的观众互动行为信息发送至服务端;接收所述服务端在所述观众互动行为信息满足预设条件的情况下发出的直播间互动效果的信息;所述直播间互动效果是根据由所述主播端的声音信息构建的环境音场信息生成的,与所述直播间的主播端的声音信息相匹配;根据所述直播间互动效果的信息呈现所述直播间互动效果。

根据本公开的第四方面,提供一种直播中的交互装置,包括:声音信息获取模块,被配置为获取直播间的声音信息;数据发送模块,被配置为将所述声音信息发送至服务端,使所述服务端在所述直播间内的观众互动行为信息满足预设条件的情况下,向所述直播间内的观众端发送直播间互动效果的信息;所述直播间互动效果是根据由所述声音信息构建的环境音场信息生成的,与所述声音信息相匹配;或者根据所述声音信息构建所述直播间的环境音场信息,根据所述环境音场信息生成与所述声音信息相匹配的直播间互动效果;,将所述直播间互动效果的信息发送至服务端,使所述服务端在所述直播间内的观众互动行为信息满足预设条件的情况下,向所述直播间内的观众端发送所述直播间互动效果的信息;所述直播间互动效果的信息用于在所述观众端上呈现所述直播间互动效果。

根据本公开的第五方面,提供一种直播中的交互装置,包括:观众互动行为信息获取模块,被配置为获取直播间内的观众互动行为信息;互动效果发送模块,被配置为在所述观众互动行为信息满足预设条件的情况下,向所述直播间内的观众端发送直播间互动效果的信息;所述直播间互动效果是根据由所述主播端的声音信息构建的环境音场信息生成的,与主播端的声音信息相匹配;所述直播间互动效果的信息用于在所述观众端上呈现所述直播间互动效果。

根据本公开的第六方面,提供一种直播中的交互装置,包括:观众互动行为信息发送模块,被配置为将所述观众端在直播间内的观众互动行为信息发送至服务端;互动效果接收模块,被配置为接收所述服务端在所述观众互动行为信息满足预设条件的情况下发出的直播间互动效果的信息;所述直播间互动效果是根据由所述主播端的声音信息构建的环境音场信息生成的,与所述直播间的主播端的声音信息相匹配;互动效果呈现模块,被配置为根据所述直播间互动效果的信息呈现所述直播间互动效果。

根据本公开的第七方面,提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述第一方面或第二方面或第三方面的直播中的交互方法及其可能的实现方式。

根据本公开的第八方面,提供一种电子设备,包括:处理器;存储器,用于存储所述处理器的可执行指令。其中,所述处理器配置为经由执行所述可执行指令,来执行上述第一方面或第二方面或第三方面的直播中的交互方法及其可能的实现方式。

本公开的技术方案具有以下有益效果:

一方面,主播端将获取到的直播间的声音信息发送至服务端,使服务端在观众端发送的观众互动行为信息满足预设条件的情况下,向观众端发送与声音信息相匹配的直播间互动效果的信息,即在观众互动行为信息满足预设条件时,向观众反馈互动效果,加强了观众行为与直播间互动效果的关联性,为观众营造了良好的观看氛围,进一步提升了观众在直播间的沉浸感;另一方面,主播端可以根据声音信息生成与声音信息相匹配的直播间互动效果,增强了互动效果与直播间的声音信息的关联性,提高了直播间的趣味性和多样性,有效提升了观众在直播间的观看体验。

应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。

附图说明

此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。

图1示出本示例性实施方式运行环境的系统架构;

图2示出本示例性实施方式中一种应用于主播端的直播中的交互方法的过程的示意图;

图3示出本示例性实施方式中一种主播端根据声音信息生成互动效果的过程的示意图;

图4示出本示例性实施方式中根据互动模式指示信息设置直播间的当前互动模式的过程的示意图;

图5示出本示例性实施方式中根据环境音场信息确定相机的运动轨迹的过程的示意图;

图6示出本示例性实施方式中构建直播间的环境音场信息的过程的示意图;

图7示出本示例性实施方式中通过三点定位法确定坐标点的声音响度的示意图;

图8示出本示例性实施方式中一种应用于服务端的直播中的交互方法的过程的示意图;

图9示出本示例性实施方式中服务端接收主播端发送的直播间互动效果的信息的过程的示意图;

图10示出本示例性实施方式中服务端根据声音信息生成直播间互动效果的过程的示意图;

图11示出本示例性实施方式中一种应用于观众端的直播中的交互方法的过程的示意图;

图12示出本示例性实施方式中一种直播中的交互方法的交互流程图;

图13示出本示例性实施方式中一种应用于主播端的直播中的交互装置的结构示意图;

图14示出本示例性实施方式中一种应用于服务端的直播中的交互装置的结构示意图;

图15示出本示例性实施方式中一种应用于观众端的直播中的交互装置的结构示意图;

图16示出本示例性实施方式中一种电子设备的结构示意图。

具体实施方式

现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。在下面的描述中,提供许多具体细节从而给出对本公开的实施方式的充分理解。然而,本领域技术人员将意识到,可以实践本公开的技术方案而省略特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知技术方案以避免喧宾夺主而使得本公开的各方面变得模糊。

此外,附图仅为本公开的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。

相关技术中,通过在直播间播放背景音乐,以营造直播间的氛围感。然而,本发明人发现:在直播间播放音乐无法增强与观众在直播间的互动行为之间的关联,使得直播与观众之间的交互性差;在直播间仅通过播放音乐营造氛围感,使得音乐与直播画面之间的关联性较低,造成用户在直播间的沉浸感较差;相关技术中直播间的特效局限于固有的集中特效,导致直播间趣味性较低,使观众感到直播方式单调,容易引起观众的审美疲劳,从而影响观众的观看氛围,进一步降低了观众在直播间的观看体验

鉴于上述一个或多个问题,本公开示例性实施方式首先提供直播中的交互方法。下面结合图1对本示例性实施方式运行环境的系统架构进行说明。

参考图1所示,系统架构100可以包括主播端110,服务端120以及观众端130。主播端110和观众端130可以是笔记本电脑、台式电脑、智能手机、平板电脑等电子设备,主播端110可以用于接收直播间的声音信息,观众端130可以用于接收观众互动行为信息。服务端120泛指提供本示例性实施方式中直播中的交互相关服务的后台系统,如可以是实现直播中的交互方法的服务器。服务器120可以是一台服务器或多台服务器形成的集群,本公开对此不做限定。主播端110、服务器120以及观众端130之间可以通过有线或无线的通信链路形成连接,以进行数据交互。

在一种实施方式中,上述直播间可以是主播所在的虚拟直播间,观众端130可以将获取到的观众互动行为信息发送至服务端120,主播端110可以获取直播间的声音信息,并将声音信息发送至服务端120,在观众端130发送的观众互动行为信息满足预设条件的情况下,服务端120可以向观众端130发送与声音信息相匹配的互动效果的信息,观众端130在接收到服务端120发送的互动效果的信息后,向观众展示对应的互动效果。

在一种实施方式中,还可以由主播端110根据声音信息构建直播间的环境音场信息,根据环境音场信息生成与声音信息相匹配的直播间互动效果,并将该直播间互动效果的信息发送至服务端120;服务端120可以在观众端130发送的观众互动行为信息满足预设条件的情况下,向观众端130发送直播间互动效果的信息,观众端130可以通过渲染该直播间互动效果的信息,以向观众呈现互动效果,通过主播端110,服务端120以及观众端130的交互营造直播间的互动氛围,从而提升观众在直播间的沉浸感。

下面分别从主播端110、服务端120以及观众端130三个方面,对本示例性实施方式中的直播中的交互方法进行说明。

图2示出了应用于主播端110的直播中的交互方法的示例性流程,包括以下步骤S210至S220:

步骤S210,获取直播间的声音信息;

步骤S220,将声音信息发送至服务端,使服务端在直播间内的观众互动行为信息满足预设条件的情况下,向直播间内的观众端发送直播间互动效果的信息;直播间互动效果是根据由声音信息构建的环境音场信息生成的,与声音信息相匹配;

步骤S230,根据声音信息构建直播间的环境音场信息,根据环境音场信息生成与声音信息相匹配的直播间互动效果,将直播间互动效果的信息发送至服务端,使服务端在直播间内的观众互动行为信息满足预设条件的情况下,向直播间内的观众端发送直播间互动效果的信息;直播间互动效果的信息用于在观众端上呈现直播间互动效果。

基于上述方法,一方面,主播端将获取到的直播间的声音信息发送至服务端,使服务端在观众端发送的观众互动行为信息满足预设条件的情况下,向观众端发送与声音信息相匹配的直播间互动效果的信息,即在观众互动行为信息满足预设条件时,向观众反馈互动效果,加强了观众行为与直播间互动效果的关联性,为观众营造了良好的观看氛围,进一步提升了观众在直播间的沉浸感;另一方面,主播端可以根据声音信息生成与声音信息相匹配的直播间互动效果,,增强了互动效果与直播间的声音信息的关联性,提高了直播间的趣味性和多样性,有效提升了观众在直播间的观看体验。

下面对图2中的每个步骤进行具体说明。

参考图2,在步骤S210中,获取直播间的声音信息。

其中,上述直播间可以包括主播切换至虚拟场景所开启的虚拟直播间,也可以包括主播所处的真实环境的直播间,本公开对此不作特殊限定,例如,主播所处的虚拟直播间可以包括通过UE(Unreal Engine,虚幻引擎)所渲染的虚拟直播场景。上述声音信息可以包括主播所处的真实环境中的声音信息,例如,声音信息可以包括主播所使用的麦克风等收音设备收集到的直播现场的环境音,还可以包括根据该环境音得到的声音强度信息。

在一种实施方式中,当主播在主播端切换至虚拟直播场景,主播端可以通过主播的麦克风实时收集直播现场的环境音,并将基于该环境音得到的声音强度信息实时发送至服务端,以使服务端接收到该声音强度信息后,在观众互动行为信息满足预设条件的情况下,向观众端发送与该声音强度信息相匹配的直播间的互动效果的信息。

继续参考图2,在步骤S220中,将声音信息发送至服务端,使服务端在直播间内的观众互动行为信息满足预设条件的情况下,向直播间内的观众端发送直播间互动效果的信息;直播间互动效果是根据由声音信息构建的环境音场信息生成的,与声音信息相匹配。

其中,观众互动行为信息可以是直播间的观众在观众端的做出的指定行为,本公开对观众互动行为信息的具体内容不作特殊限定;例如,观众互动行为信息可以是观众在观看直播过程中,点击了“送礼物”按钮,向主播送礼物的行为;还可以是观众在观看直播过程中,连续为直播间“点赞”的行为。预设条件可以是直播间的观众在观众端的的互动行为的评估条件,例如,预设条件可以是观众向主播送出的礼物的金额,或是观众在直播间的连续点赞次数。直播间互动效果的信息可以是与声音信息匹配的直播间的互动效果相关的画面信息,互动元素变化信息等,例如,互动效果的信息可以包括随直播间的音乐节奏变化的虚拟相机进行自动运镜的画面信息,还可以包括乐谱,灯光等互动元素随音乐强度进行变化的坐标,颜色等变化信息。环境音场信息可以是根据声音信息构建的能够模拟主播所在的真实声音环境的虚拟空间,环境音场信息可以包括该虚拟空间的坐标信息等,如声源的坐标、听者(如主播)的坐标、虚拟空间的边界坐标等,主播端可以根据环境音场信息进一步生成直播间的互动效果。

在一种实施方式中,服务端可以收集正在进行虚拟直播的直播间所使用的虚拟场景的ID,根据该虚拟场景的ID判断直播间是否支持开启“互动模式”,并将判断结果发送至观众端;若观众端接收到当前的虚拟场景支持开启“互动模式”,则向直播间的观众展示“互动模式入口”;观众点击“互动模式入口”即可在互动模式说明界面上查看互动模式的玩法说明,互动模式的开启状态与互动模式开启进度;观众可以在互动模式说明界面中为主播继续赠送礼物,观众端可以实时接收观众赠送的礼物,并将赠送礼物的金额等信息上传至服务端;若服务端判断观众A在直播间赠送的礼物的金额的总和达到预设金额阈值,则向观众A所使用的观众端展示“互动模式选择界面”,例如,互动模式可以包括“虚拟运镜”和“互动元素”等互动模式;观众端将观众A所选择的“虚拟运镜”互动模式信息上传至服务端;服务端根据观众A所选择的互动模式信息向观众端发送对应的直播间互动效果的信息,观众端向观众A呈现虚拟相机根据直播间当前音乐节奏的变化进行移动,使得当前直播场景新呈现“近大远小”的3D效果;增强直播间与观众的关联,从而提升观众在直播间的沉浸感,进一步改善用户的观看体验。

在步骤S220中,可以由服务端和主播端共同根据声音信息生成直播间互动效果,也可以由服务端根据声音信息生成直播间互动效果。下面分别对两种情况进行说明。

首先对由服务端和主播端共同生成直播间互动效果的信息的具体过程进行说明。在一种实施方式中,上述将声音信息发送至服务端,使服务端在直播间内的观众互动行为信息满足预设条件的情况下,向直播间内的观众端发送直播间互动效果的信息,如图3所示,可以包括步骤S310~S330:

步骤S310,将声音信息发送至服务端,使服务端根据声音信息构建直播间的环境音场信息;

步骤S320,接收服务端返回的环境音场信息,根据环境音场信息生成直播间互动效果;

步骤S330,将直播间互动效果的信息发送至服务端,使服务端在直播间内的观众互动行为信息满足预设条件的情况下,向直播间内的观众端发送直播间互动效果的信息。

在步骤S310中,可以将声音信息发送至服务端,使服务端根据声音信息构建直播间的环境音场信息;在服务端构建了直播间的环境音场信息后,可以将该环境音场信息发送至主播端,使主播端在步骤S320中,接收服务端返回的环境音场信息,并根据环境音场信息生成直播间互动效果。

在一种实施方式中,主播端在接收到服务端返回的环境音场信息后,可以根据环境音场信息自动区分互动模式。举例而言,主播可以在直播间中播放预先设置的音乐库中的音乐;服务端可以根据音乐库中的每首音乐所对应环境音场信息生成环境音场信息库;主播端获取直播间的声音信息后,将声音信息上传至服务端,服务端可以根据声音信息构建直播间的环境音场信息,再将该环境音场信息与环境音场信息库中进行匹配,以得到环境音场信息ID,并将该环境音场信息ID发送至主播端;主播端在接收到环境音场信息ID后,可以根据该环境音场信息ID选择对应的互动模式,以设置直播间当前的互动模式。

在一种实施方式中,还可以根据观众所选择的互动模式设置直播间当前的互动模式。在根据环境音场信息生成直播间互动效果前,如图4所示,上述直播中的交互方法还可以包括下述步骤:

步骤S410,接收服务端发送的互动模式指示信息,互动模式指示信息是服务端根据观众互动行为信息所确定的;

步骤S420,根据互动模式指示信息设置直播间的当前互动模式。

其中,互动模式可以是互动效果的种类信息,例如,互动模式可以包括“虚拟运镜”、“互动元素变化”等。互动模式指示信息可以是用于表示观众在观众端所选择的互动模式的信息,例如,互动模式指示信息可以包括互动模式的ID。

在步骤S410中,主播端可以接收服务端发送的互动模式指示信息,然后在步骤S420中,根据该互动模式指示信息设置直播间的当前互动模式,使直播间展示与互动模式信息对应的互动效果。

举例而言,观众在观众端所展示的“互动模式选择界面”中选择期望展示的互动模式,观众端可以在接收到观众所选择的互动模式ID后,将该互动模式ID上传至服务端,服务端可以根据该互动模式ID生成互动模式指示信息,并将该互动模式指示信息发送至主播端,主播端在接收到互动模式指示信息后,根据该互动模式指示信息设置直播间的当前互动模式。

基于图4的方法,根据互动模式指示信息设置直播间的当前互动模式,以生成观众心仪的互动效果,增强了直播间的趣味性和多样性,改善了用户的观看体验。

下面对步骤S320中,根据环境音场信息生成直播间的互动效果的具体过程进行说明。在一种实施方式中,上述根据环境音场信息生成与声音信息相匹配的直播间互动效果,可以包括下述步骤:

在直播间的当前互动模式为虚拟运镜互动模式的情况下,根据环境音场信息确定相机运动轨迹,采用相机运动轨迹控制虚拟相机进行运动并对直播间的虚拟场景进行拍摄,基于拍摄到的画面生成直播间互动效果;虚拟场景与直播间的真实空间相匹配。

其中,虚拟运镜互动模式可以通过对直播间中的虚拟相机的运动轨迹进行调整,以呈现动态展示直播间的虚拟场景的互动效果。相机运动轨迹可以是虚拟场景中的虚拟相机的运动轨迹。直播间的虚拟场景可以包括将直播间的真实空间虚拟化得到的场景,也可以包括根据预设的虚拟元素构建的虚拟场景,本公开对此不作特殊限定,举例而言,虚拟场景可以是根据虚拟烟雾元素,虚拟灯光元素,虚拟背景墙面元素构建得到的虚拟直播间场景。

在一种实施方式中,由于无法直接在真实空间中渲染虚拟的直播间互动效果,因此可以创建与直播间的真实空间像匹配的虚拟场景,该虚拟场景的三维坐标系可以与真实空间的三维坐标系一致,使得虚拟场景中的对象能够对应到真实空间中的对象,从而实现虚拟场景与直播间的真实空间向匹配。示例性的,环境音场信息可以是真实空间中的环境音场信息,由于虚拟场景与真实空间相匹配,可以将环境音场信息作为虚拟场景中的环境音场信息,从而得到虚拟场景中的声音分布等信息,进而在虚拟场景中确定相机运动轨迹。

此外,从主播的个人隐私保护的角度出发,可以通过建立虚拟场景,呈现主播真人置身于虚拟场景的叠加效果,从而实现主播在虚拟场景中直播的虚拟直播间的效果,不仅保护了主播的个人隐私,还使直播方式更具趣味性。

上述根据环境音场信息将直播间当前的互动模式设置为虚拟运镜互动模式的方法,为直播间添加了动态效果,增强了直播间的趣味性。

在一种实施方式中,如图5所示,上述根据环境音场信息确定相机运动轨迹,可以包括步骤S510~S520:

步骤S510,在环境音场信息中确定最强声音点坐标;

步骤S520,根据当前时刻的相机坐标与最强声音点坐标的夹角,以及最强声音点坐标在当前时刻的相机平面上的投影,确定下一时刻的相机坐标与相机平面。

其中,最强声音点坐标、当前时刻的相机坐标可以是当前直播间的虚拟场景中的三维坐标。最强声音点坐标是当前时刻直播间的虚拟场景中声音最大的位置。相机平面可以是平行于虚拟相机的镜头的平面,也是虚拟相机能够移动的平面,可以通过修改相机的拍摄角度与拍摄轨迹调整相机平面。

举例而言,当前直播间的环境音场信息可以是与直播间的虚拟场景对应的三维坐标系,且该三维坐标系的每个坐标点都带有该坐标点的声音强度信息;可以通过步骤S510在该环境音场信息中确定最强声音点坐标;当前时刻的相机平面可以是三维坐标系中的XY平面,即直播间的虚拟场景中平行于主播人像的平面(位于主播前方的一个平面);通过步骤S520可以计算当前时刻的相机坐标与最强声音点坐标的夹角,并将该角度确定为下一时刻的相机的Z轴朝向,即下一时刻相机的摄像头的朝向,此时,该虚拟相机的摄像头的朝向对准的是最强声音点坐标;根据最强声音点坐标在当前时刻的相机平面的投影,可以确定下一时刻的相机坐标,即下一时刻的相机在下一时刻的XY平面的坐标;根据下一时刻相机坐标所在的平面可以确定下一时刻的相机平面。

基于图5的方法,根据环境音场信息最强声音点坐标确定下一时刻的相机坐标与相机平面,可以将虚拟相机的拍摄视角定位在直播间的虚拟场景中声音最大的位置,从而增强直播间的互动效果。

在一种实施方式中,上述根据环境音场信息确定相机运动轨迹,还可以包括下述步骤:

在确定下一时刻的相机坐标与相机平面后,根据环境音场信息中的音场整体强度,对下一时刻的相机坐标增加预设方向上的扰动,以更新下一时刻的相机坐标与相机平面。

举例而言,在得到下一时刻的相机坐标后,可以根据当前直播间中音乐节奏的变化,对下一时刻的相机坐标增加Z轴方向上的扰动,即随机在Z轴上进行位移,以增加虚拟运镜互动模式的随机性和运动感,使直播间的互动效果更加生动。

在一种实施方式中,可以根据直播间中音乐节奏的变化生成若干个相机坐标,根据该若干个相机坐标得到相对平滑的相机运动曲线,从而可以将该曲线确定为相机的运动轨迹,以在互动模式开启时段内实现跟随音乐节奏变化运镜轨迹的互动效果。其中,互动模式开启时段可以根据观众互动行为信息确定,例如,观众在直播间打赏或送礼物的金额越高,互动模式开启时段就越长。

下面对根据环境音场信息生成“虚拟元素互动模式”所对应的互动效果的具体过程进行说明,在一种实施方式中,上述根据环境音场信息生成与所述声音信息相匹配的直播间互动效果,可以包括下述步骤:

在直播间的当前互动模式为虚拟元素互动模式的情况下,根据环境音场信息确定直播间的虚拟场景中每个单位空间内的音强统计数据,在每个单位空间内渲染出尺寸与音强统计数据相匹配的虚拟元素,以生成直播间互动效果。

在一种实施方式中,上述根据环境音场信息确定直播间的虚拟场景中每个单位空间内的音强统计数据,可以包括下述步骤:

将直播间的虚拟场景沿第一轴划分为多个单位空间,统计每个单位空间内沿第二轴与第三轴的平均声音强度,得到每个单位空间内的音强统计数据。

其中,第一轴,第二轴与第三轴可以是虚拟场景的坐标轴。示例性的,第一轴可以是三维空间中的X轴,第二轴可以是三维空间中的Y轴,第三轴可以是三维空间中的Z轴;可以将X轴划分为多个单位空间,统计每个单位空间内Y轴和Z轴的平均声音强度,以得到每个单位空间内的音强统计数据。

在一种实施方式中,主播端可以根据预设的互动效果模板获取拟新增的虚拟元素的模型、材质以及贴图等数据;并在直播间的虚拟场景中将将X轴划分为多个单位空间,对任一单位空间内Y轴和Z轴的声音强度进行加权并取平均值,以得到任一单位空间内的音频柱状图的高度与深度,将任一单位空间内的音频柱状图确定为任一单位空间内的音强统计数据;不断重复上述获取音强统计数据的步骤,以得到X轴所有单位空间内的音强统计数据;并根据音强统计数据确定该空间内的声音频谱数据,再结合拟新增的虚拟元素的数据可以生成拟新增的虚拟元素模型;在互动模式开启时段内重复上述生成虚拟元素模型的步骤,即可得到在互动模式开启时段内,虚拟元素随音乐律动进行变化的3D效果,使得直播方式更具多样性和生动性,提高了对观众的吸引力,进一步提升了观众在直播间的沉浸感。

基于步骤S320的方法,主播端可以根据环境音场信息生成直播间的互动效果,实现了直播间内互动效果和主播环境音的联动,增强了观众的互动行为和直播间互动效果的联动,提高了直播的趣味性,改善了用户的观看体验。

继续参考图3,主播端在生成互动效果后,可以在步骤S330中,将直播间互动效果的信息发送至服务端,使服务端在直播间内的观众互动行为信息满足预设条件的情况下,向直播间内的观众端发送直播间互动效果的信息。

基于图2的方法,主播端在获取声音信息后,将声音信息发送至服务端,由服务端生成环境音场信息,主播端在接收到服务端发送的环境音场信息后,根据环境音场信息生成直播间的互动效果。或者,为了减少主播端与服务端的交互次数,主播端可以在获取声音信息后,在主播端根据声音信息构建直播间的环境音场信息,再根据环境音场信息生成直播间互动效果,再将该互动效果的信息发送至服务端,使服务端在观众互动行为信息满足预设条件的情况下,向观众端发送与声音信息相匹配的直播间互动效果信息。

在一种实施方式中,若上述声音信息为二维声音数据,则上述根据声音信息构建直播间的环境音场信息,如图6所示,可以包括步骤S610~S620:

步骤S610,通过对二维声音数据进行第三维插值,将二维声音数据转换为三维声音数据。

其中,三维声音数据可以通过声音传感器所采集的立体声进行获取,即声音数据属于立体音;由于部分声音传感器不支持采集立体声,因此可以通过步骤S610中的方法,对采集到的二维声音数据进行线性插值,根据线性插值的结果确定第三维的声音数据,进一步得到二维声音数据对应的三维声音数据。

在根据声音信息得到三维声音数据后,可以在步骤S620中,根据三维声音数据,确定直播间的真实空间内的多个坐标点的声音强度数据,以构建直播间的环境音场信息。举例而言,如图7所示,可以通过余弦定理计算出三维空间内,每个坐标点的声音强度数据,根据每个坐标点的声音强度数据确定直播间的环境音场信息。

在一种实施方式中,使用主播的麦克风作为直播间的声音传感器对声音信息进行采集;若该麦克风支持立体声采集,则主播端获取到的声音信息为三维声音数据。可以直接根据该三维声音数据确定直播间内的多个坐标点的声音强度数据,以构建直播间的环境音场信息。若该麦克风不支持立体声采集,则该麦克风所采集到的声音信息为二维声音数据,可以对X轴和Y轴的二维声音数据进行插值,根据插值结果得到Z轴的第三维声音数据的近似值,从而得到二维声音数据所对应的三维声音数据;再根据该三维声音数据进一步确定直播间内多个坐标点的声音强度数据,以构建直播间的环境音场信息。

下面对由服务端根据声音信息生成直播间互动效果的信息的过程进行说明。

在一种实施方式中,上述将声音信息发送至服务端,使服务端在直播间内的观众互动行为信息满足预设条件的情况下,向直播间内的观众端发送直播间互动效果的信息,可以包括,服务端在接收到主播端发送的声音信息后,可以根据该声音信息构建直播间的环境音场信息,并根据环境音场信息生成直播间互动效果的信息,并在直播间内观众互动行为信息满足预设条件的情况下,向直播间内的观众端发送直播间互动效果的信息,使观众可以在观众端观看直播间互动效果。在本示例性实施方式中,可以由服务端直接根据声音信息生成直播间互动效果,减少了主播端与服务端的交互次数,有利于提高直播中的交互方法的整体效率。

此外,还可以由主播端直接根据声音信息生成直播间互动效果,继续参考图2,在步骤S230中,主播端可以根据声音信息构建直播间的环境音场信息,根据环境音场信息生成与声音信息相匹配的直播间互动效果,将直播间互动效果的信息发送至服务端,使服务端在直播间内的观众互动行为信息满足预设条件的情况下,向直播间内的观众端发送直播间互动效果的信息;直播间互动效果的信息用于在观众端上呈现直播间互动效果

在一种实施方式中,上述根据声音信息构建直播间的环境音场信息,根据环境音场信息生成与声音信息相匹配的直播间互动效果,可以包括下述步骤:

响应于接收到服务端在观众互动行为信息满足预设条件的情况下发出的互动触发指示信息,根据声音信息生成与声音信息相匹配的直播间互动效果,将直播间互动效果的信息发送至服务端。即主播端可以在接收到环境音场信息后等待服务端发送互动触发指示信息,在接收到互动触发指示信息后,再根据环境音场信息生成直播间互动效果。

在一种实施方式中,主播端还可以在接收到环境音场信息后,立即根据环境音场信息生成直播间互动效果,并对直播间互动效果进行缓存,在接收到服务端发送的互动触发指示信息后,将缓存中的直播间互动效果的信息发送至服务端。

举例而言,服务端可以在观众在直播间的打赏金额满足预设打赏金额阈值的情况下,向主播端和观众端发出“开启高能模式指令”,即互动触发指示信息;观众端在接收到“开启高能模式指令”后,跳转至互动模式加载界面,此时,观众可以在互动模式加载界面看到若干氛围UI元素以及互动效果开启的倒计时;主播端在接收到互动触发指示信息后,可以根据环境音场信息生成与声音信息相匹配的直播间互动效果;当观众端的倒计时结束时,观众端可以将实时变化指示信息发送至主播端;主播端在接收到实时变化指示信息后,将直播间互动效果的信息发送至服务端,再由服务端发送至观众端,观众即可在观众端的直播间观看上述与声音信息相匹配的互动效果。

在一种实施方式中,主播端还可以在获取到环境音场信息后,立即将根据环境音场信息生成与声音信息相匹配的直播间互动效果,并将直播间互动效果的信息进行缓存;服务端在观众互动行为信息满足预设条件的情况下,向观众端发送互动触发指示信息;观众端在接收到互动触发指示信息后,跳转至互动模式加载界面,并在互动模式加载完成后将实时变化指示信息发送至主播端;主播端在接收到实时变化指示信息后,将缓存的直播间的互动效果的信息通过服务端发送至观众端;观众端在接收到主播端发送的直播间的互动效果的信息后,根据直播间的互动效果的信息对观众端进行渲染,使观众在观众端的直播间观看互动效果。

举例而言,主播端可以根据环境音场信息以及预设的灯效,灯光闪烁频率等生成虚拟运镜的互动效果的信息或虚拟元素的直播间互动效果的信息,并将该直播间互动效果的信息缓存到本地;服务端在观众打赏金额达到预设打赏金额阈值后,向主播端发送“开启高能模式指令”,即互动触发指示信息;主播端在接收到互动触发指示信息后,将本地缓存的直播间的互动效果的信息通过服务端发送至观众端;观众端在接收到直播间的互动效果的信息后,可以使用UE根据直播间的互动效果的信息对观众端进行渲染,以向观众展示互动效果;此时观众可以在直播间观看到虚拟运镜互动模式所带来的主播不断位移变化的互动效果,或是直播场景中虚拟元素随音乐律动的效果;从而实现了直播间内观众互动行为与直播间的场景的联动,增强了用户在直播间的沉浸感。

下面从服务端的角度对本示例性实施方式中的直播中的交互方法进行说明。图8示出了应用于服务端的直播中的交互方法的示例性流程,参考图8所示,直播中的交互方法可以包括步骤S810~S820:

步骤S810,获取直播间内的观众互动行为信息;

步骤S820,在观众互动行为信息满足预设条件的情况下,向直播间内的观众端发送直播间互动效果的信息;直播间互动效果是根据由主播端的声音信息构建的环境音场信息生成的,与主播端的声音信息相匹配;直播间互动效果的信息用于在观众端上呈现直播间互动效果。

在步骤S810中,服务端可以接收观众端发送的观众互动行为信息,并在步骤S820中进行进一步判断,在观众互动行为信息满足预设条件的情况下,向直播间内的观众端发送主播端生成的与声音信息相匹配的直播间互动效果的信息,使观众端根据直播间互动效果的信息在观众端呈现直播间互动效果。

在服务端对观众的互动行为信息是否满足预设条件进行判断,可以根据判断结果及时作出响应,以向直播间的观众端发送直播间互动效果的信息,有利于提高直播中的交互效率。

在一种实施方式中,如图9所示,上述直播中的交互方法还可以包括下述步骤S910~S940:

步骤S910,接收主播端发送的声音信息;

步骤S920,根据声音信息构建直播间的环境音场信息;

步骤S930,将环境音场信息返回至主播端,使主播端根据环境音场信息生成直播间互动效果;

步骤S940,接收主播端发送的直播间互动效果的信息。

在步骤S910中,服务端可以接收主播端发送的声音信息,并在步骤S920中,根据声音信息构建直播间的环境音场信息;在步骤S930中,将构建好的环境音场信息发送至主播端,使主播端根据环境音场信息生成直播间的互动效果;再在步骤S940中,可以接收主播端发送的直播间互动效果的信息,从而将直播间的互动效果的信息发送至观众端,使观众端呈现直播间的互动效果。

在一种实施方式中,服务端可以在接收到观众端发送的观众互动行为信息后,对观众互动行为信息是否满足预设条件进行判断;若观众互动行为信息满足预设条件,则服务端向观众端发送观众互动行为满足预设条件的指示信息;观众端在接收到观众互动行为满足预设条件的指示信息后,可以跳转至互动模式展示界面,并将观众所选择的互动模式,观众的基本信息以及根据观众互动行为信息得到的互动模式开启时长发送至服务端;服务端在接收到上述信息后,可以向主播端发送互动触发指示信息。

主播端可以在接收到互动触发指示信息后,将获取到的声音信息发送至服务端;服务端在接收到主播端发送的声音信息后,根据声音信息是否属于三维声音数据构建直播间的环境音场信息:若声音信息是二维声音数据,则可以通过二维声音数据的线性插值结果,确定第三维度声音数据的近似值,从而得到二维声音数据对应的三维声音数据;再根据三维声音数据确定直播间的真实空间内的多个坐标点的声音强度数据,以构建直播间的环境音场信息。服务端在构建完成直播间的环境音场信息后,可以将该环境音场信息、观众所选择的互动模式,观众的ID信息以及根据观众互动行为信息得到的互动模式开启时长发送至主播端,使主播端根据上述信息生成直播间互动效果,并将该直播间互动效果的信息发送至服务端;服务端在接收到直播间互动效果的信息后,将该直播间互动效果的信息发送至观众端,使观众端向观众呈现直播间互动效果。

本示例性实施方式中,通过主播端,服务端以及观众端的交互,向用户呈现了直播间的互动效果,进一步提高了互动效果的生成效率,改善了用户体验。

在一种实施方式中,上述将环境音场信息返回至主播端,使主播端根据环境音场信息生成直播间互动效果,可以包括下述步骤:

在观众互动行为信息满足预设条件的情况下,向主播端发送环境音场信息与互动触发指示信息,使主播端响应于互动触发指示信息,根据环境音场信息生成直播间互动效果。服务端在向主播端发送互动触发指示信息,在主播端生成直播间互动效果,可以降低服务端的运行负载,有利于提高直播中的整体交互效率。

在一种实施方式中,在观众互动行为信息满足预设条件的情况下,向主播端发送环境音场信息与互动触发指示信息,使主播端响应于互动触发指示信息,将提前生成的缓存中的直播间互动效果的信息发送至服务端,主播端可以在内存占用较低时,提前根据环境音场信息生成直播间互动效果,并在接收到服务端发送的互动触发指示信息时,将直播间互动效果发送至服务端,提高了主播端的内存使用效率,进一步提升了互动效果的生成效率。

在一种实施方式中,如图10所示,上述直播中的交互方法还可以包括下述步骤S1010~S1030:

步骤S1010,接收主播端发送的声音信息;

步骤S1020,根据声音信息构建直播间的环境音场信息;

步骤S1030,根据环境音场信息生成直播间互动效果。

区别于图9所示的方法在主播端生成直播间互动效果,图10所示的直播中的交互方法在服务端接收主播端发送的声音信息,并根据声音信息构建直播间的环境音场信息,进一步在服务端根据环境音场信息生成直播间互动效果,可以减少主播端与服务端的交互次数,有效提升直播中的交互效率。

此外,在设置互动模式时,服务端还可以将互动模式指示信息发送至主播端,由主播端设置互动模式;在一种实施方式中,可以在服务端根据观众互动行为信息确定互动模式指示信息;在得到互动模式指示信息后,服务端可以将互动模式指示信息发送至主播端,使主播端根据互动模式指示信息设置直播间的当前互动模式;直播间互动效果的类型与当前互动模式相匹配。

还可以在通过服务端设置互动模式,在一种实施方式中,服务端可以根据观众互动行为信息确定互动模式指示信息,并根据互动模式指示信息设置直播间当前的互动模式;再将直播间当前的互动模式发送至主播端,使主播端生成与当前的互动模式对应的直播间互动效果,从而减少主播端的交互逻辑,进一步提升直播中的交互方法的整体运行效率。

下面从观众端的角度对本示例性实施方式中的直播中的交互方法进行说明。图11示出了应用于观众端的直播中的交互方法的示例性流程,参考图11所示,直播中的交互方法可以包括步骤S1110~S1130:

步骤S1110,将观众端在直播间内的观众互动行为信息发送至服务端;

步骤S1120,接收服务端在观众互动行为信息满足预设条件的情况下发出的直播间互动效果的信息;直播间互动效果是根据由声音信息构建的环境音场信息生成的,与直播间的主播端的声音信息相匹配;

步骤S1130,根据直播间互动效果的信息呈现直播间互动效果。

在步骤S1110中,可以首先将观众端在直播间内的观众互动行为信息发送至服务端,使服务端根据观众互动行为信息判断是否相观众端发送直播间互动效果;若服务端判断需要向观众端发送直播间互动效果,观众端可以在步骤S1120中,接收服务端在观众互动行为信息满足预设条件的情况下发出的直播间互动效果的信息,且该直播间互动效果的信息与主播端的声音信息相匹配;并在步骤S1130中,观众端根据直播间互动效果的信息呈现直播间互动效果,本公开对观众端呈现直播间互动效果的具体步骤不作特殊限定,例如可以通过UE根据直播间互动效果的信息对观众端的直播间进行渲染,以向观众呈现直播间互动效果。

基于上述方法,通过主播端,服务端以及观众端在直播中的交互,在观众互动行为满足预设条件时,向观众呈现多种互动效果,增强了观众与直播间的联动性,使直播方式更具趣味性和生动性,提升了观众在直播间的沉浸感,进一步改善了观众的观看体验。

在一种实施方式中,本公开的直播中的交互方法的一种交互性流程如图12所示,主播端可以根据下述步骤S1201~S1207生成直播间互动效果,服务端可以根据下述步骤S1208~S1215进行直播中的交互过程中的数据调度,观众端可以根据下述步骤S1216~S1223向观众展示直播间互动效果。

步骤S1201,选择虚拟直播场景,并开启虚拟直播;

步骤S1202,根据场景ID确定当前使用的虚拟直播场景是否支持开启“互动模式”;

步骤S1203,当前使用的直播场景支持开启“互动模式”,则向服务端发送“支持开启互动模式指示信息”;

步骤S1204,响应于“高能模式预开启指令”,通过主播使用的麦克风设备获取直播间的声音信息,并将声音信息发送至服务端;

步骤S1205,响应于观众选择的互动模式信息,根据环境音场信息生成直播间互动效果;

步骤S1206,将直播间互动效果的信息发送至服务端;

步骤S1207,响应于“停止获取声音信息指令”,不再向服务端发送获取到的声音信息;

步骤S1208,实时监测正在进行虚拟直播的主播端,并将虚拟直播所使用的虚拟直播场景ID返回给主播端;

步骤S1209,接收到“支持开启互动模式指示信息”,向观众端发送“展示互动模式入口指示信息”;

步骤S1210,根据观众互动行为信息达到预设条件,向观众端发送“互动模式选择界面展示指令”;

步骤S1211,响应于观众端发送的观众选择的互动模式信息,观众的基本信息以及互动模式开启时长,向主播端发送“高能模式预开启指令”;

步骤S1212,接收主播端发送的声音信息,并根据声音信息构建环境音场信息;

步骤S1213,将环境音场信息与观众选择的互动模式信息发送至主播端;

步骤S1214,接收直播间互动效果的信息,并将直播间互动效果的信息发送至观众端;

步骤S1215,响应于“退出高能模式指令”,向主播端发出“停止获取声音信息指令”;

步骤S1216,获取多个业务系统的业务主数据;

步骤S1217,向观众呈现“互动模式展示入口”;

步骤S1218,响应于用户点击“互动模式展示入口”的操作,向用户展示玩法说明,互动模式开启进度等;

步骤S1219,获取观众互动行为信息,并将观众互动行为信息发送至服务端

步骤S1220,响应于“互动模式选择界面展示指令”,向观众展示互动模式选择界面;

步骤S1221,将观众选择的互动模式信息,观众的基本信息以及根据观众互动行为信息确定的互动模式开启时长发送至服务端;

步骤S1222,利用UE实例对接收到的直播间互动效果的信息进行渲染,在互动模式开启时段内,向观众呈现直播间互动效果;

步骤S1223,当观众点击“退出互动模式”或“互动模式开启时段”结束,向服务端发送“退出高能模式指令”。

本公开的示例性实施方式还提供一种应用于主播端的直播中的交互装置。如图13所示,该直播中的交互装置1300可以包括:

声音信息获取模块1310,被配置为获取直播间的声音信息;

数据发送模块1320,被配置为将声音信息发送至服务端,使服务端在直播间内的观众互动行为信息满足预设条件的情况下,向直播间内的观众端发送直播间互动效果的信息;直播间互动效果是根据由声音信息构建的环境音场信息生成的,与声音信息相匹配;或者根据声音信息构建直播间的环境音场信息,根据环境音场信息生成与声音信息相匹配的直播间互动效果,将直播间互动效果的信息发送至服务端,使服务端在直播间内的观众互动行为信息满足预设条件的情况下,向直播间内的观众端发送直播间互动效果的信息;直播间互动效果的信息用于在观众端上呈现直播间互动效果。

在一种实施方式中,上述将声音信息发送至服务端,使服务端在直播间内的观众互动行为信息满足预设条件的情况下,向直播间内的观众端发送直播间互动效果的信息,可以包括:

将声音信息发送至服务端,使服务端根据声音信息构建直播间的环境音场信息;

接收服务端返回的环境音场信息,根据环境音场信息生成直播间互动效果;

将直播间互动效果的信息发送至服务端,使服务端在直播间内的观众互动行为信息满足预设条件的情况下,向直播间内的观众端发送直播间互动效果的信息。

在一种实施方式中,上述根据环境音场信息生成与所述声音信息相匹配的直播间互动效果,可以包括:

在直播间的当前互动模式为虚拟运镜互动模式的情况下,根据环境音场信息确定相机运动轨迹,采用相机运动轨迹控制虚拟相机进行运动并对直播间的虚拟场景进行拍摄,基于拍摄到的画面生成直播间互动效果;虚拟场景与直播间的真实空间相匹配。

在一种实施方式中,上述根据环境音场信息确定相机运动轨迹,可以包括:

在环境音场信息中确定最强声音点坐标;

根据当前时刻的相机坐标与最强声音点坐标的夹角,以及最强声音点坐标在当前时刻的相机平面上的投影,确定下一时刻的相机坐标与相机平面。

在一种实施方式中,上述根据环境音场信息确定相机运动轨迹,还可以包括:

在确定下一时刻的相机坐标与相机平面后,根据环境音场信息中的音场整体强度,对下一时刻的相机坐标增加预设方向上的扰动,以更新下一时刻的相机坐标与相机平面。

在一种实施方式中,上述根据环境音场信息生成与声音信息相匹配的直播间互动效果,可以包括:

在直播间的当前互动模式为虚拟元素互动模式的情况下,根据环境音场信息确定直播间的虚拟场景中每个单位空间内的音强统计数据,在每个单位空间内渲染出尺寸与音强统计数据相匹配的虚拟元素,以生成直播间互动效果;虚拟场景与直播间的真实空间相匹配。

在一种实施方式中,上述根据环境音场信息确定直播间的虚拟场景中每个单位空间内的音强统计数据,可以包括:

将直播间的虚拟场景沿第一轴划分为多个单位空间,统计每个单位空间内沿第二轴与第三轴的平均声音强度,得到每个单位空间内的音强统计数据。

在一种实施方式中,在根据环境音场信息生成直播间互动效果前,上述方法还可以包括:

接收服务端发送的互动模式指示信息,互动模式指示信息是服务端根据观众互动行为信息所确定的;

根据互动模式指示信息设置直播间的当前互动模式。在一种实施方式中,若上述声音信息为二维声音数据,则上述根据声音信息构建直播间的环境音场信息,可以包括:

通过对二维声音数据进行第三维插值,将二维声音数据转换为三维声音数据;

根据三维声音数据,确定直播间的真实空间内的多个坐标点的声音强度数据,以构建直播间的环境音场信息。

在一种实施方式中,上述根据声音信息构建直播间的环境音场信息,根据环境音场信息生成与声音信息相匹配的直播间互动效果,包括:

响应于接收到服务端在观众互动行为信息满足预设条件的情况下发出的互动触发指示信息,根据声音信息生成与声音信息相匹配的直播间互动效果,将直播间互动效果的信息发送至服务端。

本公开的示例性实施方式还提供一种应用于服务端的直播中的交互装置。如图14所示,该直播中的交互装置置1400可以包括:

观众互动行为信息获取模块1410,被配置为获取直播间内的观众互动行为信息;

互动效果发送模块1420,被配置为在观众互动行为信息满足预设条件的情况下,向直播间内的观众端发送直播间互动效果的信息;直播间互动效果是根据由主播端的声音信息构建的环境音场信息生成的,与主播端的声音信息相匹配;直播间互动效果的信息用于在观众端上呈现直播间互动效果。

在一种实施方式中,上述直播中的交互装置还可以包括:

接收主播端发送的声音信息;

根据声音信息构建直播间的环境音场信息;

将环境音场信息返回至主播端,使主播端根据环境音场信息生成直播间互动效果;

接收主播端发送的直播间互动效果的信息。

在一种实施方式中,上述将环境音场信息返回至主播端,使主播端根据环境音场信息生成直播间互动效果,可以包括:

在观众互动行为信息满足预设条件的情况下,向主播端发送环境音场信息与互动触发指示信息,使主播端响应于互动触发指示信息,根据环境音场信息生成直播间互动效果。

在一种实施方式中,上述直播中的交互装置还可以包括:

接收主播端发送的声音信息;

根据声音信息构建直播间的环境音场信息;

根据环境音场信息生成直播间互动效果。

在一种实施方式中,上述直播中的交互装置还可以包括:

根据观众互动行为信息确定互动模式指示信息;

将互动模式指示信息发送至主播端,使主播端根据互动模式指示信息设置直播间的当前互动模式;直播间互动效果的类型与当前互动模式相匹配。

本公开的示例性实施方式还提供一种应用于观众端的直播中的交互装置。如图15所示,该直播中的交互装置1500可以包括:

观众互动行为信息发送模块1510,被配置为接收主播端发送的声音信息;

互动效果接收模块1520,被配置为接收服务端在观众互动行为信息满足预设条件的情况下发出的直播间互动效果的信息;直播间互动效果是根据由主播端的声音信息构建的环境音场信息生成的,与直播间的主播端的声音信息相匹配;

互动效果呈现模块1530,被配置为根据直播间互动效果的信息呈现直播间互动效果。

上述装置中各部分的具体细节在方法部分实施方式中已经详细说明,因而不再赘述。

本公开的示例性实施方式还提供了一种计算机可读存储介质,可以实现为一种程序产品的形式,其包括程序代码,当程序产品在电子设备上运行时,程序代码用于使电子设备执行本说明书上述“示例性方法”部分中描述的根据本公开各种示例性实施方式的步骤。在一种可选的实施方式中,该程序产品可以实现为便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在电子设备,例如个人电脑上运行。然而,本公开的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。

程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。

计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。

可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。

可以以一种或多种程序设计语言的任意组合来编写用于执行本公开操作的程序代码,程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。

本公开的示例性实施方式还提供一种电子设备。该电子设备可以包括处理器与存储器。存储器存储有处理器的可执行指令,如可以是程序代码。处理器通过执行该可执行指令来执行本示例性实施方式中的方法。

下面参考图16,以通用计算设备的形式对电子设备进行示例性说明。应当理解,图16显示的电子设备1600仅仅是一个示例,不应对本公开实施方式的功能和使用范围带来限制。

如图16所示,电子设备1600可以包括:处理器1610、存储器1620、总线1630、I/O(输入/输出)接口1640、网络适配器1650。

处理器1610可以包括一个或多个处理单元,例如:处理器1610可以包括中央处理器(Central Processing Unit,CPU)、AP(Application Processor,应用处理器)、调制解调处理器、显示处理器(Display Process Unit,DPU)、GPU(Graphics Processing Unit,图形处理器)、ISP(Image Signal Processor,图像信号处理器)、控制器、编码器、解码器、DSP(Digital Signal Processor,数字信号处理器)、基带处理器、人工智能处理器等。在一种实施方式中,可以在CPU中实现直播中的交互方法,可以首先获取直播间的声音信息;再将声音信息发送至服务端,使服务端在直播间内的观众互动行为信息满足预设条件的情况下,向直播间内的观众端发送直播间互动效果的信息;或者根据声音信息生成与声音信息相匹配的直播间互动效果,再将直播间互动效果的信息发送至服务端,使服务端在直播间内的观众互动行为信息满足预设条件的情况下,向直播间内的观众端发送直播间互动效果的信息。

存储器1620可以包括易失性存储器,例如RAM 1621、缓存单元1622,还可以包括非易失性存储器,例如ROM 1623。存储器1620还可以包括一个或多个程序模块1624,这样的程序模块1624包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。例如,程序模块1624可以包括上述装置1300或1400或1500中的各模块。

总线1630用于实现电子设备1600的不同组件之间的连接,可以包括数据总线、地址总线和控制总线。

电子设备1600可以通过I/O接口1640与一个或多个外部设备1700(例如键盘、鼠标、外置控制器等)进行通信。

电子设备1600可以通过网络适配器1650与一个或者多个网络通信,例如网络适配器1650可以提供如3G/4G/5G等移动通信解决方案,或者提供如无线局域网、蓝牙、近场通信等无线通信解决方案。网络适配器1650可以通过总线1630与电子设备1600的其它模块通信。

尽管图16中未示出,还可以在电子设备1600中设置其它硬件和/或软件模块,包括但不限于:显示器、微代码、设备驱动器、冗余处理器、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。

应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的示例性实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。

所属技术领域的技术人员能够理解,本公开的各个方面可以实现为系统、方法或程序产品。因此,本公开的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“系统”。本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其他实施方式。本公开旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施方式仅被视为示例性的,本公开的真正范围和精神由权利要求指出。

应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限定。

技术分类

06120115632441