掌桥专利:专业的专利平台
掌桥专利
首页

视频渲染方法、装置及电子设备

文献发布时间:2023-06-19 18:27:32


视频渲染方法、装置及电子设备

技术领域

本公开涉及图像处理技术领域,尤其涉及一种视频渲染方法、装置及电子设备。

背景技术

目前,可以采用虚拟现实(Virtual Reality,VR)设备播放录制的一些表演者的表演的VR视频,以使得VR设备的使用者能够身临其境的观看表演者的演出,通常由于录制VR视频时录制场地的限制,VR视频中可能缺少一些舞台效果,亟需通过为这些VR视频增加特效的方式,实现舞台效果。

发明内容

为了解决上述技术问题或者至少部分地解决上述技术问题,本公开提供了一种视频渲染方法、装置及电子设备,可以基于视频中的原视频帧进行特效渲染,得到特效视频帧,并将特效视频帧与原视频帧融合,得到具有特效(如舞台特效)的视频,提高视频显示效果。

第一方面,本公开实施例提供了一种视频渲染方法,包括:

获取第一视频帧对应的估计深度图像;

根据渲染相机参数和目标特效的特效位置,确定所述目标特效对应的各个像素点的特效渲染深度;

基于所述目标特效对应的各个像素点的特效渲染深度,以及所述估计深度图像,渲染得到特效视频帧;

将所述特效视频帧与所述第一视频帧融合,得到目标视频帧。

第二方面,本公开实施例还提供了一种视频渲染装置,包括:

深度估计模块,用于获取第一视频帧对应的估计深度图像;

渲染模块,用于根据渲染相机参数和目标特效的特效位置,确定所述目标特效对应的各个像素点的特效渲染深度;

基于所述目标特效对应的各个像素点的特效渲染深度,以及所述估计深度图像,渲染得到特效视频帧;

融合模块,用于将所述特效视频帧与所述第一视频帧融合,得到目标视频帧。

第三方面,本公开实施例还提供了一种电子设备,所述电子设备包括:处理器;存储器,用于存储所述处理器可执行指令;所述处理器,用于从所述存储器中读取所述可执行指令,并执行所述可执行指令以实现本公开实施例提供的任一所述的视频渲染方法。

第四方面,本公开实施例还提供了一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序用于执行本公开实施例提供的任一所述的视频渲染方法。

第五方面,本公开实施例还提供了一种计算机程序产品,所述计算机程序产品用于执行本公开实施例提供的任一所述的视频渲染方法。

本公开实施例提供的视频渲染方法、装置及电子设备,可以基于目标特效的特效位置和渲染相机参数,确定目标特效对应的各个像素点的特效渲染深度,并基于第一视频帧对应的估计深度图像和目标特效对应的各个像素点的特效渲染深度,分别针对目标特效对应的各个像素点进行渲染,这样就可以得到特效视频帧,并将渲染得到的特效视频帧与第一视频帧融合就可以得到目标视频帧,如此可以在第一视频帧中增加目标特效,得到具有特效的视频,并且由于在针对目标特效对应的各个像素点进行渲染考虑了第一视频帧对应的估计深度图像和目标特效对应的各个像素点的特效渲染深度,因此渲染的特效也存在一定的深度信息,可以提高视频显示效果。

附图说明

结合附图并参考以下具体实施方式,本公开各实施例的上述和其他特征、优点及方面将变得更加明显。贯穿附图中,相同或相似的附图标记表示相同或相似的元素。应当理解附图是示意性的,原件和元素不一定按照比例绘制。

图1A为本公开实施例提供的一种视频渲染方法的流程示意图;

图1B为为本公开实施例提供的一种特效渲染的效果示意图;

图2为本公开实施例提供的一种特效视频帧的渲染流程示意图;

图3为本公开实施例提供的一种视频渲染方法所应用系统的架构示意图;

图4为本公开实施例提供的一种视频渲染装置的结构示意图;

图5为本公开实施例提供的一种电子设备的结构示意图。

具体实施方式

下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例,相反提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。

应当理解,本公开的方法实施方式中记载的各个步骤可以按照不同的顺序执行,和/或并行执行。此外,方法实施方式可以包括附加的步骤和/或省略执行示出的步骤。本公开的范围在此方面不受限制。

本文使用的术语“包括”及其变形是开放性包括,即“包括但不限于”。术语“基于”是“至少部分地基于”。术语“一个实施例”表示“至少一个实施例”;术语“另一实施例”表示“至少一个另外的实施例”;术语“一些实施例”表示“至少一些实施例”。其他术语的相关定义将在下文描述中给出。

需要注意,本公开中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系。

需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。

图1A为本公开实施例提供的一种视频渲染方法的流程示意图,可以适用于为视频增加特效的场景。该视频渲染方法可以由视频渲染装置执行,该装置可以采用软件和/或硬件实现,并可集成在任意具有计算能力的电子设备上。

其中,上述电子设备可以包括但不限于:服务器或终端设备,其中,终端设备可以包括:VR设备、增强现实(Augmented Reality,AR)设备、混合现实(Mix reality,MR)设备、手机、个人计算机等。

如图1A所示,本公开实施例提供的视频渲染方法可以包括:

101、获取第一视频帧对应的估计深度图像。

在一些实施例中,获取第一视频帧对应的估计深度图像的过程中,可以先获取第一视频帧,然后再通过深度估计来确定第一视频帧的估计深度图像。

其中,第一视频帧为双目实拍视频中的任一帧图像。双目实拍视频可以是指通过180双目相机拍摄的视频。

在一些实施例中,获取第一视频帧之后,可以先对第一视频帧进行畸变矫正,得到矫正后的第二视频帧;然后将第二视频帧转换为第一针孔视频帧和第二针孔视频帧;确定第一针孔视频帧的第一深度图像和第二针对视频的第二深度图像;基于第一深度图像和第二深度图像,确定第一视频帧对应的估计深度图像。

双目实拍视频在拍摄过程中,由于通过鱼眼相机拍摄,或者,由于拍摄所使用相机的制造精度以及组装工艺的偏差,会使得拍摄得到的双目实拍视频引入畸变,导致原始图像失真,因此在计算第一视频帧对应的第一深度图像的估计深度图像时,可以先对第一视频帧进行畸变矫正处理,以得到去除畸变的第二视频帧,以避免由于第一视频帧存在畸变导致后续计算出的估计深度图像不准确。

上述得到的第二视频帧为畸变矫正之后的双目视频帧,在计算该双目视频帧的深度时,需要先基于该双目视频帧分别得到左眼对应的第一针孔视频帧和右眼对应的第二针孔视频帧,并基于双目估计深度算法计算第一针孔视频帧的第一深度图像和第二针对视频的第二深度图像,然后根据第一深度图像、第二深度图像以及双目相机的参数,估计得到第一视频帧对应的估计深度图像。

102、根据渲染相机参数和目标特效的特效位置,确定目标特效对应的各个像素点的特效渲染深度。

其中,渲染相机参数包括用于渲染的双目相机的相机参数,渲染相机参数包括相机的位置和相机的视场角(Field Of View,FOV)。

在一些实施例中,目标特效的特效位置为预设位置,也就是说该目标特效的特效位置可以为预先设置的任意位置。具体该预设位置可以基于特效渲染的需求进行设置,本公开实施例不作限定。

在一些实施例中,目标特效的特效位置可以为基于第一视频帧确定的。其中,基于第一视频帧确定目标特效的特效位置的方式可以包括但不限于:对第一视频帧进行人像面部识别,确定第一视频帧中非人像面部区域;基于第一视频帧中的非人像面部区域,确定目标特效的特效位置。

也就是说,该目标特效的特效位置可以对应于第一视频帧中的非人像面部区域,这样进行目标特效的设置,可以避免目标特效遮挡人像面部,提高最终视频渲染的效果。

在一些实施例中,目标特效的特效位置可以为基于第一视频帧确定的。其中,基于第一视频帧确定目标特效的特效位置的方式可以包括但不限于:对第一视频帧进行区域划分,然后再进行区域划分后的某个或某些区域中确定目标特效的特效位置。

示例性的,可以对第一视频帧进行区域划分,划分为中间区域和周边区域,在周边区域中确定目标特效的特效位置。可以避免在中间区域中进行目标特效的设置,也即避免目标特效遮挡第一视频帧中处于中间区域的图像内容,提高最终视频渲染的效果。

示例性的,还可以对第一视频帧进行区域划分,划分为人像区域和非人像区域,在非人像区域中确定目标特效的特效位置,可以避免在人像区域进行目标特效的设置,也即避免目标特效遮挡第一视频帧中处于人像区域的图像内容,提高最终视频渲染的效果。

在一些实施例中,目标特效为预设特效。也就是说,目标特效可以为从特效数据库中选择的预先存储的任意特效。

在一些实施例中,目标特效为基于从终端设备实时获取的特效数据确定的。

示例性的,在VR设备从云端(服务器)获取视频并播放的场景中,VR设备在播放视频的过程中,可以获取用户通过VR设备实时发送的表情或者动画等数据,将这些数据发送至云端,云端在接收到这些数据后可以作为特效数据,将表情或者动画渲染至视频帧中,并将渲染后的视频帧发送至VR设备播放,这样就可以在播放视频的过程中,实时的将用户发送的表情或者动画作为特效渲染在视频帧中,提高视频渲染后的显示效果,并且增强设备的人机交互性能。

相关技术中,为VR设备录制的一些表演者表演的VR视频,通常由于录制VR视频时录制场地的限制,VR视频中可能缺少一些舞台效果,使得表演者表演的VR视频缺少真实表演场景的氛围。通过本公开实施例提供的视频渲染方法,可以对VR视频进行渲染,在VR视频中增加目标特效,此时的目标特效可以为表演场景的氛围特效,这样最后得到的具有特效的VR视频可以将氛围元素和真实录制VR视频时录制场地的场景融合在一起,提高VR视频的显示效果。

其中,表演场景的氛围特效可以包括:舞台灯光特效、星光特效,以及环绕表演者的一些特效等。

图1B为本公开实施例提供的一种特效渲染的效果示意图。

示例性的,如图1B所示,可以在表演者表演的视频中渲染如图1B中所示的气泡特效,得到包括气泡特效的舞台表演视频。

103、基于目标特效对应的各个像素点的特效渲染深度,以及估计深度图像,渲染得到特效视频帧。

在一些实施例中,基于目标特效对应的各个像素点的特效渲染深度,以及估计深度图像,渲染得到特效视频帧的过程可以包括但不限于:将目标特效对应的各个像素点的特效渲染深度与估计深度图像中对应像素点的深度进行比较;针对目标特效对应的各个像素点中的第一像素点进行渲染,针对目标特效对应的各个像素点中的第二像素点不进行渲染,以得到特效视频帧。其中,第一像素点为特效渲染深度小于估计深度图像的像素点,第二像素点为特效渲染深度大于或等于估计深度图像的像素点。

示例性的,图2为本公开实施例提供的一种特效视频帧的渲染流程示意图。

如图2所示,特效视频帧的渲染流程中包括但不限于以下步骤:

21、获取渲染相机参数;22、获取目标特效的特效位置;23、基于渲染相机参数和目标特效的特效位置,得到目标特效对应的各个像素点的特效渲染深度;24、将目标特效对应的各个像素点的特效渲染深度与第一视频帧的估计深度图像进行深度比较;25、针对特效渲染深度小于估计深度图像中深度的第一像素点进行渲染;26、针对特效渲染深度大于或等于估计深度图像中深度的第二像素点不进行渲染;27、得到特效视频帧。

上述特效视频帧的渲染流程中,对目标特效对应的各个像素点的特效渲染深度与估计深度图像进行了深度比较,可以将深度值小于估计深度图像的第一像素点进行渲染,这样可以渲染具有深度信息的特效。

104、将特效视频帧与第一视频帧融合,得到目标视频帧。

其中,该目标视频帧为在具有特效的视频帧。

本公开实施例中,可以针对双目实拍视频中的每个视频帧都执行如上述针对第一视频帧的处理,得到相应具有特效的视频帧,最后得到这些视频帧组成的具有特效的视频。

图3为本公开实施例提供的一种视频渲染方法所应用系统的架构示意图。

如图3所示,该系统架构中可以包括:云端渲染引擎31、双目相机32、空间计算模块33、融合模块34。其中,云端渲染引擎31可以从外部特效数据库中获取目标特效,并基于目标特效渲染得到特效视频帧,并发送至融合模块34;双目相机32可以用于录制双目实拍视频,并发送至空间计算模块33和融合模块34,空间计算模块33用于计算双目实拍视频中图像的估计深度图像,融合模块34可以将双目实拍视频和特效视频帧进行融合,得到具有特效的视频。其中,上述云端渲染引擎31、空间计算模块33和融合模块34均可以设置在服务器中,服务器可以执行这些模块的功能,并将最终得到的具有特效的视频发送至终端设备,例如,VR头戴设备。

本公开实施例提供的视频渲染方法,可以基于目标特效的特效位置和渲染相机参数,确定目标特效对应的各个像素点的特效渲染深度,并基于第一视频帧对应的估计深度图像和目标特效对应的各个像素点的特效渲染深度,分别针对所述目标特效对应的各个像素点进行渲染,这样就可以得到特效视频帧,并将渲染得到的特效视频帧与第一视频帧融合就可以得到目标视频帧,如此可以在第一视频帧中增加目标特效,得到具有特效的视频,并且由于在针对所述目标特效对应的各个像素点进行渲染考虑了第一视频帧对应的估计深度图像和目标特效对应的各个像素点的特效渲染深度,因此渲染的特效也存在一定的深度信息,可以提高视频显示效果。

图4为本公开实施例提供的一种视频渲染装置的结构示意图,该装置可以采用软件和/或硬件实现,并可集成在任意具有计算能力的电子设备上。

如图4所示,本公开实施例提供的视频渲染装置400,可以包括:

深度估计模块401,用于获取第一视频帧对应的估计深度图像;

渲染模块402,用于根据渲染相机参数和目标特效的特效位置,确定所述目标特效对应的各个像素点的特效渲染深度;

基于所述目标特效对应的各个像素点的特效渲染深度,以及所述估计深度图像,渲染得到特效视频帧;

融合模块403,用于将所述特效视频帧与所述第一视频帧融合,得到目标视频帧。

在一些实施例中,所述渲染模块402,具体用于:

将所述目标特效对应的各个像素点的特效渲染深度与所述估计深度图像中对应像素点的深度进行比较;

针对所述目标特效对应的各个像素点中的第一像素点进行渲染,以得到所述特效视频帧。

其中,所述第一像素点为所述特效渲染深度小于所述估计深度图像的像素点。

在一些实施例中,所述深度估计模块401,具体用于:

获取第一视频帧,所述第一视频帧为双目实拍视频中的任一帧图像;

对所述第一视频帧进行畸变矫正,得到矫正后的第二视频帧;

将所述第二视频帧转换为第一针孔视频帧和第二针孔视频帧;

确定所述第一针孔视频帧的第一深度图像和所述第二针对视频的第二深度图像;

基于所述第一深度图像和所述第二深度图像,确定所述第一视频帧对应的估计深度图像。

在一些实施例中,所述目标特效的特效位置为预设位置;

在一些实施例中,所述目标特效的特效位置为基于所述第一视频帧确定的。

在一些实施例中,所述目标特效的特效位置为基于所述第一视频帧确定的;所述渲染模块402,还用于:

根据渲染相机参数和目标特效的特效位置,确定所述目标特效对应的各个像素点的特效渲染深度之前,对所述第一视频帧进行人像面部识别,确定所述第一视频帧中非人像面部区域;基于所述第一视频帧中的所述非人像面部区域,确定所述目标特效的特效位置。

在一些实施例中,所述目标特效为预设特效,或者,所述目标特效为基于从终端设备实时获取的特效数据确定的。

图5为本公开实施例提供的一种电子设备的结构示意图,用于对实现本公开实施例中视频渲染方法的电子设备进行示例性说明,不应理解为对本公开实施例的具体限定。

如图5所示,电子设备500可以包括处理器(例如中央处理器、图形处理器等)501,其可以根据存储在只读存储器(ROM)502中的程序或者从存储装置508加载到随机访问存储器(RAM)503中的程序而执行各种适当的动作和处理。在RAM503中,还存储有电子设备500操作所需的各种程序和数据。处理器501、ROM 502以及RAM503通过总线504彼此相连。输入/输出(I/O)接口505也连接至总线504。

通常,以下装置可以连接至I/O接口505:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置506;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置507;包括例如磁带、硬盘等的存储装置508;以及通信装置509。通信装置509可以允许电子设备500与其他设备进行无线或有线通信以交换数据。虽然示出了具有各种装置的电子设备500,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。

特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在非暂态计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置509从网络上被下载和安装,或者从存储装置508被安装,或者从ROM 502被安装。在该计算机程序被处理器501执行时,可以执行本公开实施例提供的视频渲染方法中限定的功能。

需要说明的是,本公开上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。

在一些实施方式中,客户端、服务端可以利用诸如HTTP(HyperText TransferProtocol,超文本传输协议)之类的任何当前已知或未来研发的网络协议进行通信,并且可以与任意形式或介质的数字数据通信(例如,通信网络)互连。通信网络的示例包括局域网(“LAN”),广域网(“WAN”),网际网(例如,互联网)以及端对端网络(例如,ad hoc端对端网络),以及任何当前已知或未来研发的网络。

上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。

上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:可以获取第一视频帧对应的估计深度图像;根据渲染相机参数和目标特效的特效位置,确定目标特效对应的各个像素点的特效渲染深度;基于目标特效对应的各个像素点的特效渲染深度,以及估计深度图像,渲染得到特效视频帧;将特效视频帧与第一视频帧融合,得到目标视频帧。

在本公开实施例中,可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,上述程序设计语言包括但不限于面向对象的程序设计语言,诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言,诸如“C”语言或类似的程序设计语言。程序代码可以完全地在计算机上执行、部分地在计算机上执行、作为一个独立的软件包执行、部分在计算机上部分在远程计算机上执行、或者完全在远程计算机或服务端上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。

附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。

描述于本公开实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,单元的名称在某种情况下并不构成对该单元本身的限定。

本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上系统(SOC)、复杂可编程逻辑设备(CPLD)等等。

在本公开的上下文中,计算机可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。计算机可读介质可以是计算机可读信号介质或计算机可读储存介质。计算机可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。计算机可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。

以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开中所涉及的公开范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述公开构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。

此外,虽然采用特定次序描绘了各操作,但是这不应当理解为要求这些操作以所示出的特定次序或以顺序次序执行来执行。在一定环境下,多任务和并行处理可能是有利的。同样地,虽然在上面论述中包含了若干具体实现细节,但是这些不应当被解释为对本公开的范围的限制。在单独的实施例的上下文中描述的某些特征还可以组合地实现在单个实施例中。相反地,在单个实施例的上下文中描述的各种特征也可以单独地或以任何合适的子组合的方式实现在多个实施例中。

尽管已经采用特定于结构特征和/或方法逻辑动作的语言描述了本主题,但是应当理解所附权利要求书中所限定的主题未必局限于上面描述的特定特征或动作。相反,上面所描述的特定特征和动作仅仅是实现权利要求书的示例形式。

相关技术
  • 在canvas中渲染数据的方法、装置、电子设备及存储介质
  • 视频处理方法、装置、电子设备及计算机可读介质
  • 视频资源播放方法、装置、电子设备以及存储介质
  • 视频增强的切换方法、装置、电子设备及存储介质
  • 一种视频显示方法、装置、电子设备及介质
  • 一种视频渲染方法、装置、电子设备及存储介质
  • 一种视频渲染方法、装置、电子设备及存储介质
技术分类

06120115575128