掌桥专利:专业的专利平台
掌桥专利
首页

基于视频端的数字人脸编辑方法、装置、设备及存储介质

文献发布时间:2024-04-18 19:52:40



技术领域

本申请涉及图像处理技术领域,尤其涉及一种基于视频端的数字人脸编辑方法、装置、设备及存储介质。

背景技术

当前的网络平台各类长短视频成为了一种互联网内容输出的主要形式,对于有人物形象出镜的视频(例如授课科普型视频)需要遵循视频拍摄脚本文案在固定时间节点完成念稿,切换镜头,人物语气表情到位等核心要素。随着跨平台视频内容竞争日趋激烈,对于拍摄人物的形象,服装道具,化妆甚至后期制作都提出了极高的要求。例如,一段固定文案的演讲拍摄往往要重复拍摄多次,然后从中挑选出拥有最佳镜头表现力,最佳打光,妆容造型的一段视频作为素材成品;如果客户在后期特效阶段对人物拍摄造型和表现有异议,可能会推翻前期全部拍摄成品结果,面临重新选人,重新设计定妆造型的地步。

现有的方式无法针对已经拍摄好的人物视频进行人脸编辑,无法使其编辑后的人脸图像对视频中的人物进行生效。所以在对人物视频不满意时,只能对已经拍摄好的人物视频进行重新拍摄,从而造成拍摄视频的时间成本增加,导致视频处理的效率低下。

发明内容

本申请实施例的目的在于提供一种基于视频端的数字人脸编辑方法、装置、设备及存储介质,以实现对视频中的人脸图像进行编辑,减少重复拍摄视频造成的时间成本,提高视频处理的效率。

为了解决上述技术问题,本申请实施例提供一种基于视频端的数字人脸编辑方法,包括:

获取待处理视频,其中,所述待处理视频中包括人脸图像;

对所述待处理视频中的任一帧所述人脸图像进行对齐和裁剪处理,得到初始人脸图像集,其中,所述初始人脸图像集中包括多张初始人脸图像;

基于生成对抗网络,获取所述人脸图像集中的任一张所述初始人脸图像的原始隐码参数;

从多张所述初始人脸图像中确定目标编辑图像,并将所述目标编辑图像返回用户端,以获取所述用户端对所述目标编辑图像编辑处理后的图像,作为目标人脸图像;

获取所述目标人脸图像的隐码参数和所述目标编辑图像的原始隐码参数间的隐码差值;

采用叠加传播的方式,将所述隐码差值逐帧叠加到所述原始隐码参数中,生成目标视频。

为了解决上述技术问题,本申请实施例提供一种基于视频端的数字人脸编辑装置,包括:

待处理视频获取单元,用于获取待处理视频,其中,所述待处理视频中包括人脸图像;

人脸图像裁剪单元,用于对所述待处理视频中的任一帧所述人脸图像进行对齐和裁剪处理,得到初始人脸图像集,其中,所述初始人脸图像集中包括多张初始人脸图像;

原始隐码参数获取单元,用于基于生成对抗网络,获取所述人脸图像集中的任一张所述初始人脸图像的原始隐码参数;

目标人脸编辑单元,用于从多张所述初始人脸图像中确定目标编辑图像,并将所述目标编辑图像返回用户端,以获取所述用户端对所述目标编辑图像编辑处理后的图像,作为目标人脸图像;

隐码差值计算单元,用于获取所述目标人脸图像的隐码参数和所述目标编辑图像的原始隐码参数间的隐码差值;

目标视频生成单元,用于采用叠加传播的方式,将所述隐码差值逐帧叠加到所述原始隐码参数中,生成目标视频。

为解决上述技术问题,本发明采用的一个技术方案是:提供一种计算机设备,包括,一个或多个处理器;存储器,用于存储一个或多个程序,使得一个或多个处理器实现上述任意一项所述的基于视频端的数字人脸编辑方法。

为解决上述技术问题,本发明采用的一个技术方案是:一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现上述任意一项所述的基于视频端的数字人脸编辑方法。

本发明实施例提供了一种基于视频端的数字人脸编辑方法、装置、设备及存储介质。其中方法包括:获取待处理视频,其中,所述待处理视频中包括人脸图像;对所述待处理视频中的任一帧所述人脸图像进行对齐和裁剪处理,得到初始人脸图像集,其中,所述初始人脸图像集中包括多张初始人脸图像;基于生成对抗网络,获取所述人脸图像集中的任一张所述初始人脸图像的原始隐码参数;从多张所述初始人脸图像中确定目标编辑图像,并将所述目标编辑图像返回用户端,以获取所述用户端对所述目标编辑图像编辑处理后的图像,作为目标人脸图像;获取所述目标人脸图像的隐码参数和所述目标编辑图像的原始隐码参数间的隐码差值;采用叠加传播的方式,将所述隐码差值逐帧叠加到所述原始隐码参数中,生成目标视频。本发明实施例利用人脸视频中的初始人脸图像和编辑后的图像的隐码差值,通过叠加传播的方式,使得编辑后的人脸图像能够在人脸视频中生成,从而实现了对视频中的人脸图像进行编辑,减少重复拍摄视频造成的时间成本,有利于提高视频处理的效率。

附图说明

为了更清楚地说明本申请中的方案,下面将对本申请实施例描述中所需要使用的附图作一个简单介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。

图1是本申请实施例提供的基于视频端的数字人脸编辑方法流程的一实现流程图;

图2是本申请实施例提供的基于视频端的数字人脸编辑方法中子流程的一实现流程图;

图3是本申请实施例提供的基于视频端的数字人脸编辑方法中子流程的又一实现流程图;

图4是本申请实施例提供的基于视频端的数字人脸编辑方法中子流程的又一实现流程图;

图5是本申请实施例提供的基于视频端的数字人脸编辑方法中子流程的又一实现流程图;

图6是本申请实施例提供的基于视频端的数字人脸编辑方法中子流程的又一实现流程图;

图7是本申请实施例提供的基于视频端的数字人脸编辑方法中子流程的又一实现流程图;

图8是本申请实施例提供的基于视频端的数字人脸编辑装置示意图;

图9是本申请实施例提供的计算机设备的示意图。

具体实施方式

除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同;本文中在申请的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本申请;本申请的说明书和权利要求书及上述附图说明中的术语“包括”和“具有”以及它们的任何变形,意图在于覆盖不排他的包含。本申请的说明书和权利要求书或上述附图中的术语“第一”、“第二”等是用于区别不同对象,而不是用于描述特定顺序。

在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。

为了使本技术领域的人员更好地理解本申请方案,下面将结合附图,对本申请实施例中的技术方案进行清楚、完整地描述。

下面结合附图和实施方式对本发明进行详细说明。

需要说明的是,本申请实施例所提供的基于视频端的数字人脸编辑方法一般由服务器执行,相应地,基于视频端的数字人脸编辑装置一般配置于服务器中。

请参阅图1,图1示出了基于视频端的数字人脸编辑方法的一种具体实施方式。

需注意的是,若有实质上相同的结果,本发明的方法并不以图1所示的流程顺序为限,该方法包括如下步骤:

S1:获取待处理视频,其中,待处理视频中包括人脸图像。

具体地,在需要对人物视频进行编辑时,本申请实施例先获取待处理视频,其中,待处理视频为包含连续人脸图像的视频素材。本申请实施例可以用户端或者其他终端所上传的人物视频,也可以为服务器本地数据库中的人物视频。

S2:对待处理视频中的任一帧人脸图像进行对齐和裁剪处理,得到初始人脸图像集,其中,初始人脸图像集中包括多张初始人脸图像。

具体地,由于待处理视频中包括连续人像的画面,所以在本申请实施例中采用视频分帧技术,将待处理视频进行分帧,然后对分帧后的视频帧进行人脸识别,得到人脸图像,并根据人脸图像中的人脸关键点对人脸图像进行对齐处理和裁剪处理,从而得到初始人脸图像集。

请参阅图2,图2示出了步骤S2的一种具体实施方式,详叙如下:

S21:通过对待处理视频进行分帧处理,得到视频图像帧集,其中,视频图像帧集中包括多个视频图像帧。

S22:通过对视频图像帧集中的视频图像帧进行人脸识别,得到人脸图像集,其中,人脸图像集中包括多张人脸图像,每张人脸图像包括多个人脸关键点。

S23:从多个人脸关键点中确定目标人脸关键点。

S24:基于目标人脸关键点,依次对人脸图像进行对齐和裁剪处理,得到初始人脸图像集。

具体地,通过对待处理视频进行分帧处理,得到不同视频帧的视频图像帧集,然后利用人脸识别技术,依次对视频图像帧进行人脸识别,将具有人脸的视频图像帧筛选处理,得到人脸图像集。然后根据人脸识别得到的人脸关键点,确定目标人脸关键点,最后根据人脸关键点,依次对人脸图像进行对齐和裁剪处理,得到初始人脸图像集。

进一步地,提供一个人脸裁剪的具体实施例:获取每张人脸图像的左眼关键点与右眼关键点的中心位置,作为两眼中心位置,再获取人脸图像的左嘴巴关键点与右嘴巴关键点的中心位置,作为嘴巴中心位置;计算两眼中心位置与嘴巴中心位置的距离,得到垂直方向的中部裁剪宽度,并基于中部裁剪宽度、两眼中心位置与嘴巴中心位置,分别计算垂直方向的中部裁剪宽度、底部裁剪宽度以及顶部裁剪宽度。

具体地,获取左眼关键点与右眼关键点的中心位置,作为两眼中心位置,以及获取左嘴巴关键点与右嘴巴关键点的中心位置,作为嘴巴中心位置,然后计算两眼中心位置与嘴巴中心位置的距离,并将该距离作为垂直方向的中部裁剪宽度。然后获取中部裁剪宽度占垂直方向的裁剪宽度的预设比例,例如中部裁剪宽度为35,预设比例为35%,若底部裁剪宽度以及顶部裁剪宽度的预设比例分别为35%、30%,则底部裁剪宽度以及顶部裁剪宽度分别为35和30。需要说明的是,本申请实施例中所计算的距离是指像素距离。

进一步地,在另一具体实施例中,计算两眼中心位置与嘴巴中心位置的距离,得到中部裁剪宽度;根据中部裁剪宽度,计算嘴巴中心位置往垂直方向向下的第一预设比例距离,得到底部裁剪宽度;根据中部裁剪宽度,计算两眼中心位置往垂直方向向上的第二预设比例距离,得到顶部裁剪宽度。

具体地,本申请实施例需要界定中部裁剪宽度、底部裁剪宽度以及顶部裁剪宽度的分割线。中部裁剪宽度可以以两眼关键点中心点和嘴巴中心点作为界定分割线;中部裁剪宽度是以嘴巴中心位置往垂直方向向下的第一预设比例距离进行界定分割线;顶部裁剪宽度是以两眼中心位置往垂直方向向上的第二预设比例距离进行界定分割线。

需要说明的是,第一预设比例和第二预设比例根据实际情况进行设定,此处不做限定。在一具体实施例中,第一预设比例和第二预设比例分别为35%、30%。

S3:基于生成对抗网络,获取人脸图像集中的任一张初始人脸图像的原始隐码参数。

请参阅图3,图3示出了步骤S3的一种具体实施方式,详叙如下:

S31:将人脸图像集中的初始人脸图像依次输入到生成对抗网络中。

S32:在生成对抗网络中,依次将每一张初始人脸图像投影到对应的隐码空间,以获取初始人脸图像对应的原始隐码参数。

具体地,本申请实施例将每一张初始人脸图像通过生成对抗网络(Style GAN)技术投影到对应的隐码空间,从而获取每张初始人脸图像对应的隐码参数。其中,Style GAN能够在训练时自动的、无监督的学习,具有将图片高层属性(例如人的姿势,身份)进行区分的能力。在本申请实施例中,通过生成对抗网络(Style GAN)技术将初始人脸图像投影到对应的隐码空间,从而获取初始人脸图像对应的原始隐码参数。

S4:从多张初始人脸图像中确定目标编辑图像,并将目标编辑图像返回用户端,以获取用户端对目标编辑图像编辑处理后的图像,作为目标人脸图像。

具体地,用户端可以从众多的初始人脸图像中选择一张初始人脸图像作为需要编辑的图像,也即确定目标编辑图像。对目标编辑图像而言,一般是从正面清晰展示特征的初始人脸图像,例如处理双下巴,就需要清楚显示正脸的双下巴凸出的那一帧;然后用户端可以单独对其进行编辑绘画处理,例如勾勒出单下巴的边缘,模糊凸出的双下巴部分。在用户端对目标编辑图像处理完成后,提交至服务器中,使得服务器获取到对应的目标人脸图像。

请参阅图4,图4示出了步骤S4的一种具体实施方式,详叙如下:

S41:获取用户端的编辑指令,并对编辑指令进行解析,以从多张初始人脸图像中确定目标编辑图像。

具体地,用户端可以选择任一张图像进行编辑,当用户端在视频端进行选择时,生成编辑指令,服务器接收并解析该编辑指令后,将对应的初始人脸图像发送给用户端,以使得用户端对人脸图像进行编辑。

S42:将目标编辑图像返回用户端,当用户端对目标编辑图像进行编辑后,生成目标人脸图像。

请参阅图5,图5示出了步骤S42之前的一种具体实施方式,详叙如下:

S42A:识别目标编辑图像中的静态特征。

S42B:将静态特征对应的人脸区域转换为可编辑区域。

具体地,为了方便用户对人脸图像进行编辑,本申请实施例先识别出目标编辑图像中的静态特征,该静态特征是指下巴轮廓、发际线位置、胡须、眼睛、鼻子以及嘴巴等等。然后将静态特征对应的人脸区域转换为可编辑区域,使得用户端可以在该区域进行编辑处理。

进一步地,本申请在实施步骤S41之前,预先生成各种标签处理包,用户可以在编辑图像时,直接使用这些标签处理包对人脸图像进行编辑处理。

S43:从用户端获取目标人脸图像,并对目标人脸图像已编辑区域的掩膜进行圈定标记。

具体地,当用户端对目标编辑图像编辑处理完成后,本申请实施例可以对用户编辑过区域所对应的掩膜进行圈定标记,从而便于识别出哪些区域经过编辑处理。

S5:获取目标人脸图像的隐码参数和目标编辑图像的原始隐码参数间的隐码差值。

具体地,在获取到目标人脸图像后,本申请实施例采用反向优化的方式,将目标人脸图像投影至生成对抗网络的隐码空间中,获取其隐码参数,再将该隐码参数与目标编辑图像的原始隐码参数进行对比,获取两者的隐码差值。

请参阅图6,图6示出了步骤S5的一种具体实施方式,详叙如下:

S51:通过生成对抗网络将目标人脸图像投影到对应的隐码空间,生成目标人脸图像的隐码参数。

S52:获取目标编辑图像对应的原始隐码参数,作为初始隐码参数。

S53:将隐码参数与初始隐码参数进行差值计算,得到隐码差值。

具体地,由于在步骤S3中已经获取到了每一张初始人脸图像对应的初始人脸图像的原始隐码参数,且目标编辑图像也属于初始人脸图像中的一张图像,所以能够直接获取到目标编辑图像对应的原始隐码参数,将其作为初始隐码参数。在服务器获取到目标人脸图像后,将目标人脸图像反向输入至生成对抗网络的隐码空间中,从而获取到目标人脸图像的隐码参数。最后将隐码参数与初始隐码参数进行差值计算,得到隐码差值。

S6:采用叠加传播的方式,将隐码差值逐帧叠加到原始隐码参数中,生成目标视频。

具体地,本申请实施例将隐码差值逐帧叠加到原始隐码参数中,然而逐帧进行传播计算,使得完成视频内连贯的人脸容貌编辑,最后生成编辑后融合的完整视频,也即生成目标视频。在本申请实施例中,在对任一张人脸图像进行编辑后,该人脸图像能够作用到该视频的其他帧对应人物的人脸上。例如对某一张的人脸图像,将该人脸图像由双下巴编辑成单下巴后,将其作用于整个待处理视频后,整个待处理视频中的该人脸图像均由双下巴转换为单下巴。

请参阅图7,图7示出了步骤S6的一种具体实施方式,详叙如下:

S61:基于预设的视频时间区域或预设的视频帧数区域,确定目标编辑视频区域。

S62:获取目标编辑视频区域对应的原始隐码参数,作为待处理隐码参数。

S63:采用叠加传播的方式,将隐码差值逐帧叠加到待处理隐码参数中,生成目标视频。

具体地,本申请实施例中,可以选择编辑的人脸图像作用于整个待处理视频,也可以作用于待处理视频中的一部分。所以根据用户预先选择的视频区域,确定目标编辑视频区域。用户可以基于视频时间或视频帧数进行选择,例如选择视频开始后1分钟内的区域,作为目标编辑视频区域。也即在用户编辑完成人脸图像后,编辑的部分只作用于该目标编辑视频区域。所以在本申请实施例中,只需要获取目标编辑视频区域对应的原始隐码参数,作为待处理隐码参数;然后采用叠加传播的方式,将隐码差值逐帧叠加到待处理隐码参数中,生成目标视频。

本实施例中,获取待处理视频,其中,待处理视频中包括人脸图像;对待处理视频中的任一帧人脸图像进行对齐和裁剪处理,得到初始人脸图像集,其中,初始人脸图像集中包括多张初始人脸图像;基于生成对抗网络,获取人脸图像集中的任一张初始人脸图像的原始隐码参数;从多张初始人脸图像中确定目标编辑图像,并将目标编辑图像返回用户端,以获取用户端对目标编辑图像编辑处理后的图像,作为目标人脸图像;获取目标人脸图像的隐码参数和目标编辑图像的原始隐码参数间的隐码差值;采用叠加传播的方式,将隐码差值逐帧叠加到原始隐码参数中,生成目标视频。本发明实施例利用人脸视频中的初始人脸图像和编辑后的图像的隐码差值,通过叠加传播的方式,使得编辑后的人脸图像能够在人脸视频中生成,从而实现了对视频中的人脸图像进行编辑,减少重复拍摄视频造成的时间成本,有利于提高视频处理的效率。

请参考图8,作为对上述图1所示方法的实现,本申请提供了一种基于视频端的数字人脸编辑装置的一个实施例,该装置实施例与图1所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。

如图8所示,本实施例的基于视频端的数字人脸编辑装置包括:待处理视频获取单元71、人脸图像裁剪单元72、原始隐码参数获取单元73、目标人脸编辑单元74、隐码差值计算单元75以及目标视频生成单元76,其中:

待处理视频获取单元71,用于获取待处理视频,其中,待处理视频中包括人脸图像;

人脸图像裁剪单元72,用于对待处理视频中的任一帧人脸图像进行对齐和裁剪处理,得到初始人脸图像集,其中,初始人脸图像集中包括多张初始人脸图像;

原始隐码参数获取单元73,用于基于生成对抗网络,获取人脸图像集中的任一张初始人脸图像的原始隐码参数;

目标人脸编辑单元74,用于从多张初始人脸图像中确定目标编辑图像,并将目标编辑图像返回用户端,以获取用户端对目标编辑图像编辑处理后的图像,作为目标人脸图像;

隐码差值计算单元75,用于获取目标人脸图像的隐码参数和目标编辑图像的原始隐码参数间的隐码差值;

目标视频生成单元76,用于采用叠加传播的方式,将隐码差值逐帧叠加到原始隐码参数中,生成目标视频。

进一步地,人脸图像裁剪单元72包括:

分帧处理单元,用于通过对待处理视频进行分帧处理,得到视频图像帧集,其中,视频图像帧集中包括多个视频图像帧;

人脸识别单元,用于通过对视频图像帧集中的视频图像帧进行人脸识别,得到人脸图像集,其中,人脸图像集中包括多张人脸图像,每张人脸图像包括多个人脸关键点;

人脸关键点确定单元,用于从多个人脸关键点中确定目标人脸关键点;

初始人脸图像集生成单元,用于基于目标人脸关键点,依次对人脸图像进行对齐和裁剪处理,得到初始人脸图像集。

进一步地,原始隐码参数获取单元73包括:

人脸图像输入单元,用于将人脸图像集中的初始人脸图像依次输入到生成对抗网络中;

人脸图像投影单元,用于在生成对抗网络中,依次将每一张初始人脸图像投影到对应的隐码空间,以获取初始人脸图像对应的原始隐码参数。

进一步地,目标人脸编辑单元74包括:

目标编辑图像确定单元,用于获取用户端的编辑指令,并对编辑指令进行解析,以从多张初始人脸图像中确定目标编辑图像;

目标人脸图像生成单元,用于将目标编辑图像返回用户端,当用户端对目标编辑图像进行编辑后,生成目标人脸图像;

圈定标记单元,用于从用户端获取目标人脸图像,并对目标人脸图像已编辑区域的掩膜进行圈定标记。

进一步地,目标人脸图像生成单元之前还包括:

静态特征识别单元,用于识别目标编辑图像中的静态特征;

人脸区域转换单元,用于将静态特征对应的人脸区域转换为可编辑区域。

进一步地,隐码差值计算单元75包括:

隐码参数生成单元,用于通过生成对抗网络将目标人脸图像投影到对应的隐码空间,生成目标人脸图像的隐码参数;

初始隐码参数获取单元,用于获取目标编辑图像对应的原始隐码参数,作为初始隐码参数;

差值计算单元,用于将隐码参数与初始隐码参数进行差值计算,得到隐码差值。

进一步地,目标视频生成单元76包括:

目标编辑视频区域确定单元,用于基于预设的视频时间区域或预设的视频帧数区域,确定目标编辑视频区域;

待处理隐码参数生成单元,用于获取目标编辑视频区域对应的原始隐码参数,作为待处理隐码参数;

叠加处理单元,用于采用叠加传播的方式,将隐码差值逐帧叠加到待处理隐码参数中,生成目标视频。

本实施例中,获取待处理视频,其中,待处理视频中包括人脸图像;对待处理视频中的任一帧人脸图像进行对齐和裁剪处理,得到初始人脸图像集,其中,初始人脸图像集中包括多张初始人脸图像;基于生成对抗网络,获取人脸图像集中的任一张初始人脸图像的原始隐码参数;从多张初始人脸图像中确定目标编辑图像,并将目标编辑图像返回用户端,以获取用户端对目标编辑图像编辑处理后的图像,作为目标人脸图像;获取目标人脸图像的隐码参数和目标编辑图像的原始隐码参数间的隐码差值;采用叠加传播的方式,将隐码差值逐帧叠加到原始隐码参数中,生成目标视频。本发明实施例利用人脸视频中的初始人脸图像和编辑后的图像的隐码差值,通过叠加传播的方式,使得编辑后的人脸图像能够在人脸视频中生成,从而实现了对视频中的人脸图像进行编辑,减少重复拍摄视频造成的时间成本,有利于提高视频处理的效率。

为解决上述技术问题,本申请实施例还提供计算机设备。具体请参阅图9,图9为本实施例计算机设备基本结构框图。

计算机设备8包括通过系统总线相互通信连接存储器81、处理器82、网络接口83。需要指出的是,图中仅示出了具有三种组件存储器81、处理器82、网络接口83的计算机设备8,但是应理解的是,并不要求实施所有示出的组件,可以替代的实施更多或者更少的组件。其中,本技术领域技术人员可以理解,这里的计算机设备是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程门阵列(Field-Programmable Gate Array,FPGA)、数字处理器(Digital Signal Processor,DSP)、嵌入式设备等。

计算机设备可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。计算机设备可以与用户通过键盘、鼠标、遥控器、触摸板或声控设备等方式进行人机交互。

存储器81至少包括一种类型的可读存储介质,可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘等。在一些实施例中,存储器81可以是计算机设备8的内部存储单元,例如该计算机设备8的硬盘或内存。在另一些实施例中,存储器81也可以是计算机设备8的外部存储设备,例如该计算机设备8上配备的插接式硬盘,智能存储卡(SmartMedia Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。当然,存储器81还可以既包括计算机设备8的内部存储单元也包括其外部存储设备。本实施例中,存储器81通常用于存储安装于计算机设备8的操作系统和各类应用软件,例如基于视频端的数字人脸编辑方法的程序代码等。此外,存储器81还可以用于暂时地存储已经输出或者将要输出的各类数据。

处理器82在一些实施例中可以是中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器、或其他数据处理芯片。该处理器82通常用于控制计算机设备8的总体操作。本实施例中,处理器82用于运行存储器81中存储的程序代码或者处理数据,例如运行上述基于视频端的数字人脸编辑方法的程序代码,以实现基于视频端的数字人脸编辑方法的各种实施例。

网络接口83可包括无线网络接口或有线网络接口,该网络接口83通常用于在计算机设备8与其他电子设备之间建立通信连接。

本申请还提供了另一种实施方式,即提供一种计算机可读存储介质,计算机可读存储介质存储有计算机程序,计算机程序可被至少一个处理器执行,以使至少一个处理器执行如上述的一种基于视频端的数字人脸编辑方法的步骤。

通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本申请各个实施例的方法。

显然,以上所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例,附图中给出了本申请的较佳实施例,但并不限制本申请的专利范围。本申请可以以许多不同的形式来实现,相反地,提供这些实施例的目的是使对本申请的公开内容的理解更加透彻全面。尽管参照前述实施例对本申请进行了详细的说明,对于本领域的技术人员来而言,其依然可以对前述各具体实施方式所记载的技术方案进行修改,或者对其中部分技术特征进行等效替换。凡是利用本申请说明书及附图内容所做的等效结构,直接或间接运用在其他相关的技术领域,均同理在本申请专利保护范围之内。

相关技术
  • 视频编辑方法、装置、计算机设备及可读存储介质
  • 基于视频处理方法及装置、视频设备及存储介质
  • 一种基于直播的人脸处理方法、装置、设备和存储介质
  • 基于人脸识别的酒驾检测方法、装置、设备和存储介质
  • 基于人脸识别的防沉迷方法、装置、设备及存储介质
  • 一种虚拟数字人脸的编辑方法、装置、设备及存储介质
  • 一种基于人脸识别技术的视频美颜方法、装置、设备及计算机可读存储介质
技术分类

06120116329551