掌桥专利:专业的专利平台
掌桥专利
首页

动画视频生成方法、装置、设备及存储介质

文献发布时间:2023-06-19 13:29:16


动画视频生成方法、装置、设备及存储介质

技术领域

本发明涉及人工智能技术领域,尤其涉及一种动画视频生成方法、装置、设备及存储介质。

背景技术

在面向儿童学生的教育场景中,动画视频教学能够激发学生的学习兴趣和热情。随着人工智能的发展,动画视频教学也随之发展。然而,在目前的动画视频生成过程中,涉及了故事脚本编写、分镜图设计、真人主播拍摄、插画素材绘制、动画制作和后期剪辑等步骤,导致完整的动画视频生成效率低下,另外,由于不同的视频制作用户对视频制作的看法不一,造成无法确保视频的生成质量。

发明内容

鉴于以上内容,有必要提供一种动画视频生成方法、装置、设备及存储介质,能够提高动画视频的生成效率及生成质量。

一方面,本发明提出一种动画视频生成方法,所述动画视频生成方法包括:

当接收到视频生成请求时,根据所述视频生成请求获取文本信息;

将所述文本信息输入至预先训练好的视频生成模型中,得到初始视频;

识别所述初始视频中每帧图像的人体特征点;

根据所述人体特征点生成每帧图像中用户的姿态信息;

若所述姿态信息为预设姿态,则根据所述人体特征点调整所述姿态信息,得到第二视频;

基于预先训练好的音频生成模型分析所述文本信息,得到音频信息;

根据所述第二视频及所述音频信息生成动画视频。

根据本发明优选实施例,在将所述文本信息输入至预先训练好的视频生成模型中,得到初始视频之前,所述方法还包括:

获取多个视频训练样本,每个视频训练样本包括训练视频及所述训练视频所对应的训练文本;

构建学习器,其中,所述学习器包括编码层及解码层;

对所述训练文本进行文本编码处理,得到文本向量;

基于所述编码层分析所述文本向量,得到所述训练文本的特征信息;

基于所述解码层分析所述特征信息,得到输出向量;

基于预设映射表对所述训练视频进行映射处理,得到所述训练视频的图像向量;

计算所述文本向量与所述输出向量的相似度,得到第一相似度,并计算所述文本向量与所述图像向量的相似度,得到第二相似度;

计算所述第一相似度在所述第二相似度中的比值,得到所述学习器的学习指标;

调整所述学习器中的网络参数,直至所述学习指标不再增加,得到所述视频生成模型。

根据本发明优选实施例,所述识别所述初始视频中每帧图像的人体特征点包括:

基于预设检测器对每帧图像进行检测,得到每帧图像中的人体区域;

对所述人体区域进行灰度处理,得到所述人体区域的多个像素点及每个像素点对应的像素灰度值;

根据所述像素灰度值及预设特征点的特征灰度值计算每个像素点与所述预设特征点的像素差值;

将所述像素差值小于预设阈值的像素点确定为初始特征点;

基于每帧图像构建坐标系,并获取所述初始特征点在每帧图像上的初始坐标信息;

根据所述初始坐标信息从所述初始特征点中筛选出所述人体特征点。

根据本发明优选实施例,所述根据所述初始坐标信息从所述初始特征点中筛选出所述人体特征点包括:

对于任一初始特征点,根据所述初始坐标信息计算所述任一初始特征点与目标特征点的特征距离,所述目标特征点是指所述初始特征点中除所述任一初始特征点外的其余特征点;

将取值最小的特征距离确定为目标距离,并将所述目标距离所对应的目标特征点确定为所述任一初始特征点的相邻特征点;

对所述目标距离进行正态分布处理,得到所述目标距离的概率值;

将所述概率值大于预设概率值的目标距离所对应的初始特征点确定为所述人体特征点。

根据本发明优选实施例,所述根据所述人体特征点生成每帧图像中用户的姿态信息包括:

根据所述坐标系获取所述人体特征点的坐标信息作为人体坐标信息;

从所述人体特征点中获取任意两个相邻特征点作为特征点对;

根据所述人体坐标信息及所述坐标系中的横坐标轴计算每个特征点对的欧拉角度;

计算所述欧拉角度的平均值,得到角度均值,并将所述角度均值所对应的预设姿势信息确定为所述姿态信息。

根据本发明优选实施例,所述音频生成模型包括情感识别网络层及语音转换网络层,所述基于预先训练好的音频生成模型分析所述文本信息,得到音频信息包括:

基于所述情感识别网络层分析所述文本信息,得到所述文本信息的文本情感;

从语音特征库中获取所述文本情感的情感语音特征;

基于所述语音转换网络层处理所述文本信息,得到语音信息,并获取所述语音信息中获取文本语音特征;

对所述文本语音特征及所述情感语音特征进行音频混流处理,得到所述音频信息。

根据本发明优选实施例,所述根据所述第二视频及所述音频信息生成动画视频包括:

统计所述第二视频的时长,得到第一时长;

统计所述音频信息的时长,得到第二时长;

若所述第一时长与所述第二时长不相等,从所述第二视频及所述音频信息中获取时长最大的信息作为待处理信息;

对所述待处理信息进行压缩处理,直至处理后的第二视频及处理后的音频信息的时长相等;

合并所述处理后的第二视频及所述处理后的音频信息,得到所述动画视频。

另一方面,本发明还提出一种动画视频生成装置,所述动画视频生成装置包括:

获取单元,用于当接收到视频生成请求时,根据所述视频生成请求获取文本信息;

输入单元,用于将所述文本信息输入至预先训练好的视频生成模型中,得到初始视频;

识别单元,用于识别所述初始视频中每帧图像的人体特征点;

生成单元,用于根据所述人体特征点生成每帧图像中用户的姿态信息;

调整单元,用于若所述姿态信息为预设姿态,则根据所述人体特征点调整所述姿态信息,得到第二视频;

分析单元,用于基于预先训练好的音频生成模型分析所述文本信息,得到音频信息;

所述生成单元,用于根据所述第二视频及所述音频信息生成动画视频。

另一方面,本发明还提出一种电子设备,所述电子设备包括:

存储器,存储计算机可读指令;及

处理器,执行所述存储器中存储的计算机可读指令以实现所述动画视频生成方法。

另一方面,本发明还提出一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机可读指令,所述计算机可读指令被电子设备中的处理器执行以实现所述动画视频生成方法。

由以上技术方案可以看出,本发明通过所述视频生成模型分析所述文本信息,能够快速生成所述初始视频,从而提高所述动画视频的生成效率,进而通过对所述人体特征点的识别,能够准确的确定出每帧图像中用户的姿态信息,进而在姿态信息为预设姿态时,对所述姿态信息进行调整,能够避免所述第二视频中存在所述预设姿态等不良姿态信息,由于良好的姿态信息能够对用户起到一定的教育作用,因此通过避免所述第二视频中存在所述预设姿态等不良姿态信息能够提高所述第二视频的质量,通过所述音频生成模型能够准确的生成与所述文本信息所对应的音频信息,根据所述音频信息及所述第二视频能够提高所述动画视频的生成质量。

附图说明

图1是本发明动画视频生成方法的较佳实施例的流程图。

图2是本发明动画视频生成装置的较佳实施例的功能模块图。

图3是本发明实现动画视频生成方法的较佳实施例的电子设备的结构示意图。

具体实施方式

为了使本发明的目的、技术方案和优点更加清楚,下面结合附图和具体实施例对本发明进行详细描述。

如图1所示,是本发明动画视频生成方法的较佳实施例的流程图。根据不同的需求,该流程图中步骤的顺序可以改变,某些步骤可以省略。

所述动画视频生成方法可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。

人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、机器人技术、生物识别技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。

所述动画视频生成方法应用于智慧教育领域,从而推动智慧城市的发展。所述动画视频生成方法应用于一个或者多个电子设备中,所述电子设备是一种能够按照事先设定或存储的计算机可读指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程门阵列(Field-Programmable Gate Array,FPGA)、数字信号处理器(Digital SignalProcessor,DSP)、嵌入式设备等。

所述电子设备可以是任何一种可与用户进行人机交互的电子产品,例如,个人计算机、平板电脑、智能手机、个人数字助理(Personal Digital Assistant,PDA)、游戏机、交互式网络电视(Internet Protocol Television,IPTV)、智能穿戴式设备等。

所述电子设备可以包括网络设备和/或用户设备。其中,所述网络设备包括,但不限于单个网络电子设备、多个网络电子设备组成的电子设备组或基于云计算(CloudComputing)的由大量主机或网络电子设备构成的云。

所述电子设备所处的网络包括,但不限于:互联网、广域网、城域网、局域网、虚拟专用网络(Virtual Private Network,VPN)等。

S10,当接收到视频生成请求时,根据所述视频生成请求获取文本信息。

在本发明的至少一个实施例中,根据所述视频生成请求的应用场景不同,所述视频生成请求的触发用户也有所不同,例如,所述视频生成请求的应用场景在教育领域,则所述视频生成请求的触发用户可以是教师人员等。

所述视频生成请求中可以包括,但不限于:文本路径、预设标签等。

所述文本信息是指需要转换为视频的文字信息,例如,所述文本信息可以是教师的讲义。

在本发明的至少一个实施例中,所述电子设备根据所述视频生成请求获取文本信息包括:

解析所述视频生成请求的报文,得到所述报文携带的数据信息;

根据所述预设标签从所述数据信息中提取所述文本路径;

从所述文本路径中获取所述文本信息。

其中,所述预设标签是指用于指示路径的标签。例如,所述预设标签可以是storage location。

通过所述预设标签能够准确的提取到所述文本路径,从而能够准确的获取到所述文本信息,有利于相应动画视频的生成。

S11,将所述文本信息输入至预先训练好的视频生成模型中,得到初始视频。

在本发明的至少一个实施例中,所述视频生成模型是指能够将文本转换视频的模型。所述视频生成模型中包括编码层、解码层及预设映射表等。其中,所述预设映射表中存储有像素值与向量的映射关系。

所述初始视频是指经所述视频生成模型对所述文本信息进行分析后所生成的视频。所述初始视频中不包含语音信息。

在本发明的至少一个实施例中,在将所述文本信息输入至预先训练好的视频生成模型中,得到初始视频之前,所述方法还包括:

获取多个视频训练样本,每个视频训练样本包括训练视频及所述训练视频所对应的训练文本;

构建学习器,其中,所述学习器包括编码层及解码层;

对所述训练文本进行文本编码处理,得到文本向量;

基于所述编码层分析所述文本向量,得到所述训练文本的特征信息;

基于所述解码层分析所述特征信息,得到输出向量;

基于预设映射表对所述训练视频进行映射处理,得到所述训练视频的图像向量;

计算所述文本向量与所述输出向量的相似度,得到第一相似度,并计算所述文本向量与所述图像向量的相似度,得到第二相似度;

计算所述第一相似度在所述第二相似度中的比值,得到所述学习器的学习指标;

调整所述学习器中的网络参数,直至所述学习指标不再增加,得到所述视频生成模型。

其中,所述文本向量用于对所述训练文本进行表征。

所述学习指标用于评价所述学习器的准确度。

所述网络参数包括所述编码层及所述解码层中预先设定好的参数。例如,所述编码层中包括卷积层,则所述网络参数可以是卷积层中卷积核的大小。

通过所述训练文本与预测视频的相似度以及所述训练文本与所述训练视频的相似度生成所述学习指标,进而根据所述学习指标调整所述网络参数,能够提高所述视频生成模型对文本信息的表征能力,从而提高视频生成的准确性。

在本发明的至少一个实施例中,所述电子设备基于所述视频生成模型分析所述文本信息的方式与所述电子设备基于所述学习器分析所述训练文本的方式相似,本发明对此不再赘述。

S12,识别所述初始视频中每帧图像的人体特征点。

在本发明的至少一个实施例中,所述人体特征点包括,但不限于:人脸关键特征点,例如:瞳孔中心等;手部关节点及骨骼关节点等。

在本发明的至少一个实施例中,所述电子设备识别所述初始视频中每帧图像的人体特征点包括:

基于预设检测器对每帧图像进行检测,得到每帧图像中的人体区域;

对所述人体区域进行灰度处理,得到所述人体区域的多个像素点及每个像素点对应的像素灰度值;

根据所述像素灰度值及预设特征点的特征灰度值计算每个像素点与所述预设特征点的像素差值;

将所述像素差值小于预设阈值的像素点确定为初始特征点;

基于每帧图像构建坐标系,并获取所述初始特征点在每帧图像上的初始坐标信息;

根据所述初始坐标信息从所述初始特征点中筛选出所述人体特征点。

其中,所述预设检测器可以用于识别图像中的人物信息。

所述预设特征点包括手部关节点及骨骼关节点等。所述特征灰度值可以根据多个预设用户的预设特征点所对应的像素信息确定。

所述预设阈值可以根据需求设定。

所述坐标系包括横坐标轴及纵坐标轴。

通过所述预设检测器检测每帧图像,不仅能够剔除每帧图像中背景信息对人体特征点的干扰,从而提高所述人体特征点的识别准确性,还能够减少像素点的分析数量,从而提高所述人体特征点的识别效率,进而通过所述像素灰度值与所述特征灰度值的分析,能够快速确定出所述初始特征点,进而根据所述初始特征点的初始坐标信息能够提高所述人体特征点的确定准确性。

在本发明的至少一个实施例中,所述电子设备根据所述初始坐标信息从所述初始特征点中筛选出所述人体特征点包括:

对于任一初始特征点,根据所述初始坐标信息计算所述任一初始特征点与目标特征点的特征距离,所述目标特征点是指所述初始特征点中除所述任一初始特征点外的其余特征点;

将取值最小的特征距离确定为目标距离,并将所述目标距离所对应的目标特征点确定为所述任一初始特征点的相邻特征点;

对所述目标距离进行正态分布处理,得到所述目标距离的概率值;

将所述概率值大于预设概率值的目标距离所对应的初始特征点确定为所述人体特征点。

其中,所述预设概率值可以根据需求设定,例如所述预设概率值可以是99.44%。

通过所述特征距离的分析能够快速的确定出所述任一初始特征点的相邻特征点,通过对所述目标距离进行正态分布处理,进一步分析所述目标距离的概率值,能够准确的从所述初始特征点中筛选出所述人体特征点。

S13,根据所述人体特征点生成每帧图像中用户的姿态信息。

在本发明的至少一个实施例中,所述姿态信息是指每帧图像中用户所处的姿势,例如,所述姿态信息可以是低头、所述姿态信息也可以是仰头等。

在本发明的至少一个实施例中,所述电子设备根据所述人体特征点生成每帧图像中用户的姿态信息包括:

根据所述坐标系获取所述人体特征点的坐标信息作为人体坐标信息;

从所述人体特征点中获取任意两个相邻特征点作为特征点对;

根据所述人体坐标信息及所述坐标系中的横坐标轴计算每个特征点对的欧拉角度;

计算所述欧拉角度的平均值,得到角度均值,并将所述角度均值所对应的预设姿势信息确定为所述姿态信息。

其中,所述特征点对是指所述人体特征点中获取任意两个相邻特征点,进一步地,所述任意两个相邻特征点是指特征距离相邻近的人体特征点,例如,人体特征点A、人体特征点B、人体特征点C、人体特征点D,所述人体特征点A与所述人体特征点B的特征距离为5,所述人体特征点A与所述人体特征点C的特征距离为2,所述人体特征点A与所述人体特征点D为3,则所述人体特征点C为所述人体特征点A的相邻特征点。

通过计算所述任意两个相邻特征点的欧拉角度,能够避免相距较远的人体特征点对所述姿态信息的干扰,从而提高所述姿态信息的确定准确性。

具体地,所述姿态信息可以根据角度与预设姿势信息的映射表确定。其中,所述预设姿势信息可以由用户标注。

S14,若所述姿态信息为预设姿态,则根据所述人体特征点调整所述姿态信息,得到第二视频。

在本发明的至少一个实施例中,所述预设姿态可以包括,但不限于:低头、仰头等不良姿态。

所述第二视频中每帧图像的用户姿势不为所述预设姿态。

在本发明的至少一个实施例中,所述电子设备根据所述人体特征点调整所述姿态信息,得到第二视频包括:

从姿势映射表中获取标准姿势的姿势角度;

比较所述角度均值与所述姿势角度;

若所述角度均值大于所述姿势角度,则比较所述欧拉角度与所述角度均值;

获取取值大于所述角度均值的欧拉角度所对应的特征点对作为待处理特征点;

调整所述待处理特征点在所述图像中的位置,直至调整后的姿态信息不为预设姿态,得到所述第二视频。

其中,所述姿势映射表中存储有多个预设姿势信息与角度的映射关系,所述多个预设姿势信息包括所述标准姿势及俯仰等不良姿势。所述姿势映射表中的所述多个预设姿势信息可以由用户标注,所述姿势映射表中的所述角度的计算方式与每帧图像中的所述角度均值的计算方式相似,本发明对此不再赘述。

通过所述角度均值与所述姿势角度的比较,以及所述欧拉角度与所述角度均值的比较,能够快速的确定出影响所述姿态信息的人体特征点,进而进行调整,从而提高所述第二视频的质量。

S15,基于预先训练好的音频生成模型分析所述文本信息,得到音频信息。

在本发明的至少一个实施例中,所述音频生成模型用于将所述文本信息转换为语音。

所述音频信息是指与所述文本信息相对应的语音。

在本发明的至少一个实施例中,所述音频生成模型包括情感识别网络层及语音转换网络层,所述电子设备基于预先训练好的音频生成模型分析所述文本信息,得到音频信息包括:

基于所述情感识别网络层分析所述文本信息,得到所述文本信息的文本情感;

从语音特征库中获取所述文本情感的情感语音特征;

基于所述语音转换网络层处理所述文本信息,得到语音信息,并获取所述语音信息中获取文本语音特征;

对所述文本语音特征及所述情感语音特征进行音频混流处理,得到所述音频信息。

其中,所述情感识别网络层用于分析文本所对应的情感。所述文本情感可以是高兴、难过等。

所述语音转换网络层用于将文本转换为语音。

通过将所述文本语音特征及所述情感语音特征进行音频混流处理,使所述音频信息中包含有所述文本情感,从而提高了所述音频信息的趣味性。

S16,根据所述第二视频及所述音频信息生成动画视频。

在本发明的至少一个实施例中,所述动画视频是指包含有所述音频信息及所述第二视频的视频。

需要强调的是,为进一步保证上述动画视频的私密和安全性,上述动画视频还可以存储于一区块链的节点中。

在本发明的至少一个实施例中,所述电子设备根据所述第二视频及所述音频信息生成动画视频包括:

统计所述第二视频的时长,得到第一时长;

统计所述音频信息的时长,得到第二时长;

若所述第一时长与所述第二时长不相等,从所述第二视频及所述音频信息中获取时长最大的信息作为待处理信息;

对所述待处理信息进行压缩处理,直至处理后的第二视频及处理后的音频信息的时长相等;

合并所述处理后的第二视频及所述处理后的音频信息,得到所述动画视频。

通过上述实施方式,在所述第一时长与所述第二时长不相等时,对时长最大的信息进行压缩处理,能够确保处理后的第二视频及处理后的音频信息的时长相等,进而便于对处理后的第二视频及处理后的音频信息进行直接合并,从而提高所述动画视频的生成效率。

具体地,所述电子设备合并所述处理后的第二视频及所述处理后的音频信息,得到所述动画视频包括:

获取所述处理后的第二视频在声轨维度上的声轨信息;

将所述声轨信息替换为所述处理后的音频信息,得到所述动画视频。

通过将所述声轨信息替换为所述处理后的音频信息,能够快速生成所述动画视频。

由以上技术方案可以看出,本发明通过所述视频生成模型分析所述文本信息,能够快速生成所述初始视频,从而提高所述动画视频的生成效率,进而通过对所述人体特征点的识别,能够准确的确定出每帧图像中用户的姿态信息,进而在姿态信息为预设姿态时,对所述姿态信息进行调整,能够避免所述第二视频中存在所述预设姿态等不良姿态信息,由于良好的姿态信息能够对用户起到一定的教育作用,因此通过避免所述第二视频中存在所述预设姿态等不良姿态信息能够提高所述第二视频的质量,通过所述音频生成模型能够准确的生成与所述文本信息所对应的音频信息,根据所述音频信息及所述第二视频能够提高所述动画视频的生成质量。

如图2所示,是本发明动画视频生成装置的较佳实施例的功能模块图。所述动画视频生成装置11包括获取单元110、输入单元111、识别单元112、生成单元113、调整单元114、分析单元115、构建单元116、编码单元117、映射单元118及计算单元119。本发明所称的模块/单元是指一种能够被处理器13所获取,并且能够完成固定功能的一系列计算机可读指令段,其存储在存储器12中。在本实施例中,关于各模块/单元的功能将在后续的实施例中详述。

当接收到视频生成请求时,获取单元110根据所述视频生成请求获取文本信息。

在本发明的至少一个实施例中,根据所述视频生成请求的应用场景不同,所述视频生成请求的触发用户也有所不同,例如,所述视频生成请求的应用场景在教育领域,则所述视频生成请求的触发用户可以是教师人员等。

所述视频生成请求中可以包括,但不限于:文本路径、预设标签等。

所述文本信息是指需要转换为视频的文字信息,例如,所述文本信息可以是教师的讲义。

在本发明的至少一个实施例中,所述获取单元110根据所述视频生成请求获取文本信息包括:

解析所述视频生成请求的报文,得到所述报文携带的数据信息;

根据所述预设标签从所述数据信息中提取所述文本路径;

从所述文本路径中获取所述文本信息。

其中,所述预设标签是指用于指示路径的标签。例如,所述预设标签可以是storage location。

通过所述预设标签能够准确的提取到所述文本路径,从而能够准确的获取到所述文本信息,有利于相应动画视频的生成。

输入单元111将所述文本信息输入至预先训练好的视频生成模型中,得到初始视频。

在本发明的至少一个实施例中,所述视频生成模型是指能够将文本转换视频的模型。所述视频生成模型中包括编码层、解码层及预设映射表等。其中,所述预设映射表中存储有像素值与向量的映射关系。

所述初始视频是指经所述视频生成模型对所述文本信息进行分析后所生成的视频。所述初始视频中不包含语音信息。

在本发明的至少一个实施例中,在将所述文本信息输入至预先训练好的视频生成模型中,得到初始视频之前,所述获取单元110获取多个视频训练样本,每个视频训练样本包括训练视频及所述训练视频所对应的训练文本;

构建单元116构建学习器,其中,所述学习器包括编码层及解码层;

编码单元117对所述训练文本进行文本编码处理,得到文本向量;

分析单元115基于所述编码层分析所述文本向量,得到所述训练文本的特征信息;

所述分析单元115基于所述解码层分析所述特征信息,得到输出向量;

映射单元118基于预设映射表对所述训练视频进行映射处理,得到所述训练视频的图像向量;

计算单元119计算所述文本向量与所述输出向量的相似度,得到第一相似度,并计算所述文本向量与所述图像向量的相似度,得到第二相似度;

所述计算单元119计算所述第一相似度在所述第二相似度中的比值,得到所述学习器的学习指标;

调整单元114调整所述学习器中的网络参数,直至所述学习指标不再增加,得到所述视频生成模型。

其中,所述文本向量用于对所述训练文本进行表征。

所述学习指标用于评价所述学习器的准确度。

所述网络参数包括所述编码层及所述解码层中预先设定好的参数。例如,所述编码层中包括卷积层,则所述网络参数可以是卷积层中卷积核的大小。

通过所述训练文本与预测视频的相似度以及所述训练文本与所述训练视频的相似度生成所述学习指标,进而根据所述学习指标调整所述网络参数,能够提高所述视频生成模型对文本信息的表征能力,从而提高视频生成的准确性。

在本发明的至少一个实施例中,基于所述视频生成模型分析所述文本信息的方式与基于所述学习器分析所述训练文本的方式相似,本发明对此不再赘述。

识别单元112识别所述初始视频中每帧图像的人体特征点。

在本发明的至少一个实施例中,所述人体特征点包括,但不限于:人脸关键特征点,例如:瞳孔中心等;手部关节点及骨骼关节点等。

在本发明的至少一个实施例中,所述识别单元112识别所述初始视频中每帧图像的人体特征点包括:

基于预设检测器对每帧图像进行检测,得到每帧图像中的人体区域;

对所述人体区域进行灰度处理,得到所述人体区域的多个像素点及每个像素点对应的像素灰度值;

根据所述像素灰度值及预设特征点的特征灰度值计算每个像素点与所述预设特征点的像素差值;

将所述像素差值小于预设阈值的像素点确定为初始特征点;

基于每帧图像构建坐标系,并获取所述初始特征点在每帧图像上的初始坐标信息;

根据所述初始坐标信息从所述初始特征点中筛选出所述人体特征点。

其中,所述预设检测器可以用于识别图像中的人物信息。

所述预设特征点包括手部关节点及骨骼关节点等。所述特征灰度值可以根据多个预设用户的预设特征点所对应的像素信息确定。

所述预设阈值可以根据需求设定。

所述坐标系包括横坐标轴及纵坐标轴。

通过所述预设检测器检测每帧图像,不仅能够剔除每帧图像中背景信息对人体特征点的干扰,从而提高所述人体特征点的识别准确性,还能够减少像素点的分析数量,从而提高所述人体特征点的识别效率,进而通过所述像素灰度值与所述特征灰度值的分析,能够快速确定出所述初始特征点,进而根据所述初始特征点的初始坐标信息能够提高所述人体特征点的确定准确性。

在本发明的至少一个实施例中,所述识别单元112根据所述初始坐标信息从所述初始特征点中筛选出所述人体特征点包括:

对于任一初始特征点,根据所述初始坐标信息计算所述任一初始特征点与目标特征点的特征距离,所述目标特征点是指所述初始特征点中除所述任一初始特征点外的其余特征点;

将取值最小的特征距离确定为目标距离,并将所述目标距离所对应的目标特征点确定为所述任一初始特征点的相邻特征点;

对所述目标距离进行正态分布处理,得到所述目标距离的概率值;

将所述概率值大于预设概率值的目标距离所对应的初始特征点确定为所述人体特征点。

其中,所述预设概率值可以根据需求设定,例如所述预设概率值可以是99.44%。

通过所述特征距离的分析能够快速的确定出所述任一初始特征点的相邻特征点,通过对所述目标距离进行正态分布处理,进一步分析所述目标距离的概率值,能够准确的从所述初始特征点中筛选出所述人体特征点。

生成单元113根据所述人体特征点生成每帧图像中用户的姿态信息。

在本发明的至少一个实施例中,所述姿态信息是指每帧图像中用户所处的姿势,例如,所述姿态信息可以是低头、所述姿态信息也可以是仰头等。

在本发明的至少一个实施例中,所述生成单元113根据所述人体特征点生成每帧图像中用户的姿态信息包括:

根据所述坐标系获取所述人体特征点的坐标信息作为人体坐标信息;

从所述人体特征点中获取任意两个相邻特征点作为特征点对;

根据所述人体坐标信息及所述坐标系中的横坐标轴计算每个特征点对的欧拉角度;

计算所述欧拉角度的平均值,得到角度均值,并将所述角度均值所对应的预设姿势信息确定为所述姿态信息。

其中,所述特征点对是指所述人体特征点中获取任意两个相邻特征点,进一步地,所述任意两个相邻特征点是指特征距离相邻近的人体特征点,例如,人体特征点A、人体特征点B、人体特征点C、人体特征点D,所述人体特征点A与所述人体特征点B的特征距离为5,所述人体特征点A与所述人体特征点C的特征距离为2,所述人体特征点A与所述人体特征点D为3,则所述人体特征点C为所述人体特征点A的相邻特征点。

通过计算所述任意两个相邻特征点的欧拉角度,能够避免相距较远的人体特征点对所述姿态信息的干扰,从而提高所述姿态信息的确定准确性。

具体地,所述姿态信息可以根据角度与预设姿势信息的映射表确定。其中,所述预设姿势信息可以由用户标注。

若所述姿态信息为预设姿态,所述调整单元114则根据所述人体特征点调整所述姿态信息,得到第二视频。

在本发明的至少一个实施例中,所述预设姿态可以包括,但不限于:低头、仰头等不良姿态。

所述第二视频中每帧图像的用户姿势不为所述预设姿态。

在本发明的至少一个实施例中,所述调整单元114根据所述人体特征点调整所述姿态信息,得到第二视频包括:

从姿势映射表中获取标准姿势的姿势角度;

比较所述角度均值与所述姿势角度;

若所述角度均值大于所述姿势角度,则比较所述欧拉角度与所述角度均值;

获取取值大于所述角度均值的欧拉角度所对应的特征点对作为待处理特征点;

调整所述待处理特征点在所述图像中的位置,直至调整后的姿态信息不为预设姿态,得到所述第二视频。

其中,所述姿势映射表中存储有多个预设姿势信息与角度的映射关系,所述多个预设姿势信息包括所述标准姿势及俯仰等不良姿势。所述姿势映射表中的所述多个预设姿势信息可以由用户标注,所述姿势映射表中的所述角度的计算方式与每帧图像中的所述角度均值的计算方式相似,本发明对此不再赘述。

通过所述角度均值与所述姿势角度的比较,以及所述欧拉角度与所述角度均值的比较,能够快速的确定出影响所述姿态信息的人体特征点,进而进行调整,从而提高所述第二视频的质量。

所述分析单元115基于预先训练好的音频生成模型分析所述文本信息,得到音频信息。

在本发明的至少一个实施例中,所述音频生成模型用于将所述文本信息转换为语音。

所述音频信息是指与所述文本信息相对应的语音。

在本发明的至少一个实施例中,所述音频生成模型包括情感识别网络层及语音转换网络层,所述分析单元115基于预先训练好的音频生成模型分析所述文本信息,得到音频信息包括:

基于所述情感识别网络层分析所述文本信息,得到所述文本信息的文本情感;

从语音特征库中获取所述文本情感的情感语音特征;

基于所述语音转换网络层处理所述文本信息,得到语音信息,并获取所述语音信息中获取文本语音特征;

对所述文本语音特征及所述情感语音特征进行音频混流处理,得到所述音频信息。

其中,所述情感识别网络层用于分析文本所对应的情感。所述文本情感可以是高兴、难过等。

所述语音转换网络层用于将文本转换为语音。

通过将所述文本语音特征及所述情感语音特征进行音频混流处理,使所述音频信息中包含有所述文本情感,从而提高了所述音频信息的趣味性。

所述生成单元113根据所述第二视频及所述音频信息生成动画视频。

在本发明的至少一个实施例中,所述动画视频是指包含有所述音频信息及所述第二视频的视频。

需要强调的是,为进一步保证上述动画视频的私密和安全性,上述动画视频还可以存储于一区块链的节点中。

在本发明的至少一个实施例中,所述生成单元113根据所述第二视频及所述音频信息生成动画视频包括:

统计所述第二视频的时长,得到第一时长;

统计所述音频信息的时长,得到第二时长;

若所述第一时长与所述第二时长不相等,从所述第二视频及所述音频信息中获取时长最大的信息作为待处理信息;

对所述待处理信息进行压缩处理,直至处理后的第二视频及处理后的音频信息的时长相等;

合并所述处理后的第二视频及所述处理后的音频信息,得到所述动画视频。

通过上述实施方式,在所述第一时长与所述第二时长不相等时,对时长最大的信息进行压缩处理,能够确保处理后的第二视频及处理后的音频信息的时长相等,进而便于对处理后的第二视频及处理后的音频信息进行直接合并,从而提高所述动画视频的生成效率。

具体地,所述生成单元113合并所述处理后的第二视频及所述处理后的音频信息,得到所述动画视频包括:

获取所述处理后的第二视频在声轨维度上的声轨信息;

将所述声轨信息替换为所述处理后的音频信息,得到所述动画视频。

通过将所述声轨信息替换为所述处理后的音频信息,能够快速生成所述动画视频。

由以上技术方案可以看出,本发明通过所述视频生成模型分析所述文本信息,能够快速生成所述初始视频,从而提高所述动画视频的生成效率,进而通过对所述人体特征点的识别,能够准确的确定出每帧图像中用户的姿态信息,进而在姿态信息为预设姿态时,对所述姿态信息进行调整,能够避免所述第二视频中存在所述预设姿态等不良姿态信息,由于良好的姿态信息能够对用户起到一定的教育作用,因此通过避免所述第二视频中存在所述预设姿态等不良姿态信息能够提高所述第二视频的质量,通过所述音频生成模型能够准确的生成与所述文本信息所对应的音频信息,根据所述音频信息及所述第二视频能够提高所述动画视频的生成质量。

如图3所示,是本发明实现动画视频生成方法的较佳实施例的电子设备的结构示意图。

在本发明的一个实施例中,所述电子设备1包括,但不限于,存储器12、处理器13,以及存储在所述存储器12中并可在所述处理器13上运行的计算机可读指令,例如动画视频生成程序。

本领域技术人员可以理解,所述示意图仅仅是电子设备1的示例,并不构成对电子设备1的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述电子设备1还可以包括输入输出设备、网络接入设备、总线等。

所述处理器13可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等,所述处理器13是所述电子设备1的运算核心和控制中心,利用各种接口和线路连接整个电子设备1的各个部分,及执行所述电子设备1的操作系统以及安装的各类应用程序、程序代码等。

示例性的,所述计算机可读指令可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器12中,并由所述处理器13执行,以完成本发明。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机可读指令段,该计算机可读指令段用于描述所述计算机可读指令在所述电子设备1中的执行过程。例如,所述计算机可读指令可以被分割成获取单元110、输入单元111、识别单元112、生成单元113、调整单元114、分析单元115、构建单元116、编码单元117、映射单元118及计算单元119。

所述存储器12可用于存储所述计算机可读指令和/或模块,所述处理器13通过运行或执行存储在所述存储器12内的计算机可读指令和/或模块,以及调用存储在存储器12内的数据,实现所述电子设备1的各种功能。所述存储器12可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据电子设备的使用所创建的数据等。存储器12可以包括非易失性和易失性存储器,例如:硬盘、内存、插接式硬盘,智能存储卡(SmartMedia Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)、至少一个磁盘存储器件、闪存器件、或其他存储器件。

所述存储器12可以是电子设备1的外部存储器和/或内部存储器。进一步地,所述存储器12可以是具有实物形式的存储器,如内存条、TF卡(Trans-flash Card)等等。

所述电子设备1集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机可读指令来指令相关的硬件来完成,所述的计算机可读指令可存储于一计算机可读存储介质中,该计算机可读指令在被处理器执行时,可实现上述各个方法实施例的步骤。

其中,所述计算机可读指令包括计算机可读指令代码,所述计算机可读指令代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机可读指令代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)。

本发明所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。

结合图1,所述电子设备1中的所述存储器12存储计算机可读指令实现一种动画视频生成方法,所述处理器13可执行所述计算机可读指令从而实现:

当接收到视频生成请求时,根据所述视频生成请求获取文本信息;

将所述文本信息输入至预先训练好的视频生成模型中,得到初始视频;

识别所述初始视频中每帧图像的人体特征点;

根据所述人体特征点生成每帧图像中用户的姿态信息;

若所述姿态信息为预设姿态,则根据所述人体特征点调整所述姿态信息,得到第二视频;

基于预先训练好的音频生成模型分析所述文本信息,得到音频信息;

根据所述第二视频及所述音频信息生成动画视频。

具体地,所述处理器13对上述计算机可读指令的具体实现方法可参考图1对应实施例中相关步骤的描述,在此不赘述。

在本发明所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。

所述计算机可读存储介质上存储有计算机可读指令,其中,所述计算机可读指令被处理器13执行时用以实现以下步骤:

当接收到视频生成请求时,根据所述视频生成请求获取文本信息;

将所述文本信息输入至预先训练好的视频生成模型中,得到初始视频;

识别所述初始视频中每帧图像的人体特征点;

根据所述人体特征点生成每帧图像中用户的姿态信息;

若所述姿态信息为预设姿态,则根据所述人体特征点调整所述姿态信息,得到第二视频;

基于预先训练好的音频生成模型分析所述文本信息,得到音频信息;

根据所述第二视频及所述音频信息生成动画视频。

所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。

另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。

因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。

此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。所述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第一、第二等词语用来表示名称,而并不表示任何特定的顺序。

最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。

相关技术
  • 动画视频生成方法、装置、设备及存储介质
  • 生成模型和生成3D动画的方法、装置、设备和存储介质
技术分类

06120113691437