掌桥专利:专业的专利平台
掌桥专利
首页

音频处理方法以及装置

文献发布时间:2024-04-18 20:01:23


音频处理方法以及装置

技术领域

本发明实施例涉及音频处理技术领域,尤其涉及一种音频处理方法以及装置。

背景技术

通常,用户之间的会话多会通过视频会议或者其他能够通讯的软件来进行多人会话。

在基于相应的软件进行会话时,主要会存在会议持续时间长,可选的,6~12小时,需要占用极大的存储空间。音频谈话的过程中信噪比环境比较复杂,音频素材会存在白噪声、设备电流声、电话响铃声等各种干扰背景音。当背景噪音强度过高,可能导致人声在转化为文字的过程中被忽视。

进一步的,普通的音频存储不会对音频进行加工处理,为后续根据关键内容检索音频、对谈话内容快速定位增加了难度。

发明内容

本发明提供一种音频处理方法以及装置,以实现将音频进行人声区分,并对人声音频帧进行内容标注,以提高后续任务处理高效性的效果。

第一方面,本发明实施例提供了一种音频处理方法,该方法包括:

确定与待处理音频相对应的至少一个音频片段,并确定所述至少一个音频片段中每个音频帧所对应的特征向量;其中,所述音频片段中包括至少两个音频帧;

对于各音频片段,将当前音频片段中所有音频帧的特征向量输入至预先训练得到的目标分类器中,以确定所述当前音频片段的分类结果,其中,所述分类结果为1×N阶向量,向量中的分类元素值用于表征音频帧所对应的是人声帧或非人声帧的概率,所述目标分类器中损失函数包括至少两个自适应因子;

对于各音频片段,基于当前音频片段的分类结果,确定所述当前音频频段中为人声的位置信息集合;其中,所述位置信息集合中包括至少一个时序,所述时序中的第一个元素用于表示起始帧,第二个元素用于表征结束帧;

基于各音频片段所对应的位置信息集合,确定所述至少一个时序的二级标签,以基于所述二级标签确定所述待处理音频中的目标内容。

进一步的,所述确定与待处理音频相对应的至少一个音频片段,并确定所述至少一个音频片段中每个音频帧所对应的特征向量,包括:

获取待处理音频;

依据预设划分时长将所述待处理音频划分为至少一个音频片段;

对于各音频片段,提取当前音频片段中每个音频帧的语音特征参数,得到每个音频帧的特征向量。

进一步的,所述目标分类器是基于长短时记忆网络的音频分类器,所述方法还包括:

获取多个历史音频,并将所述历史音频划分为至少一个音频样本片段;其中,所述音频样本片段的时间长度与所述至少一个音频片段的时间长度相同;

对于各音频样本片段,将当前音频样本片段输入至待训练分类器中,得到预测结果,其中,所述预测结果为1×N阶向量,向量中的分类元素值用于表征音频帧所对应的是人声帧或非人声帧的标识,N的数值与所述当前音频样本片段中的音频帧数量相同;

基于所述预测结果、所述当前音频样本片段的真实结果以及所述损失函数,确定损失值;

将所述损失值对所述待训练分类器中的模型参数进行修正,得到所述目标分类器。

进一步的,所述目标分类器中的损失函数为:

其中,

进一步的,所述将当前音频片段中所有音频帧的特征向量输入至预先训练得到的目标分类器中,以确定所述当前音频片段的分类结果,包括:

将所述当前音频片段中所有音频帧的特征向量输入至所述目标分类器中,以确定所述音频帧的目标特征向量;

基于Softmax函数对所述目标特征向量进行处理,确定每个音频帧的结果标识;

基于所述当前音频片段中每个音频帧的结果标识,确定所述分类结果的目标向量。

进一步的,所述基于当前音频片段的分类结果,确定所述当前音频频段中为人声的位置信息集合,包括:

依据预设滑窗的窗长和滑动步长对所述分类结果进行处理,确定所述位置信息集合中的时序。

进一步的,所述依据预设滑窗的窗长和滑动步长对所述分类结果进行处理,确定所述位置信息集合中的时序,包括:

依据所述预设滑窗的窗长,确定所述分类结果中为人声帧的帧数;

若所述帧数大于预设帧数阈值,则确定所述预设滑窗内的起始帧和结束帧,并标记所述起始帧和所述结束帧的序列号,得到所述时序;

依据所述滑动步长移动所述预设滑窗,确定下一滑窗内的时序;直至所述滑窗全覆盖所述分类结果中的所有分类结果。

进一步的,所述基于各音频片段所对应的位置信息集合,确定所述至少一个时序的二级标签,以基于所述二级标签确定所述待处理音频中的目标内容,包括:

对于各所述位置信息集合,将所述当前位置信息集合中的每个时序所对应的至少一个音频帧输入至文本分类模型中,得到每个所述时序的二级标签;

其中,所述二级标签与所述文本分类模型在训练阶段所对应的预测分类结果相对应。

进一步的,所述二级标签包括第一标签和第二标签,所述第一标签对应于流程标签,所述第二标签对应于业务标签。

第二方面,本发明实施例还提供了一种音频处理装置,该装置包括:

特征向量确定模块,用于确定与待处理音频相对应的至少一个音频片段,并确定所述至少一个音频片段中每个音频帧所对应的特征向量;其中,所述音频片段中包括至少两个音频帧;

分类结果确定模块,用于对于各音频片段,将当前音频片段中所有音频帧的特征向量输入至预先训练得到的目标分类器中,以确定所述当前音频片段的分类结果,其中,所述分类结果为1×N阶向量,向量中的分类元素值用于表征音频帧所对应的是人声帧或非人声帧的概率,所述目标分类器中损失函数包括至少两个自适应因子;

信息集合确定模块,用于对于各音频片段,基于当前音频片段的分类结果,确定所述当前音频频段中为人声的位置信息集合;其中,所述位置信息集合中包括至少一个时序,所述时序中的第一个元素用于表示起始帧,第二个元素用于表征结束帧;

内容确定模块,用于基于各音频片段所对应的位置信息集合,确定所述至少一个时序的二级标签,以基于所述二级标签确定所述待处理音频中的目标内容。

第三方面,本发明实施例还提供了一种电子设备,所述电子设备包括:

一个或多个处理器;

存储装置,用于存储一个或多个程序,

当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如本发明实施例任一所述的音频处理方法。

第四方面,本发明实施例还提供了一种包含计算机可执行指令的存储介质,所述计算机可执行指令在由计算机处理器执行时用于执行如本发明实施例任一所述的音频处理方法。

本发明实施例所提供的技术方案,通过确定与待处理音频相对应的至少一个音频片段,并确定至少一个音频片段中每个音频帧所对应的特征向量,对于各音频片段,将当前音频片段中所有音频帧的特征向量输入至预先训练得到的目标分类器中,以确定当前音频片段的分类结果,其中,分类结果为1×N阶向量,向量中的分类元素值用于表征音频帧所对应的是人声帧或非人声帧的概率,目标分类器中损失函数包括至少两个自适应因子;对于各音频片段,基于当前音频片段的分类结果,确定当前音频频段中为人声的位置信息集合;其中,位置信息集合中包括至少一个时序,时序中的第一个元素用于表示起始帧,第二个元素用于表征结束帧;基于各音频片段所对应的位置信息集合,确定至少一个时序的二级标签,以基于二级标签确定待处理音频中的目标内容,解决了现有技术中音频会议内容较多,同时还伴随着背景干扰音,需要用户从很长的音频中确定出相应的内容,存在难度较高以及不便的问题,实现了智能对音频处理,提高音频处理效率的技术效果。

附图说明

为了更加清楚地说明本发明示例性实施例的技术方案,下面对描述实施例中所需要用到的附图做一简单介绍。显然,所介绍的附图只是本发明所要描述的一部分实施例的附图,而不是全部的附图,对于本领域普通技术人员,在不付出创造性劳动的前提下,还可以根据这些附图得到其他的附图。

图1为本发明实施例所提供的一种音频处理方法流程示意图;

图2为本发明实施例所提供的一种音频处理方法流程示意图;

图3为本发明实施例所提供的一种音频处理装置结构示意图;

图4为本发明实施例所提供的一种电子设备结构示意图。

具体实施方式

下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部结构。

在介绍本发明实施例所提供的技术方案,可以先对应用场景进行示例性说明,可以将本发明实施例应用在任意需要对采集的音频进行处理的场景中,可选的,会议场景中,即,主要涉及到音频谈话的场景都可以采用本发明实施例所提供的方案进行音频内容处理。

也就说,在音频谈话时,可以采集语音谈话的音频素材。该音频素材可以用于后续语音识别、音频定位等。会议谈话通常时间长、需要的存储空间大,同时伴随着一些非人声的干扰音。为了采集到便于处理的音频素材,可以采用损失权重自适应的神经网络模型对音频素材进行处理,接下来依据处理结果对关键字智能打标签对音频进行分类,结合哈希存储提高音频快速检索与存储效率。

图1为本发明实施例所提供的一种音频处理方法流程示意图,本实施例可适用于任意需要对音频分析处理的场景中,该方法可以由音频处理装置来执行,该装置可以通过软件和/或硬件的形式实现。

S110、确定与待处理音频相对应的至少一个音频片段,并确定至少一个音频片段中每个音频帧所对应的特征向量;其中,音频片段中包括至少两个音频帧。

其中,可以将需要分析处理的音视频作为待处理音频。此时,仅需要对音频内容分析处理,不需要对视频内容分析处理。至少一个音频片段的数量可以是一个或者多个,其具体的片段数据可以根据实际求来设置的。也就会说,可以预先设定音频片段的划分原则,以将待处理音频划分为多个音频片段,即,对待处理音频进行音频分片。

音频数据分帧,用于将音频信号按照固定长度划分为登场的音频帧。

示例性的,音频数据分帧:由于语音信号具有短时平稳特性,将音频数据按固定长度划分成多个音频片段(长度一般2~20ms),每个音频片段中可以包括多个音频帧。假设一个音频片段中有N帧,可以标记为X={x

其中,每个音频帧都存在相应的音频帧数据的,因此,可以对每个音频帧进行特征提取。对每一帧音频数据提取Fbank特征,得到每一帧音频数据对应的特征向量x'

在本实施例中特征提取,可以理解为用于将音频帧进行处理分析,提取语音信号的相关特征。通过特征提取,可以获取到从而有助于后续人声识别过程。

可选的,确定与待处理音频相对应的至少一个音频片段,并确定至少一个音频片段中每个音频帧所对应的特征向量,包括:获取待处理音频;依据预设划分时长将待处理音频划分为至少一个音频片段;对于各音频片段,提取当前音频片段中每个音频帧的语音特征参数,得到每个音频帧的特征向量。

其中,用户可以上传需要处理的音频,并作为待处理音频。预设划分时长可以是2S,3S,5S等,用户可以根据实际需求进行设置。至少一个音频片段的数量可以包括多个,所有音频片段拼接起来可以得到待处理音频。可以采用现有的音频特征提取模型对每个音频帧进行语音特征参数提取,以得到每个音频帧的特征向量。

数字化预处理:人耳听到的声音是连续模拟信号,而计算机只能处理数字化的信息,所以必须对音频素材进行数字化和预处理。通常包括分帧、加窗、特征提取和特征分析。

特征提取:音频信号随时间变化且连续,在较短的时间内,可以认为其特征参数是稳定不变的。音频特征提取是音频分片、音频智能打标签和音频快速定位的基础,将原始的音频信号映射到多维特征空间,选取多维空间的一个特征向量序列表示该音频信号。将经过音频分片的素材,先提取基于帧的特征,再计算一个片段内基于帧的特征的统计值,从而得到基于片段的特征。

在上述示例性的基础上,可以对音频片段X={x

S120、对于各音频片段,将当前音频片段中所有音频帧的特征向量输入至预先训练得到的目标分类器中,以确定当前音频片段的分类结果。

其中,分类结果为1×N阶向量,向量中的分类元素值用于表征音频帧所对应的是人声帧或非人声帧的概率,目标分类器中损失函数包括至少两个自适应因子。

其中,目标分类器可以理解为用于区分是人声还是非人声的分类器。也就是说,目标分类器为二分类模型。本实施例所选用的目标分类器为长短时基于网络,长短时记忆单元(Long short-term memory,LSTM)是一种改进后的循环神经网络,相比普通的神经网络,LSTM包含一种特殊的记忆单元,对于时间序列敏感的问题,具有长时记忆的优点,能够捕获长距离依赖关系。每个记忆单元包含一个输入门、遗忘门以及输出门,通过门控单元的控制,LSTM神经元能够实现保持更早时刻的记忆信息。

数学上,LSTM可以通过以下的关于时间序列t=1,2,…,T的递推公式描述:

i

f

c

o

h

其中,i

其中,W

其中,分类结果可以理解为将当前音频片段输入至目标分类器后,目标分类器可以判断每个音频帧是否为人声帧。分类结果中可以包括每个音频帧是否为人声帧的概率,当概率值大于预设概率阈值,则说明该音频帧为人声帧;在概率值小于预设概率阈值,则说明该音频帧为非人声帧。

在本实施例中,分类结果为1×N阶向量,向量中的分类元素值用于表征音频帧所对应的是人声帧或非人声帧的概率,所述目标分类器中损失函数包括至少两个自适应因子。

在本实施例中,将当前音频片段中所有音频帧的特征向量输入至预先训练得到的目标分类器中,以确定当前音频片段的分类结果,包括:将当前音频片段中所有音频帧的特征向量输入至目标分类器中,以确定音频帧的目标特征向量;基于Softmax函数对目标特征向量进行处理,确定每个音频帧的结果标识;基于当前音频片段中每个音频帧的结果标识,确定分类结果的目标向量。

可以理解为,将当前音频片段的所有音频帧输入至目标分类器,目标分类器可以对每个音频帧的特征向量进行处理,得到每个音频帧的目标特征向量。基于目标特征向量中的Softmax函数对该目标特征向量进行分类,,可以得到结果标识。结果标识主要对应于概率值,该概率值可以表征音频帧是否为人声帧。目标向量可以理解为一个1×N阶向量,N的数值与音频片段中音频帧的数量相同。

S130、对于各音频片段,基于当前音频片段的分类结果,确定当前音频频段中为人声的位置信息集合。

其中,位置信息集合中包括至少一个时序,时序中的第一个元素用于表示起始帧,第二个元素用于表征结束帧。每个时序用于表征当前音频片段中的起始帧和结束帧的序号标识。通常,一个音频片段中可以出现连续的人声帧或者连续的非人声帧,为了达到高效对人声帧分析处理的效果,可以将音频片段中连续的人声帧标记出来,便于后续快速对人声帧分析处理效果。相应的,如果一个音频片段中出现至少两组连续的音频帧,则时序的数量可以包括多个。每组连续的音频帧中可以包括多个音频帧。

在本实施例中,确定位置信息集合可以是:依据预设滑窗的窗长和滑动步长对所述分类结果进行处理,确定所述位置信息集合中的时序。

其中,预设滑窗可以是来确定时序的一个窗口。该滑窗的窗长小于音频片段所对应的时间长度。滑动步长可以理解为每次移动多长时间的音频帧来确定该滑窗内是否为一个时序的人声帧。可以基于滑窗和滑动步长对分类结果进行处理,以确定该音频片段所对应的时序。将该音频片段所对应的时序集合作为一个位置信息集合。

在本实施例中,依据预设滑窗的窗长和滑动步长对分类结果进行处理,确定位置信息集合中的时序,包括:依据预设滑窗的窗长,确定分类结果中为人声帧的帧数;若帧数大于预设帧数阈值,则确定预设滑窗内的起始帧和结束帧,并标记起始帧和结束帧的序列号,得到时序;依据滑动步长移动预设滑窗,确定下一滑窗内的时序;直至滑窗全覆盖分类结果中的所有分类结果。

其中,预设滑窗的窗长可以是2S,可以以该预设滑窗的窗长来确定分类结果中为人声帧的帧数。如果该人声帧的帧数大于预设帧数阈值,则说明滑窗为人声帧,可以记录该滑窗内人声帧的起始帧序号和结束帧的序号,基于该序号可以确定位置信息集合中的一个序列。接下来以滑动步长移动该滑动窗口,可以重复执行上述步骤,以确定一个时序。

示例性的,假设LSTM音频分类器的预测结果集为Y={y

S140、基于各音频片段所对应的位置信息集合,确定至少一个时序的二级标签,以基于二级标签确定待处理音频中的目标内容。

需要说明的是,每个音频片段都存在一个位置信息集合,每个位置信息集合中可以包括至少一个时序。二级标签可以包括两个,其具体的标签可以根据实际需求来确定。二级标签的具体标签类型和内容可以依据业务来确定的,也就是说,可以在预先模型阶段预先设定模型的标签输出结果,以基于训练得到的模型对每个时序的音频帧进行处理,以确定该时序的二级标签,并将其标注在每个时序中,即更新时序的内容。

在本实施例中,基于各音频片段所对应的位置信息集合,确定至少一个时序的二级标签,以基于二级标签确定待处理音频中的目标内容,包括:对于各位置信息集合,将当前位置信息集合中的每个时序所对应的至少一个音频帧输入至文本分类模型中,得到每个时序的二级标签;其中,二级标签与文本分类模型在训练阶段所对应的预测分类结果相对应。

具体的,对于当前位置信息集合中每个时序所对应的至少一个音频帧。可以将该时序所对应的至少一个音频帧输入至文本分类模型中,以确定该时序所对应的两个标签。可以将此两个标签更新在时序中,以便于后续在业务上调用相应的音频帧,以确定该音频帧所对应的目标内容。

对V

将V

本发明实施例所提供的技术方案,首先基于音频帧特性进行物理分片,通过音频数据分帧、特征提取音频信号的特征的统计值,基于LSTM神经网络模型,判断每一音频帧是人声还是非人声的类别,采用损失权重自适应方法,增强人声区域的损失,达到强调人声区域的训练。然后基于音频片段特性进行逻辑分片,根据提取的人声和音频帧和既定的业务关键字进行音频分片,通过对每一段人声区域语音识别进行二级标签分类,将相同二级标签的人声进行标签合并,并根据哈希存储规则建立二级索引。最后对谈话音频进行智能分片,结合会议的既定业务流程,将音频根据流程切分,精简音频内容,实现关键字快速定位音频。也就是说,本发明实施例所提供的技术方案,基于音频帧特性通过物理分片对采集的音频信息进行处理,提出基于损失权重自适应的LSTM神经网络模型,将人声区域的损失增强,达到强调人声区域的训练,提高人声的识别效果。然后基于音频片段特性通过逻辑分片对音频素材进行标签分类,将每一段音频根据所属二级标签建立二级索引并存储。最后根据既定的业务功能,对谈话内容进行智能分片,实现基于特定谈话流程生成音频片段,精简音频内容,实现关键字快速定位音频。

图2为本发明实施例所提供的一种音频处理方法流程示意图,在前述实施例的基础上,所述方法还包括训练得到目标分类器,以基于目标分类器来确定每一音频帧是否为人声音频,进而便于后续的人声音频分析处理,得到目标内容。

如图2所示,所述方法包括:

S210、获取多个历史音频,并将历史音频划分为至少一个音频样本片段;其中,音频样本片段的时间长度与至少一个音频片段的时间长度相同。

其中,可以获取很多历史音频来进行模型训练。在获取到历史音频之后,可以按照预先设定好的音频片段划分原则将每个历史音频划分为多个音频片段,可以将每个音频片段作为一个训练样本。

需要说明的是,音频片段划分原则在确定训练样本和后续对音频处理时的原则是相同的。

还需要说明的是,由于音频片段划分原则是相同的,因此每个音频片段的音频长度相同,相应的,每个音频片段中音频帧的数量也是相同的。

S220、对于各音频样本片段,将当前音频样本片段输入至待训练分类器中,得到预测结果。

其中,预测结果为1×N阶向量,向量中的分类元素值用于表征音频帧所对应的是人声帧或非人声帧的标识,N的数值与当前音频样本片段中的音频帧数量相同。

可以理解为,将当前音频样本段输入至待训练分类器中,待训练分类器可以对当前音频样本段中的每个音频帧进行处理,以得到每个音频帧所对应的预测标识。

还需要说明的是,在将当前音频样本段输入至待训练分类器之前,还需要提取每个音频帧所对应的特征,以将提取出的特征输入至待训练分类器中。

S230、基于预测结果、当前音频样本片段的真实结果以及损失函数,确定损失值。

在本实施例中,可以采用自适应权重的方式来确定损失函数以及模型中的模型参数。

自适应权重的方式可以理解为:对双目标问题中的每个目标赋予一个权重,并通过加权的方法将双目标转化为单目标。与传统的加权方法所不同的是,传统的加权方法赋予每个目标的权重是一个常数。它通常主要根据问题的先验知识来确定,而自适应权重方法所赋予的权重并不是固定不变的,而是一个自适应权重,这个权重是根据当前解集中的有用信息进行调整,从而迫使算法向帕累托前沿方向进行搜索。

反向传播算法:该算法的原理是利用链式求导法则计算实际输出结果与期望结果之间的损失函数对每个权重参数或偏置项的偏导数,然后根据优化算法逐层反向地更新权重或偏置项,它采用了前后-后向传播的训练方式,通过不断调整模型中的参数,使损失函数达到收敛,从而构建准确的模型结构。

在本实施例中采用自适应权重方法的原因和具体方式是:

由于谈话音频的特殊性,其人声区域和非人声区域的大小通常不是一样的,这就造成每一段音频被分帧后,以一帧为一个样本为例,存在人声帧和非人声帧的比例不平衡的问题,使得模型倾向于对比例大的样本造成过拟合,也就是说预测偏向样本数较多的分类,这样就会降低模型的泛化能力,导致识别准确率很难提高。为了缓解这个问题,进一步提高人声的识别效果,本文在损失函数中引入损失权重自适应因子

其中,|I|为当前音频片段中标识为第一标识的样本数量,即属于人声帧的样本数量,相应的,第一标识为人声,

S240、将损失值对待训练分类器中的模型参数进行修正,得到目标分类器。

具体的,基于损失值对待训练分类器中的模型参数进行修正,将损失函数收敛时时所对应的分类器,作为目标分类器。

本发明实施例所提供的技术方案,可以对目标分类器中的损失函数进行调整,以基于自适应权重的来确定损失值,进而基于损失值来调整待训练分类模型中的模型参数,以得到可以对音频分类处理的目标分类器,实现了基于目标分类器对音频进行处理的效果。

图3为本发明实施例所提供的一种音频处理装置结构示意图,该装置中包括:特征向量确定模块310、分类结果确定模块320、信息集合确定模块330以及内容确定模块340。

其中,特征向量确定模块310,用于确定与待处理音频相对应的至少一个音频片段,并确定所述至少一个音频片段中每个音频帧所对应的特征向量;其中,所述音频片段中包括至少两个音频帧;分类结果确定模块320,用于对于各音频片段,将当前音频片段中所有音频帧的特征向量输入至预先训练得到的目标分类器中,以确定所述当前音频片段的分类结果,其中,所述分类结果为1×N阶向量,向量中的分类元素值用于表征音频帧所对应的是人声帧或非人声帧的概率,所述目标分类器中损失函数包括至少两个自适应因子;信息集合确定模块330,用于对于各音频片段,基于当前音频片段的分类结果,确定所述当前音频频段中为人声的位置信息集合;其中,所述位置信息集合中包括至少一个时序,所述时序中的第一个元素用于表示起始帧,第二个元素用于表征结束帧;内容确定模块340,用于基于各音频片段所对应的位置信息集合,确定所述至少一个时序的二级标签,以基于所述二级标签确定所述待处理音频中的目标内容。

在上述技术方案的基础上,所述特征向量确定模块,包括:

音频获取单元,用于获取待处理音频;

片段划分单元,用于依据预设划分时长将所述待处理音频划分为至少一个音频片段;

特征向量确定单元,用于对于各音频片段,提取当前音频片段中每个音频帧的语音特征参数,得到每个音频帧的特征向量。

在上述各技术方案的基础上,所述目标分类器是基于长短时记忆网络的音频分类器,所述装置还包括:

历史音频获取模块,用于获取多个历史音频,并将所述历史音频划分为至少一个音频样本片段;其中,所述音频样本片段的时间长度与所述至少一个音频片段的时间长度相同;样本处理模块,用于对于各音频样本片段,将当前音频样本片段输入至待训练分类器中,得到预测结果,其中,所述预测结果为1×N阶向量,向量中的分类元素值用于表征音频帧所对应的是人声帧或非人声帧的标识,N的数值与所述当前音频样本片段中的音频帧数量相同;损失值确定模块,用于基于所述预测结果、所述当前音频样本片段的真实结果以及所述损失函数,确定损失值;分类器确定模块,用于将所述损失值对所述待训练分类器中的模型参数进行修正,得到所述目标分类器。

在上述各技术方案的基础上,所述目标分类器中的损失函数为:

其中,

在上述各技术方案的基础上,所述分类结果确定模块,包括:

目标向量确定单元,用于将所述当前音频片段中所有音频帧的特征向量输入至所述目标分类器中,以确定所述音频帧的目标特征向量;基于Softmax函数对所述目标特征向量进行处理,确定每个音频帧的结果标识;基于所述当前音频片段中每个音频帧的结果标识,确定所述分类结果的目标向量。

在上述各技术方案的基础上,所述信息集合确定模块,还用于:依据预设滑窗的窗长和滑动步长对所述分类结果进行处理,确定所述位置信息集合中的时序。

在上述各技术方案的基础上,所述信息集合确定模块,还用于:依据所述预设滑窗的窗长,确定所述分类结果中为人声帧的帧数;若所述帧数大于预设帧数阈值,则确定所述预设滑窗内的起始帧和结束帧,并标记所述起始帧和所述结束帧的序列号,得到所述时序;依据所述滑动步长移动所述预设滑窗,确定下一滑窗内的时序;直至所述滑窗全覆盖所述分类结果中的所有分类结果。

在上述各技术方案的基础上,所述内容确定模块,还用于对于各所述位置信息集合,将所述当前位置信息集合中的每个时序所对应的至少一个音频帧输入至文本分类模型中,得到每个所述时序的二级标签;其中,所述二级标签与所述文本分类模型在训练阶段所对应的预测分类结果相对应。

在上述各技术方案的基础上,所述二级标签包括第一标签和第二标签,所述第一标签对应于流程标签,所述第二标签对应于业务标签。

本发明实施例所提供的技术方案,首先基于音频帧特性进行物理分片,通过音频数据分帧、特征提取音频信号的特征的统计值,基于LSTM神经网络模型,判断每一音频帧是人声还是非人声的类别,采用损失权重自适应方法,增强人声区域的损失,达到强调人声区域的训练。然后基于音频片段特性进行逻辑分片,根据提取的人声和音频帧和既定的业务关键字进行音频分片,通过对每一段人声区域语音识别进行二级标签分类,将相同二级标签的人声进行标签合并,并根据哈希存储规则建立二级索引。最后对谈话音频进行智能分片,结合会议的既定业务流程,将音频根据流程切分,精简音频内容,实现关键字快速定位音频。

本发明实施例所提供的音频处理装置可执行本发明任意实施例所提供的音频处理方法,具备执行方法相应的功能模块和有益效果。

值得注意的是,上述装置所包括的各个单元和模块只是按照功能逻辑进行划分的,但并不局限于上述的划分,只要能够实现相应的功能即可;另外,各功能单元的具体名称也只是为了便于相互区分,并不用于限制本发明实施例的保护范围。

图4为本发明实施例提供的一种电子设备的结构示意图。图4示出了适于用来实现本发明实施例实施方式的示例性设备40的框图。图4显示的设备40仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。

如图4所示,设备40以通用计算设备的形式表现。设备40的组件可以包括但不限于:一个或者多个处理器或者处理单元401,系统存储器402,连接不同系统组件(包括系统存储器402和处理单元401)的总线403。

总线403表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(ISA)总线,微通道体系结构(MAC)总线,增强型ISA总线、视频电子标准协会(VESA)局域总线以及外围组件互连(PCI)总线。

设备40典型地包括多种计算机系统可读介质。这些介质可以是任何能够被设备40访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。

系统存储器402可以包括易失性存储器形式的计算机系统可读介质,例如随机存取存储器(RAM)404和/或高速缓存存储器405。设备40可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机系统存储介质。仅作为举例,存储系统406可以用于读写不可移动的、非易失性磁介质(图4未显示,通常称为“硬盘驱动器”)。尽管图4中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如CD-ROM,DVD-ROM或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线403相连。存储器402可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明各实施例的功能。

具有一组(至少一个)程序模块407的程序/实用工具408,可以存储在例如存储器402中,这样的程序模块407包括但不限于操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块407通常执行本发明所描述的实施例中的功能和/或方法。

设备40也可以与一个或多个外部设备409(例如键盘、指向设备、显示器410等)通信,还可与一个或者多个使得用户能与该设备40交互的设备通信,和/或与使得该设备40能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口411进行。并且,设备40还可以通过网络适配器412与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器412通过总线403与设备40的其它模块通信。应当明白,尽管图4中未示出,可以结合设备40使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。

处理单元401通过运行存储在系统存储器402中的程序,从而执行各种功能应用以及音频处理,例如实现本发明实施例所提供的音频处理方法。

本发明实施例还提供一种包含计算机可执行指令的存储介质,所述计算机可执行指令在由计算机处理器执行时用于执行音频处理方法。

该方法包括:

响应于确定目标度量指标下的目标评估结果的触发操作,从模型加工区的至少一个加工宽表中调取与所述目标度量指标相对应的待处理数据;其中,所述加工宽表对应于不同领域的原始数据;

将所述待处理数据发送至规则引擎,以基于所述规则引擎调取与所述目标度量指标相对应的目标规则;

基于所述目标规则对所述待处理数据,得到所述目标度量指标下的目标评估结果。

本发明实施例的计算机存储介质,可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。

计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。

计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括——但不限于无线、电线、光缆、RF等等,或者上述的任意合适的组合。

可以以一种或多种程序设计语言或其组合来编写用于执行本发明实施例操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言——诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。

注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。

相关技术
  • 光学用活性能量线聚合性粘接剂及光学用层叠体
  • 树脂组合物、树脂膜、半导体层叠体、半导体层叠体的制造方法及半导体装置的制造方法
  • 树脂组合物、树脂膜、半导体层叠体、半导体层叠体的制造方法及半导体装置的制造方法
  • 层叠体以及使用该层叠体的图像显示装置的前面板、图像显示装置、带图像显示功能的反射镜、电阻膜式触摸面板及静电电容式触摸面板
  • 层叠体及包含层叠体的显示装置
  • 层叠体、带粘接层的层叠体、带基材层的光学层叠体、光学层叠体及其制造方法
  • 粘接剂组合物层、层叠体、光学层叠体及光学装置、以及光学层叠体的制造方法
技术分类

06120116546021