掌桥专利:专业的专利平台
掌桥专利
首页

多语种语音识别方法、装置及电子设备

文献发布时间:2023-06-19 09:27:35


多语种语音识别方法、装置及电子设备

技术领域

本公开涉及语音识别技术领域,尤其涉及一种多语种语音识别方法、装置及电子设备。

背景技术

随着国际间文化的频繁碰撞,用户在日常生活的语音交流中,常常会将多种语种的语言混合在一起。例如:“你看到我的pen了吗?”这一语音将中文与英文混合在了一起。现有技术中,在针对多语种语音进行识别时,先使用语种检测模型对语音所包含的语种类别进行检测,进而再基于检测所确定的语种类别进行语言识别以得到识别结果。由此可见,现有技术中多语种语音识别的准确度受制于语种检测模型的准确度,一旦语种检测模型出现错误,语音的识别结果也会出错。因此现有技术中为保证语音识别结果的准确度,必须训练出高准确度的语种检测模型,而训练出高准确度的语种检测模型对于训练数据以及训练时间的要求均很高,难度较大。

发明内容

本公开提供一种多语种语音识别方法、装置及电子设备,其主要目的在于降低多语种语音识别的难度。

为实现上述目的,本公开提供的一种多语种语音识别方法,包括:

获取待识别的目标语音;

调用预训练的声学模型以及预训练的多语种语言模型对所述目标语音进行解码,获取所述目标语音的识别结果搜索网格;

调用预训练的多个单语种语言模型分别对所述识别结果搜索网格进行重打分,分别筛选出一个对应语种的候选识别结果,并分别确定所述候选识别结果为所述目标语音的目标识别结果的概率;

按照所述概率从大到小的顺序将所述候选识别结果进行排序,并从排名前预设位数的候选识别结果中筛选出所述目标识别结果。

可选地,在调用预训练的声学模型以及预训练的多语种语言模型对所述目标语音进行解码之前,所述方法还包括:

对所述目标语音进行降噪处理,得到降噪处理后的目标语音;

对所述降噪处理后的目标语音进行特征提取,得到用于作为所述声学模型的输入的所述目标语音的语音帧序列。

可选地,通过以下方法预训练所述多语种语言模型,所述方法包括:

获取第一语种对应的第一训练文本以及第二语种对应的第二训练文本;

将所述第一训练文本以及所述第二训练文本共同输入所述多语种语言模型,得到所述多语种语言模型输出的所述第一训练文本的第一识别结果以及所述第二训练文本的第二识别结果;

基于所述第一识别结果以及所述第二识别结果确定所述多语种语言模型的识别误差;

通过反向传播所述识别误差调整所述多语种语言模型的参数,直到所述识别误差小于预设误差阈值。

可选地,调用预训练的声学模型以及预训练的多语种语言模型对所述目标语音进行解码,包括:

调用所述声学模型以所述目标语音的语音帧为输入,针对每一语音帧,输出所述语音帧对应各状态的第一概率以及所述各状态之间相互转移的第二概率;

获取所述多语种语言模型经预训练后得到的用于描述词序统计规律的第三概率;

基于所述第一概率、所述第二概率以及所述第三概率对所述目标语音进行解码,得到所述识别结果搜索网格。

可选地,基于所述第一概率、所述第二概率以及所述第三概率对所述目标语音进行解码,得到所述识别结果搜索网格,包括:

根据所述第一概率、所述第二概率以及所述第三概率建立所述目标语音的状态网络,所述状态网络中的节点用于描述单一状态下的语音帧,所述状态网络中的的边用于描述各个所述单一状态下的语音帧之间的转移概率;

采用维特比算法在所述状态网络中进行搜索,得到所述识别结果搜索网格。

可选地,基于所述概率从所述候选识别结果中筛选出所述目标识别结果,包括:将最大的所述概率对应的候选识别结果确定为所述目标识别结果。

可选地,基于所述概率从所述候选识别结果中筛选出所述目标识别结果,包括:

按照所述概率从大到小的顺序,将所述候选识别结果进行排序;

从排名前预设位数的候选识别结果中随机选取出一候选识别结果作为所述目标识别结果。

为了解决上述问题,本公开还提供一种多语种语音识别装置,所述装置包括:

获取模块,配置为获取待识别的目标语音;

解码模块,配置为调用预训练的声学模型以及预训练的多语种语言模型对所述目标语音进行解码,获取所述目标语音的识别结果搜索网格;

重打分模块,配置为调用预训练的多个单语种语言模型分别对所述识别结果搜索网格进行重打分,分别筛选出一个对应语种的候选识别结果,并分别确定所述候选识别结果为所述目标语音的目标识别结果的概率;

筛选模块,配置为按照所述概率从大到小的顺序将所述候选识别结果进行排序,并从排名前预设位数的候选识别结果中筛选出所述目标识别结果。

为了解决上述问题,本公开还提供一种电子设备,所述电子设备包括:

存储器,存储至少一个指令;及

处理器,执行所述存储器中存储的指令以实现上述所述的多语种语音识别方法。

为了解决上述问题,本公开还提供一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一个指令,所述至少一个指令被电子设备中的处理器执行以实现上述所述的多语种语音识别方法。

本公开实施例通过声学模型以及多语种语言模型对目标语音进行解码,得到包含各种可能语种组合对应的识别结果的识别结果搜索网格。再根据单语种语言模型对该识别结果搜索网格进行重打分,筛选出各语种下最可能的识别结果,即候选识别结果,最终再从得到的多个候选识别结果中筛选出目标识别结果。本公开实施例所提供的方法,规避掉了在进行多语种语音识别时对语种类别进行检测的这一步骤,从而避免了因训练语种检测模型所带来的困难,降低了多语种语音识别的难度,可应用于智慧政务领域、智慧医疗领域或者其他有着语音识别需求的领域中,从而推动智慧城市的建设。同样的,本方案可以应用于数字医疗中在线问诊环节中。

附图说明

图1为本公开一实施例提供的多语种语音识别方法的流程示意图。

图2为本公开一实施例提供的多语种语音识别装置的模块示意图。

图3为本公开一实施例提供的实现多语种语音识别方法的电子设备的内部结构示意图。

本公开目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。

具体实施方式

应当理解,此处所描述的具体实施例仅仅用以解释本公开,并不用于限定本公开。

本公开提供一种多语种语音识别方法。参照图1所示,为本公开一实施例提供的多语种语音识别方法的流程示意图。该方法可以由一个装置执行,该装置可以由软件和/或硬件实现。

在本实施例中,多语种语音识别方法包括:

步骤S1、获取待识别的目标语音;

步骤S2、调用预训练的声学模型以及预训练的多语种语言模型对所述目标语音进行解码,获取所述目标语音的识别结果搜索网格;

步骤S3、调用预训练的多个单语种语言模型分别对所述识别结果搜索网格进行重打分,分别筛选出一个对应语种的候选识别结果,并分别确定所述候选识别结果为所述目标语音的目标识别结果的概率;

步骤S4、按照所述概率从大到小的顺序将所述候选识别结果进行排序,并从排名前预设位数的候选识别结果中筛选出所述目标识别结果。

本公开实施例所提供的多语种语音识别方法可以应用于各种存在语音识别需求的应用场景中,例如:智能客服、智能机器人问诊。

在一实施例中,将本公开实施例所提供的多语种语音识别方法应用于智能客服中。智能客服系统预先在云端服务器中训练并配置好一个声学模型、一个多语种语言模型、一个中文语言模型、一个英文语言模型以及一个日文语言模型。该多语种语言模型是采用混合了中文、英文以及日文的训练文本训练得到的语言模型;该中文语言模型是只采用中文训练文本训练得到的语言模型;该英文语言模型是只采用英文训练文本训练得到的语言模型;该日文语言模型是只采用日文训练文本训练得到的语言模型。

用户通过客户端(例如:手机、个人电脑)与该智能客服系统建立通话的过程中,该智能客服系统将通过该客户端采集到的用户语音上传至云端服务器,并调用该声学模型以及该多语种语言模型对用户语音进行解码,得到识别结果搜索网格。调用该中文语言模型对该识别结果搜索网格进行重打分,根据重打分所进行的搜索筛选出中文下的候选识别结果R1,同时确定候选识别结果R1为用户的真实语义的概率P1;并列地,调用该英文语言模型对该识别结果搜索网格进行重打分,筛选出英文下的候选识别结果R2,同时确定候选识别结果R2为用户的真实语义的概率P2;并列地,调用该日文语言模型对该识别结果搜索网格进行重打分,筛选出日文下的候选识别结果R3,同时确定候选识别结果R3为用户的真实语义的概率P3。

进而该智能客服系统按照概率P1、概率P2以及概率P3从大到小的顺序,将上述三个候选识别结果进行排序,从排名前两位的候选识别结果中筛选出目标识别结果,确定用户的真实语义。

若该智能客服系统确定候选识别结果R2为用户的真实语义,则该智能客服系统可以进一步的根据预设的自然语言处理模型确定对该候选识别结果R2所应作出的应答,并将该应答从文本转换为语音,进而以语音的形式反馈给用户。从而即使用户在通话过程中将英文或者日文混入中文,该智能客服系统也能够准确地理解用户的真实语义,进而准确地作出应答。

本公开实施例中,获取待识别的目标语音。具体的,可以通过麦克风采集用户的聊天语音,进而将该聊天语音作为待识别的目标语音,通过本公开实施例中后续处理确定该聊天语音的语义,即得到该目标语音的目标识别结果。进一步的,可以在得到的目标识别结果的基础上,将该聊天语音翻译为特定语种的语音,或者将该聊天语音转换为文本。

其中,所获取到的目标语音可以包含多个语种。例如:目标语音包含中文以及英文;或者,包含中文以及日文;或者,包含中文、英文以及日文。

本公开实施例中,预训练有至少一个的声学模型,预训练有至少一个的多语种语言模型。获取到目标语音后,调用该声学模型以及该多语种语言模型对目标语音进行解码,得到目标语音的识别结果搜索网格。该识别结果搜索网格可以看作用于搜索出正确的目标识别结果的搜索空间,是一种紧凑的包含多个可选路径的数据结构。具体的,调用该声学模型以及该多语种语言模型对目标语音进行解码,是在目标语音的状态网络中进行搜索,并对搜索出的各条路径进行打分,进而根据打出的分数对状态网络进行修剪筛选,从而得到更为紧凑的其中所包含路径更接近目标识别结果的识别结果搜索网格。

其中,声学模型指的是对原始的音频数据进行处理,提取出音频数据中的音素信息的模型。具体的,本公开实施例中可以使用混合高斯模型以及隐马尔科夫模型(GMM-HMM)作为声学模型;也可以使用深度神经网络(Deep Neural Network,DNN)作为声学模型。

多语种语言模型指的是训练时所使用的训练文本包含多个不同的语种所得到的语言模型。由于训练该多语种语音模型时,主要限于训练文本所包含的有限个数的语种以及训练文本所包含的有限个数的具体语句,因此将该多语种语音模型投入实际的语音识别时,其所解码得到的识别结果搜索网格的困惑度较高。

在一实施例中,在调用预训练的声学模型以及预训练的多语种语言模型对目标语音进行解码之前,方法还包括:

对目标语音进行降噪处理,得到降噪处理后的目标语音;

对降噪处理后的目标语音进行特征提取,得到用于作为声学模型的输入的目标语音的语音帧序列。

该实施例中,获取到目标语音后,在对目标语音进行解码之前,对目标语音进行降噪处理以增强目标语音。再对降噪处理后的目标语音进行特征提取,将降噪处理后的目标语音从时域信号转换为频域信号,得到用于作为声学模型的输入的目标语音的语音帧序列(例如:以帧划分的目标语音的FBANK特征)。

可以理解的,在对目标语音进行解码之前,除了对目标语音进行降噪处理外,还可以对目标语音进行失真消除处理或者其他语音预处理,以进一步从整体提高多语种语音识别的准确度。

在一实施例中,通过以下方法预训练多语种语言模型,方法包括:

获取第一语种对应的第一训练文本以及第二语种对应的第二训练文本;

将第一训练文本以及第二训练文本共同输入多语种语言模型,得到多语种语言模型输出的第一训练文本的第一识别结果以及第二训练文本的第二识别结果;

基于第一识别结果以及第二识别结果确定多语种语言模型的识别误差;

通过反向传播识别误差调整多语种语言模型的参数,直到识别误差小于预设误差阈值。

该实施例中,采用包含两个语种的训练文本预训练多语种语言模型。

具体的,第一训练文本为第一语种,第二训练文本为第二语种,第一语种与第二语种为不同语种。在保证每个句子的语义完整的前提下,将第一训练文本与第二训练文本混合在一起,并输入该多语种语言模型;进而该多语种语言模型以当前参数对输入的文本进行处理,输出第一训练文本的第一识别结果以及第二训练文本的第二识别结果。此时,该多语种语言模型所输出的第一识别结果可能是存在错误的,所输出的第二识别结果也可能是存在错误的。

由于第一训练文本的正确识别结果是事先确定的,第二训练文本的正确识别结果也是事先确定的,因此,可以基于该多语种语言模型所输出的第一识别结果以及第二识别结果确定该多语种语言模型的识别误差。进而采用反向传播算法,按照从后往前的顺序,依次调整该多语种语言模型的参数。再次将第一训练文本与第二训练文本混合在一起并输入该多语种语言模型,不断循环,直到该多语种语言模型的识别误差小于预设误差阈值。

例如:预设误差阈值为5%。预先采集一定量的中文训练文本以及一定量的英文训练文本,以句子为单位,将该中文训练文本中的各句子随机插入到该英文训练文本中,从而得到混合了中文与英文的混合训练文本。

将该混合训练文本输入一待训练的语言模型A,得到语言模型A输出的中文部分的第一识别结果以及英文部分的第二识别结果,进而在此基础上确定语言模型A的识别误差。进而通过反向传播该识别误差调整语言模型A的参数。

再将该混合训练文本输入调整了参数后的语言模型A,不断循环,直到语言模型A的识别误差小于5%,得到预训练完成的能够以一定准确度识别中英文混合文本的多语种语言模型A。

需要说明的是,该实施例只是示例性地展示了预训练多语种语言模型的过程。可以理解的,根据场景应用需求,在预训练多语种语言模型时,可以将三个或者三个以上的语种的训练文本混合在一起。该实施例不应对本公开的功能和使用范围造成限制。

在一实施例中,调用预训练的声学模型以及预训练的多语种语言模型对目标语音进行解码,包括:

调用声学模型以目标语音的语音帧为输入,针对每一语音帧,输出语音帧对应各状态的第一概率以及各状态之间相互转移的第二概率;

获取多语种语言模型经预训练后得到的用于描述词序统计规律的第三概率;

基于第一概率、第二概率以及第三概率对目标语音进行解码,得到识别结果搜索网格。

该实施例中,解码主要指的是在由声学模型、声学上下文和语言模型等知识源组成的搜索空间中,通过搜索得到各路径所对应的概率,进而可以根据概率挑选出最佳路径或者排名前N的路径。其中,每条路径对应着一个识别结果;N为预设的正整数。

具体的,声学模型将声学和发音学的知识进行整合,以目标语音的语音帧序列为输入,针对该语音帧序列中的每一语音帧,均输出该语音帧对应各状态的第一概率以及该语音帧的各状态之间相互转移的第二概率。即,第一概率描述的是帧与状态之间的概率;第二概率描述的是状态与状态之间的概率。其中,状态指的是在语音处理中,比音素粒度更小的语音单元,一个音素对应多个状态。语音识别的本质便是在确定每一语音帧对应的状态的基础上再确定音素再确定词序,所确定的词序即识别结果。

多语种语言模型在经过预训练后,便具有与预训练过程相匹配的有关词序统计规律的先验知识。从而多语种语言模型以该先验知识输出用于描述词序统计规律的第三概率。

进而基于该第一概率、该第二概率以及该第三概率对目标语音进行解码,得到识别结果搜索网格。

在一实施例中,基于第一概率、第二概率以及第三概率对目标语音进行解码,得到识别结果搜索网格,包括:

根据第一概率、第二概率以及第三概率建立目标语音的状态网络,状态网络中的节点用于描述单一状态下的语音帧,状态网络中的边用于描述各个单一状态下的语音帧;

采用维特比算法在状态网络中进行搜索,得到识别结果搜索网格。

该实施例中,建立得到的目标语音的状态网络为图结构数据。具体的,根据第一概率将语音帧在各状态下进行展开,得到在状态网络中的对应节点。例如:语音帧t为第一状态s1的第一概率为a1,为第二状态s2的第一概率为a2,为第三状态s3的第二概率为a3。则将语音帧t在各状态下展开后,得到在状态网络中的3个节点,分别为语音帧t-s1、语音帧t-s2以及语音帧t-s3。

再根据状态之间相互转移的第二概率以及用于描述词序统计规律的第三规律建立各节点之间带有具体权重的边,从而得到状态网络。

再采用维特比算法在该状态网络中进行搜索,对搜索到的路径进行评分。根据该评分在确定最佳路径的同时,也可以确定次优的路径。进而将排名前N位的路径选出,并以DAG(directed acyclic graph,有向无环图)的结构将选出的这N条路径保存起来,得到图结构数据的识别结果搜索网格。具体的,选出这N条路径后,挑选出该N条路径所包括的所有节点,还原每一节点原本在状态网络中的位置,并同样地根据第一概率、第二概率以及第三概率重新建立所挑选还原出的各节点之间带有具体权重的边,从而得到识别结果搜索网格。

其中,采用维特比算法在进行搜索时,主要遵循以下三点规则:1、如果概率最大的路径经过状态网络的某点,则从开始点到该点的子路径也一定是从开始到该点路径中概率最大的;2、假设第i时刻有k个状态,从开始到i时刻的k个状态有k条最短路径,而最终的最短路径必然经过其中的一条;3、根据上述两点,在计算第i+1状态的最短路径时,只需考虑从开始到当前的k个状态值的最短路径和当前状态值到第i+1状态值的最短路径。

本公开实施例中,预训练有多个单语种语言模型,每个单语种语言模型只针对对应语种进行语音识别。获取到识别结果搜索网格后,调用该多个单语种语言模型分别对该识别结果搜索网格进行重打分。经过上述说明可知,对目标语音进行解码是在多语种语言模型的先验知识的基础上,在目标语音的状态网络中搜索得到该识别结果搜索网格;则,单语种语言模型的重打分可以看作在单语种语言模型的先验知识的基础上,在该识别结果搜索网络再次进行搜索得到对应的候选识别结果。重打分的实施过程与解码的实施过程大致相似,主要区别在于,多语种语言模型的先验知识所描述的是多个语种混合在一起的语言环境下的词序统计规律,单语种语言模型的先验知识所描述的是特定单一语种的语言环境下的词序统计规律。

每个单语种语言模型在重打分后均会筛选出一个对应语种下最可能的识别结果,即,对应语种的候选识别结果。同时,在对应语种下候选识别结果为目标识别结果的概率也得到了确定。

例如:预训练有3个单语种语言模型,分别为专门针对中文进行语音识别的语言模型B、专门针对英文进行语音识别的语言模型C以及专门针对日文进行语音识别的语言模型D。得到识别结果搜索网格后,调用语言模型B对其进行重打分,筛选出中文下的最高概率为P1的候选识别结果R1;调用语言模型C对其进行重打分,筛选出英文下的最高概率为P2的候选识别结果R2;调用语言模型D对其进行重打分,筛选出日文下的最高概率为P3的候选识别结果R3。

在一实施例中,单语种语言模型为基于统计的ngram语言模型。

该实施例的优点在于,采用基于统计的ngram语言模型作为单语种语言模型,避免了采用神经网络作为单语种语言模型对机器的限制,提高了处理速度,从而提高了线上实时的多语种语音识别的识别效率。

本公开实施例中,得到多个候选识别结果以及对应的为目标识别结果的概率后,按照对应概率从大到小的顺序将得到的多个候选识别结果进行排序,进而从排名前预设位数的候选识别结果中筛选出目标识别结果。其中,排名前预设位数一般不包括排名最后一位。

在一实施例中,从排名前预设位数的候选识别结果中筛选出目标识别结果,包括:将排名第一位的候选识别结果确定为目标识别结果。

该实施例中,按照概率从大到小的顺序将得到的多个候选识别结果排序后,从排名前M位中的第一位的候选识别结果确定为目标识别结果,即,将最大的概率对应的候选识别结果确定为目标识别结果。其中,M为预设的大于1的正整数。

例如:预设的M为2。得到的多个候选识别结果有概率为P1的候选识别结果R1、概率为P2的候选识别结果R2以及概率为P3的候选识别结果R3。其中,P1小于P2,P1大于P3,则排在前2位的依次为候选识别结果R2、候选识别结果R1。则将候选识别结果R2确定为目标识别结果。

在一实施例中,从排名前预设位数的候选识别结果中筛选出目标识别结果,包括:从排名前预设位数的候选识别结果中随机选取出一候选识别结果作为目标识别结果。

该实施例中,按照概率从大到小的顺序将得到的多个候选识别结果排序后,从排名前M位中随机选取一候选识别结果作为目标识别结果。其中,M为预设的大于1的正整数。

例如:预设的M为3。得到的多个候选识别结果有概率为P1的候选识别结果R1、概率为P2的候选识别结果R2、概率为P3的候选识别结果R3以及概率为P4的候选识别结果R4。其中,P1大于P2,P2大于P3,P3大于P4,则排在前3位的依次为候选识别结果R1、候选识别结果R2以及候选识别结果R3。则随机从候选识别结果R1、候选识别结果R2以及候选识别结果R3中随机选取一个作为目标识别结果。

该实施例的优点在于,通过在控制范围内引入一定程度的随机性,避免了在多语种语音识别尚未足够完善、尚未足够覆盖各类应用场景的情况下持续出现同类偏差的发生。

如图2所示,是本公开多语种语音识别装置的功能模块图。

本公开的多语种语音识别装置100可以安装于电子设备中。根据实现的功能,多语种语音识别装置可以包括获取模块101、解码模块102、重打分模块103、筛选模块104。本公开的模块也可以称之为单元,是指一种能够被电子设备处理器所执行,并且能够完成固定功能的一系列计算机程序段,其存储在电子设备的存储器中。

在本实施例中,关于各模块/单元的功能如下:

获取模块101配置为获取待识别的目标语音;

解码模块102配置为调用预训练的声学模型以及预训练的多语种语言模型对所述目标语音进行解码,获取所述目标语音的识别结果搜索网格;

重打分模块103配置为调用预训练的多个单语种语言模型分别对所述识别结果搜索网格进行重打分,分别筛选出一个对应语种的候选识别结果,并分别确定所述候选识别结果为所述目标语音的目标识别结果的概率;

筛选模块104配置为按照所述概率从大到小的顺序将所述候选识别结果进行排序,并从排名前预设位数的候选识别结果中筛选出所述目标识别结果。具体地,所述多语种语音识别装置100的功能模板具体所实现的功能可参考图1对应实施例中相关步骤的描述,在此不赘述。

如图3所示,是本公开实现多语种语音识别方法的电子设备的结构示意图。

所述电子设备1可以包括处理器10、存储器11和总线,还可以包括存储在所述存储器11中并可在所述处理器10上运行的计算机程序,如多语种语音识别程序12。

其中,所述存储器11至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、移动硬盘、多媒体卡、卡型存储器(例如:SD或DX存储器等)、磁性存储器、磁盘、光盘等。所述存储器11在一些实施例中可以是电子设备1的内部存储单元,例如该电子设备1的移动硬盘。所述存储器11在另一些实施例中也可以是电子设备1的外部存储设备,例如电子设备1上配备的插接式移动硬盘、智能存储卡(Smart Media Card,SMC)、安全数字(SecureDigital,SD)卡、闪存卡(Flash Card)等。进一步地,所述存储器11还可以既包括电子设备1的内部存储单元也包括外部存储设备。所述存储器11不仅可以用于存储安装于电子设备1的应用软件及各类数据,例如多语种语音识别程序的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。

所述处理器10在一些实施例中可以由集成电路组成,例如可以由单个封装的集成电路所组成,也可以是由多个相同功能或不同功能封装的集成电路所组成,包括一个或者多个中央处理器(Central Processing unit,CPU)、微处理器、数字处理芯片、图形处理器及各种控制芯片的组合等。所述处理器10是所述电子设备的控制核心(Control Unit),利用各种接口和线路连接整个电子设备的各个部件,通过运行或执行存储在所述存储器11内的程序或者模块(例如多语种语音识别程序等),以及调用存储在所述存储器11内的数据,以执行电子设备1的各种功能和处理数据。

所述总线可以是外设部件互连标准(peripheral component interconnect,简称PCI)总线或扩展工业标准结构(extended industry standard architecture,简称EISA)总线等。该总线可以分为地址总线、数据总线、控制总线等。所述总线被设置为实现所述存储器11以及至少一个处理器10等之间的连接通信。

图3仅示出了具有部件的电子设备,本领域技术人员可以理解的是,图2示出的结构并不构成对所述电子设备1的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。

例如,尽管未示出,所述电子设备1还可以包括给各个部件供电的电源(比如电池),优选地,电源可以通过电源管理装置与所述至少一个处理器10逻辑相连,从而通过电源管理装置实现充电管理、放电管理、以及功耗管理等功能。电源还可以包括一个或一个以上的直流或交流电源、再充电装置、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。所述电子设备1还可以包括多种传感器、蓝牙模块、Wi-Fi模块等,在此不再赘述。

进一步地,所述电子设备1还可以包括网络接口,可选地,所述网络接口可以包括有线接口和/或无线接口(如WI-FI接口、蓝牙接口等),通常用于在该电子设备1与其他电子设备之间建立通信连接。

可选地,该电子设备1还可以包括用户接口,用户接口可以是显示器(Display)、输入单元(比如键盘(Keyboard)),可选地,用户接口还可以是标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在电子设备1中处理的信息以及用于显示可视化的用户界面。

应该了解,所述实施例仅为说明之用,在专利申请范围上并不受此结构的限制。

所述电子设备1中的所述存储器11存储的多语种语音识别程序12是多个指令的组合,在所述处理器10中运行时,可以实现:

获取待识别的目标语音;

调用预训练的声学模型以及预训练的多语种语言模型对所述目标语音进行解码,获取所述目标语音的识别结果搜索网格;

调用预训练的多个单语种语言模型分别对所述识别结果搜索网格进行重打分,分别筛选出一个对应语种的候选识别结果,并分别确定所述候选识别结果为所述目标语音的目标识别结果的概率;

按照所述概率从大到小的顺序将所述候选识别结果进行排序,并从排名前预设位数的候选识别结果中筛选出所述目标识别结果。

具体地,所述处理器10对上述指令的具体实现方法可参考图1对应实施例中相关步骤的描述,在此不赘述。

进一步地,所述电子设备1集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)。

在本公开所提供的几个实施例中,应该理解到,所揭露的设备,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。

所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。

另外,在本公开各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。

对于本领域技术人员而言,显然本公开不限于上述示范性实施例的细节,而且在不背离本公开的精神或基本特征的情况下,能够以其他的具体形式实现本公开。

因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本公开的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本公开内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。

此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。系统权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第二等词语用来表示名称,而并不表示任何特定的顺序。

最后应说明的是,以上实施例仅用以说明本公开的技术方案而非限制,尽管参照较佳实施例对本公开进行了详细说明,本领域的普通技术人员应当理解,可以对本公开的技术方案进行修改或等同替换,而不脱离本公开技术方案的精神和范围。

相关技术
  • 多语种语音识别方法、装置及电子设备
  • 多语种混说语音的语种识别方法及装置
技术分类

06120112175273