掌桥专利:专业的专利平台
掌桥专利
首页

对话文本的分类方法和电子设备

文献发布时间:2023-06-19 11:35:49


对话文本的分类方法和电子设备

技术领域

本文件涉及人工智能技术领域,尤其涉及一种对话文本的分类方法和电子设备。

背景技术

服务提供方通过客服渠道能够快速获取用户的意见和建议。客服渠道对于服务提供方实时了解所提供的服务质量,并有针对性的提升部分服务具有重大的意义。

服务提供方通过客服渠道可以获取到客服人员与用户之间的对话文本,通过对对话文本进行分类,可以快速确定出对话文本的关键信息,如问题类型,问题场景等等,能够极大的提升服务提供方的服务质量。

然而,相关技术中通常是依靠客服人员人工来对大量的对话文本进行分类,存在工作量大、效率低的问题。因此,有必要提供一种高效的对话文本的分类方法。

发明内容

本说明书实施例提供一种对话文本的分类方法和电子设备,用于提高对话文本的分类效率。

本说明书实施例采用下述技术方案:

第一方面,提供了一种对话文本的分类方法,包括:

获取对话文本;

通过多层次自注意力机制的编码器对所述对话文本进行编码,得到所述对话文本的文档向量;

计算所述文档向量分别与多个原型网络的向量距离;其中,所述多个原型网络对应多个类别,所述多个原型网络是基于类别已经确定的样本对话文本训练得到;

基于计算得到的向量距离以及所述多个原型网络的类别,确定所述对话文本的类别。

第二方面,提供了一种提供了一种对话文本的分类方法,包括:

获取类别已经确定的样本对话文本;

基于所述样本对话文本及所述类别进行模型训练以得到原型网络;

其中,所述原型网络用于基于目标文档向量与所述原型网络的向量距离,预测目标对话文本的类别;所述目标文档向量是通过多层次自注意力机制的编码器对所述目标样本对话文本进行编码得到的。

第三方面,提供了一种电子设备,包括:

文本获取模块,用于获取对话文本;

向量得到模块,用于通过多层次自注意力机制的编码器对所述对话文本进行编码,得到所述对话文本的文档向量;

距离计算模块,用于计算所述文档向量分别与多个原型网络的向量距离;其中,所述多个原型网络对应多个类别,所述多个原型网络是基于类别已经确定的样本对话文本训练得到;

类别确定模块,用于基于计算得到的向量距离以及所述多个原型网络的类别,确定所述对话文本的类别。

第四方面,提供了一种电子设备,包括:

文本获取模块,用于获取类别已经确定的样本对话文本;

模型训练模块,用于基于所述样本对话文本及所述类别进行模型训练以得到原型网络;

其中,所述原型网络用于基于目标文档向量与所述原型网络的向量距离,预测目标对话文本的类别;所述目标文档向量是通过多层次自注意力机制的编码器对所述目标样本对话文本进行编码得到的。

第五方面,提供了一种电子设备,包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如第一方面和第二方面所述的方法。

第六方面,提供了一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如第一方面和第二方面所述的方法。

本说明书提供的一个或多个实施例,通过多层次自注意力机制的编码器对对话文本进行编码,得到对话文本的文档向量,计算文档向量分别与多个原型网络的向量距离,最后基于计算得到的向量距离以及多个原型网络的类别确定对话文本的类别,实现了对话文本的自动分类,可以大大提高对话文本的分类效率。同时,本说明书实施例通过多层次自注意力机制的编码器对对话文本进行编码,得到对话文本的文档向量,这样可以更好的学习到对话文本中句子与句子之间的语义特征,忽略对话文本中的噪声,提高最终的分类的准确率。

附图说明

此处所说明的附图用来提供对本文件的进一步理解,构成本文件的一部分,本文件的示意性实施例及其说明用于解释本文件,并不构成对本文件的不当限定。在附图中:

图1为本说明书的一个实施例提供的对话文本的分类方法流程示意图;

图2为本说明书的一个实施例提供的对话文本的分类方法流程示意图;

图3为本说明书的一个实施例提供的对话文本的分类方法流程示意图;

图4为本说明书的一个实施例提供的电子设备结构示意图;

图5为本说明书的另一个实施例提供的电子设备结构示意图;

图6为实现本说明书各个实施例的电子设备硬件结构示意图。

具体实施方式

为使本文件的目的、技术方案和优点更加清楚,下面将结合本说明书具体实施例及相应的附图对本文件技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本文件一部分实施例,而不是全部的实施例。基于本说明书中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本本文件保护的范围。

如图1所示,本说明书的一个实施例提供一种对话文本的分类方法100,包括如下步骤:

S102:获取对话文本。

本说明书各个实施例中提到的对话文本可以是基于服务提供方的客服人员与用户之间的通话/聊天记录得到。

在一个例子中,对话文本是基于客服人员与用户之间的语音通话记录得到放任,该步骤则可以将上述语音通话记录进行语音识别,以得到对话文本。

在另一个例子中,对话文本是客服人员与用户之间的文本聊天记录,该实施例可以直接从数据库中获取得到上述文本聊天记录。

S104:通过多层次自注意力机制的编码器对对话文本进行编码,得到对话文本的文档向量。

通常,获取到的对话文本中会充斥着大量的噪声,比如问候语等一些没有意义的语句,这些噪声比一般的文本要多出许多,会严重干扰关键信息的提取;同时,由于对话文本是以对话的形式体现的,因此,很多关键信息可能是通过多轮对话才能体现出来的,即表现为关键信息的分布比较稀释,关键信息与关键信息之间的距离较远的情况(大多数情况下是跨句子的)。

考虑到对话文本的上述特殊性,本说明书实施例采用多层次自注意力机制的编码器对对话文本进行编码,可以更好的学习到对话文本中句子与句子之间的语义特征,忽略对话文本中的噪声,为后续步骤作备,以提高最终得到的分类的精度。

在一个例子中,该步骤提到的通过多层次自注意力机制的编码器对对话文本进行编码,得到对话文本的文档向量具体可以是基于对对话文本中的字符得到字符的向量表示,并将字符的向量表示依次经过如下步骤的处理,得到对话文本的文档向量:字符编码;字符级注意力层编码;句子编码;句子级注意力层编码。

在一个具体的例子中,本说明书实施例通过层次注意力网络(HAN)对对话文本中字符的向量表示进行编码,得到对话文本的文档向量。HAN具有层次结构(单词构成句子,句子形成文档),反映了文档的层次结构,通过HAN首先构建句子的表示然后将它们聚合成文档表示来构造文档表示;同时,在单词和句子级别应用了两个级别的注意机制,使其能够在构建文档表示时区别地参与越来越重要的内容。

S106:计算文档向量分别与多个原型网络的向量距离。

其中,上述多个原型网络对应多个类别。

可选地,该实施例执行之前可以预先确定出大量的对话文本可能归属的多个类别(或称为是全类别),上述类别例如,4G网络问题、2G通话质量问题、流量使用问题等等。

在一个例子中,上述多个原型网络对应多个类别等于上述全类别,且每个原型网络对应的类别不同。

上述多个原型网络是基于类别已经确定的样本对话文本进行训练得到,原型网络的训练过程在后续实施例再进行详细介绍。

该步骤在计算文档向量分别与多个原型网络的向量距离时,可以计算文档向量分别到多个原型网络的欧氏距离;或文档向量分别到多个原型网络的余弦距离等。

S108:基于计算得到的向量距离以及多个原型网络的类别,确定对话文本的类别。

可选地,在一个实施例中,该步骤具体可以是确定计算得到的向量距离中的最小向量距离;将最小向量距离对应的原型网络的类别,作为对话文本的类别。

当然,本说明书实施例也不局限于上述实施方式,例如,该步骤还可以对计算得到的多个向量距离进行排序,按照向量距离从小到的顺序,将前多个向量距离对应的原型网络的类别,作为对话文本的类别,这样,一个对话文本可以对应有多个类别,后续还可以通过其他方式,如人工校验的方式确定对话文本的最终类别,以提高分类的精度。

本说明书实施例提供的对话文本的分类方法,通过多层次自注意力机制的编码器对对话文本进行编码,得到对话文本的文档向量,计算文档向量分别与多个原型网络的向量距离,最后基于计算得到的向量距离以及多个原型网络的类别确定对话文本的类别,实现了对话文本的自动分类,可以大大提高对话文本的分类效率。

同时,本说明书实施例通过多层次自注意力机制的编码器对对话文本进行编码,得到对话文本的文档向量,这样可以更好的学习到对话文本中句子与句子之间的语义特征,忽略对话文本中的噪声,提高最终的分类的准确率。

最后,本说明书实施例考虑到对话文本可能存在严重的数据分布偏斜问题,例如,一些类别的对话文本的数量较少,而另一些类别的对话文本的数量则会特别多。本说明书实施例通过多个类别已经确定的原型网络的确定对话文本的类别,这多个原型网络在训练时可以控制各个原型网络的训练集的数量,使得各个原型网络的训练集的数量大致接近,可以提高在小样本类别上分类的准确率。

可选地,在实施例100的S104中提到的通过多层次自注意力机制的编码器对所述对话文本进行编码,得到所述对话文本的文档向量包括:确定所述对话文本中的字符的向量表示;通过多层次自注意力机制的编码器对所述字符的向量表示进行编码,得到所述对话文本的句子向量;通过所述多层次自注意力机制的编码器对所述句子向量进行编码,得到所述对话文本的文档向量。

可选地,上述提到的确定所述对话文本中的字符的向量表示;通过多层次自注意力机制的编码器对所述字符的向量表示进行编码,得到所述对话文本的句子向量包括:对所述对话文本进行字符拆分,得到所述对话文本中的字符;基于预设的嵌入矩阵以及双向门控循环单元GRU神经网络,得到所述字符的第一向量表示;将所述字符的第一向量表示输入到字符集的编码器的编码层,得到所述字符的第二向量表示;将所述字符的第二向量表示输入到字符集的编码器的自注意力层,得到所述对话文本的句子向量。

该实施例中的第一向量表示可以是比较稀疏的矩阵,通过将第一向量表示输入到字符集的编码器的编码层,得到字符的第二向量表示,得到关键信息比较密集的矩阵,减少后续计算的复杂度。

可选地,在实施例100的S106之前,所述方法包括:获取样本对话文本;其中,所述样本对话文本包括有标签,所述标签反映所述样本对话文本的类别;基于所述样本对话文本及其标签进行模型训练,以得到所述多个原型网络。

以上结合图1详细描述了根据本发明实施例的对话文本的分类方法。下面将结合图2详细描述根据本发明另一实施例的对话文本的分类方法,为避免重复,适当省略相关描述。

上述实施例100主要介绍了通过多个原型网络对对话文本进行分类的方法,以下将结合一个实施例对原型网络的训练过程进行介绍,如图2所示,本说明书实施例还提供一种对话文本的分类方法200,包括如下步骤:

S202:获取类别已经确定的样本对话文本。

S204:基于样本对话文本及类别进行模型训练以得到原型网络。

其中,上述原型网络用于基于目标文档向量与所述原型网络的向量距离,预测目标对话文本的类别;所述目标文档向量是通过多层次自注意力机制的编码器对所述目标样本对话文本进行编码得到的。

实施例200介绍的是一种类别的原型网络的训练过程,实际上,可以重复上述步骤,通过多种不同类别的样本对话文本,以分别训练出多个不同类别的原型网络。

本说明书实施例提供的对话文本的分类方法可以达到与实施例100相同或等同的技术效果,为避免重复,在此不再重复描述。

为详细说明本说明书上述各个实施例提供的对话文本的分类方法,以下将结合一个具体的实施例进行介绍,如图3所示,该实施例包括如下步骤:

S302:获取对话文本。

该步骤可以参见实施例100的S102。

S304:字符向量化处理。

该步骤可以采用glove算法对于对话文本进行拆分,以形成顺序排列的字符数据集;并输出每个字符的向量化表示。

然后,针对上述字符集中的字符w

x

其中,w

S306:字符编码。

通过S304可以得到每个字符的向量表示,该步骤则可以将上述向量化表示输入到字符集的自编码器的编码层,以进一步得到字符的向量表示。

这里的编码层可以采用双向的长短期记忆网络(LSTM)神经网络,目标函数公式如下:

其中,N是对话文文本中字符的总个数,k是字符的编号,即用于标识是第几个字符;p是概率值;θ

该目标函数相当于最大化已知前k-1个字符预测后第k个字符的概率和已知后N-k个字符预测第k个字符的概率之和,优化策略可以采用梯度下降法。

S308:构建句子向量。

将S306得到的字符的向量表示h

1)由h

u

其中,u

2)测量u

其中,u

3)将句子向量表示为基于权重的字符注释的加权和:

其中,S

S310:构建文档向量。

该步骤可以采用应用和S306和S308类似的算法对得到的句子向量进行处理,以得到文档的向量表示。

具体地,给定句子向量S

然后使用注意力机制并引入句子级别的上下文向量u

1)由h

u

其中,u

2)测量u

其中,u

3)将文档向量表示为基于权重的句子注释的加权和:

其中,V是文档向量,a

S312:基于上述文档向量以及多个原型网络,确定对话文本的类别。

具体地,该步骤可以计算所述文档向量分别与多个原型网络的向量距离;将最小向量距离对应的原型网络的类别,作为对话文本的类别。具体可以参见实施例100的S106至S108

该实施例以下将对上述多个原型网络的训练过程进行介绍:

首先,从训练集中随机采样N

遍历N

其中,x

y

f

该实施例可以重复上述步骤,直到遍历完所有N

可选地,在该实施例中,各个类别的原型网络的训练集的数量大致接近(优选为相等),考虑了对话文本可能存在严重的数据分布偏斜问题,便于提高在小样本类别上分类的准确率。

在该实施例中,还可以对原型网络C

其中,k′表示N

本说明书实施例提供的对话文本的分类方法可以达到与实施例100相同或等同的技术效果,为避免重复,在此不再重复描述。

上述对本说明书特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。

以上说明书部分详细介绍了对话文本的分类方法实施例,如图4所示,本说明书还提供了一种电子设备,如图4所示,该电子设备400包括:

文本获取模块402,可以用于获取对话文本;

向量得到模块404,可以用于通过多层次自注意力机制的编码器对所述对话文本进行编码,得到所述对话文本的文档向量;

距离计算模块406,可以用于计算所述文档向量分别与多个原型网络的向量距离;其中,所述多个原型网络对应多个类别,所述多个原型网络是基于类别已经确定的样本对话文本训练得到;

类别确定模块408,可以用于基于计算得到的向量距离以及所述多个原型网络的类别,确定所述对话文本的类别。

本说明书实施例提供的电子设备,通过多层次自注意力机制的编码器对对话文本进行编码,得到对话文本的文档向量,并计算文档向量分别与多个原型网络的向量距离,最后基于计算得到的向量距离以及多个原型网络的类别确定对话文本的类别,实现了对话文本的自动分类,可以大大提高对话文本的分类效率。

同时,本说明书实施例通过多层次自注意力机制的编码器对对话文本进行编码,得到对话文本的文档向量,这样可以更好的学习到对话文本中句子与句子之间的语义特征,忽略对话文本中的噪声,提高最终的分类的准确率。

最后,本说明书实施例考虑到对话文本可能存在严重的数据分布偏斜问题,通过多个类别已经确定的原型网络的确定对话文本的类别,这多个原型网络在训练时可以控制各个原型网络的训练集的数量,使得各个原型网络的训练集的数量大致接近,可以提高在小样本类别上分类的准确率。

可选地,作为一个实施例,向量得到模块404,具体可以用于

确定所述对话文本中的字符的向量表示;

通过多层次自注意力机制的编码器对所述字符的向量表示进行编码,得到所述对话文本的句子向量;

通过所述多层次自注意力机制的编码器对所述句子向量进行编码,得到所述对话文本的文档向量。

可选地,作为一个实施例,向量得到模块404,具体可以用于

对所述对话文本进行字符拆分,得到所述对话文本中的字符;

基于预设的嵌入矩阵以及双向门控循环单元GRU神经网络,得到所述字符的第一向量表示;

将所述字符的第一向量表示输入到字符集的编码器的编码层,得到所述字符的第二向量表示;

将所述字符的第二向量表示输入到字符集的编码器的自注意力层,得到所述对话文本的句子向量。

可选地,作为一个实施例,类别确定模块408,具体可以用于

确定计算得到的向量距离中的最小向量距离;

将所述最小向量距离对应的原型网络的类别,作为所述对话文本的类别。

可选地,作为一个实施例,电子设备400还包括模型训练模块,可以用于:

获取所述样本对话文本;其中,所述样本对话文本包括有标签,所述标签反映所述样本对话文本的类别;

基于所述样本对话文本及其标签进行模型训练,以得到所述多个原型网络。

根据本说明书实施例的上述电子设备400可以参照对应前文本说明书实施例的对话文本的分类方法100的流程,并且,该电子设备400中的各个单元/模块和上述其他操作和/或功能分别为了实现对话文本的分类方法100中的相应流程,并且能够达到相同或等同的技术效果,为了简洁,在此不再赘述。

如图5所示,本说明书还提供了一种电子设备,如图5所示,该电子设备500包括:

文本获取模块502,可以用于获取类别已经确定的样本对话文本;

模型训练模块504,可以用于基于所述样本对话文本及所述类别进行模型训练以得到原型网络;

其中,所述原型网络用于基于目标文档向量与所述原型网络的向量距离,预测目标对话文本的类别;所述目标文档向量是通过多层次自注意力机制的编码器对所述目标样本对话文本进行编码得到的。

本说明书实施例提供的电子设备,通过多层次自注意力机制的编码器对对话文本进行编码,得到对话文本的文档向量,并计算文档向量分别与多个原型网络的向量距离,最后基于计算得到的向量距离以及多个原型网络的类别确定对话文本的类别,实现了对话文本的自动分类,可以大大提高对话文本的分类效率。

同时,本说明书实施例通过多层次自注意力机制的编码器对对话文本进行编码,得到对话文本的文档向量,这样可以更好的学习到对话文本中句子与句子之间的语义特征,忽略对话文本中的噪声,提高最终的分类的准确率。

最后,本说明书实施例考虑到对话文本可能存在严重的数据分布偏斜问题,通过多个类别已经确定的原型网络的确定对话文本的类别,这多个原型网络在训练时可以控制各个原型网络的训练集的数量,使得各个原型网络的训练集的数量大致接近,可以提高在小样本类别上分类的准确率。

根据本说明书实施例的上述电子设备500可以参照对应前文本说明书实施例的对话文本的分类方法200的流程,并且,该电子设备500中的各个单元/模块和上述其他操作和/或功能分别为了实现对话文本的分类方法200中的相应流程,并且能够达到相同或等同的技术效果,为了简洁,在此不再赘述。

下面将结合图6详细描述根据本说明书实施例的电子设备。参考图6,在硬件层面,电子设备包括处理器,可选地,包括内部总线、网络接口、存储器。其中,如图6所示,存储器可能包含内存,例如高速随机存取存储器(Random-Access Memory,RAM),也可能还包括非易失性存储器(non-volatile memory),例如至少1个磁盘存储器等。当然,该电子设备还可能包括实现其他业务所需要的硬件。

处理器、网络接口和存储器可以通过内部总线相互连接,该内部总线可以是工业标准体系结构(Industry Standard Architecture,ISA)总线、外设部件互连标准(Peripheral Component Interconnect,PCI)总线或扩展工业标准结构(ExtendedIndustry Standard Architecture,EISA)总线等。所述总线可以分为地址总线、数据总线、控制总线等。为便于表示,图6中仅用一个双向箭头表示,但并不表示仅有一根总线或一种类型的总线。

存储器,用于存放程序。具体地,程序可以包括程序代码,所述程序代码包括计算机操作指令。存储器可以包括内存和非易失性存储器,并向处理器提供指令和数据。

处理器从非易失性存储器中读取对应的计算机程序到内存中然后运行,在逻辑层面上形成电子设备。处理器,执行存储器所存放的程序,并具体用于执行本说明书前文所述的方法实施例的操作。

上述图1至图3所示实施例揭示的方法、装置执行的方法可以应用于处理器中,或者由处理器实现。处理器可能是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法的各步骤可以通过处理器中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器可以是通用处理器,包括中央处理器(Central Processing Unit,CPU)、网络处理器(Network Processor,NP)等;还可以是数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本说明书实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本说明书实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器,处理器读取存储器中的信息,结合其硬件完成上述方法的步骤。

图6所示的电子设备还可执行图1至图3的方法,并实现对话文本的分类方法在图1至图3所示实施例的功能,本说明书实施例在此不再赘述。

当然,除了软件实现方式之外,本文件的电子设备并不排除其他实现方式,比如逻辑器件抑或软硬件结合的方式等等,也就是说以下处理流程的执行主体并不限定于各个逻辑单元,也可以是硬件或逻辑器件。

本说明书实施例还提供一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,该计算机程序被处理器执行时实现上述各个方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。其中,所述的计算机可读存储介质,如只读存储器(Read-Only Memory,简称ROM)、随机存取存储器(Random Access Memory,简称RAM)、磁碟或者光盘等。

本领域内的技术人员应明白,本文件的实施例可提供为方法、系统、或计算机程序产品。因此,本文件可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本文件可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。

本文件是参照根据本说明书实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。

这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。

这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。

在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。

内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。

计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。

还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括要素的过程、方法、商品或者设备中还存在另外的相同要素。

以上仅为本文件的实施例而已,并不用于限制本文件。对于本领域技术人员来说,本文件可以有各种更改和变化。凡在本文件的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本文件的权利要求范围之内。

相关技术
  • 对话文本的分类方法和电子设备
  • 对话型文本分类方法、系统、设备及存储介质
技术分类

06120112986195