掌桥专利:专业的专利平台
掌桥专利
首页

一种确定客服答复文本的方法和装置

文献发布时间:2024-04-18 19:44:28


一种确定客服答复文本的方法和装置

技术领域

本发明涉及智能客服技术领域,尤其涉及一种确定客服答复文本的方法和装置。

背景技术

在现有的一些客服对话场景中,依然使用人工手动检索知识点的方式,当出现大量用户同时呼入时,由于人工检索知识点的时间较长,会出现用户等待时间长、诉求解决效率低的问题。有些客服对话场景中使用文本匹配算法,在传统的文本匹配算法中,需要将两个待匹配的句子同时输入到模型中进行计算,在客服用户对话知识点匹配场景中,知识库中一般存在多条知识点,计算量会大大增加知识点匹配的时间,从而降低客服人员的工作效率。还有方案在客服对话场景中知识蒸馏算法,使用知识蒸馏技术将原始大模型进行压缩的过程中,需要对一个分类任务建模,但是在知识点匹配任务中,不能直接构造文本分类模型,模型推理时间较长,实际使用过程中难以达到满意的效果。

在实现本发明过程中,发明人发现现有技术中至少存在如下问题:

存在用户等待时间长、诉求解决效率低、计算量大的问题,无法快速确定客服答复文本。

发明内容

有鉴于此,本发明实施例提供一种确定客服答复文本的方法和装置,能够快速确定客服答复文本,缩短用户等待时间,提高诉求解决效率,减少计算量。

为实现上述目的,根据本发明实施例的一个方面,提供了一种确定客服答复文本的方法。

一种确定客服答复文本的方法,包括:使用客服与用户的对话文本样本与知识库中的知识点样本,对孪生结构的第一预设模型进行训练,得到第二预设模型;通过所述第二预设模型对客服与用户的第一对话文本进行编码,得到对话文本编码向量;对所述对话文本编码向量和利用知识库中的知识点生成的知识库编码矩阵进行相似度计算,根据计算出的相似度对所述第一对话文本确定对应的答复文本。

可选地,所述得到第二预设模型之后,所述方法还包括:通过所述第二预设模型对所述知识库中的知识点进行编码,得到所述知识库编码矩阵,并保存所述知识库编码矩阵。

可选地,所述孪生结构的第一预设模型包括第一输入层、孪生编码层、第一全连接层、匹配层;所述使用客服与用户的对话文本样本与知识库中的知识点样本,对孪生结构的第一预设模型进行训练,得到第二预设模型,包括:通过所述第一输入层接收输入样本,所述输入样本包括客服与用户的对话文本样本与知识库中的知识点样本,所述知识点样本包括正样本、负样本,所述正样本为与所述对话文本样本对应且被客服使用的知识点样本,所述负样本为从所述知识库中随机选取的知识点样本;由所述孪生编码层对所述输入样本进行语义编码,得到所述对话文本样本的编码向量以及分别对应所述正样本、所述负样本的文本编码向量;将所述对话文本样本的编码向量以及分别对应所述正样本、所述负样本的文本编码向量经过所述第一全连接层进行维度转换后,在所述匹配层计算所述对话文本样本的编码向量与对应所述正样本、所述负样本的文本编码向量的相似度,并利用三元组损失函数计算损失,以训练得到所述第二预设模型。

可选地,所述第二预设模型包括第二输入层、编码层、第二全连接层;所述通过所述第二预设模型对客服与用户的第一对话文本进行编码,得到对话文本编码向量,包括:通过所述第二输入层接收输入的客服与用户的第一对话文本;由所述编码层对客服与用户的第一对话文本进行语义编码,得到第一编码向量;通过所述第二全连接层对所述第一编码向量进行维度转换,得到所述对话文本编码向量。

可选地,所述孪生编码层包括孪生结构的两个所述编码层,所述编码层通过多层转换器进行所述语义编码。

可选地,所述对所述对话文本编码向量和利用知识库中的知识点生成的知识库编码矩阵进行相似度计算,根据计算出的相似度对所述第一对话文本确定对应的答复文本,包括:计算所述对话文本编码向量与所述知识库编码矩阵中各编码向量的余弦相似度,将所述知识库编码矩阵中对应所述余弦相似度最大的预设数量的编码向量对应的知识点,确定为所述答复文本。

可选地,所述第一预设模型和所述第二预设模型为语言表征模型。

根据本发明实施例的另一方面,提供了一种确定客服答复文本的装置。

一种确定客服答复文本的装置,包括:模型训练模块,用于使用客服与用户的对话文本样本与知识库中的知识点样本,对孪生结构的第一预设模型进行训练,得到第二预设模型;对话文本编码模块,用于通过所述第二预设模型对客服与用户的第一对话文本进行编码,得到对话文本编码向量;答复文本确定模块,用于对所述对话文本编码向量和利用知识库中的知识点生成的知识库编码矩阵进行相似度计算,根据计算出的相似度对所述第一对话文本确定对应的答复文本。

可选地,还包括知识点编码模块,用于:通过所述第二预设模型对所述知识库中的知识点进行编码,得到所述知识库编码矩阵,并保存所述知识库编码矩阵。

可选地,所述孪生结构的第一预设模型包括第一输入层、孪生编码层、第一全连接层、匹配层;所述模型训练模块还用于:通过所述第一输入层接收输入样本,所述输入样本包括客服与用户的对话文本样本与知识库中的知识点样本,所述知识点样本包括正样本、负样本,所述正样本为与所述对话文本样本对应且被客服使用的知识点样本,所述负样本为从所述知识库中随机选取的知识点样本;由所述孪生编码层对所述输入样本进行语义编码,得到所述对话文本样本的编码向量以及分别对应所述正样本、所述负样本的文本编码向量;将所述对话文本样本的编码向量以及分别对应所述正样本、所述负样本的文本编码向量经过所述第一全连接层进行维度转换后,在所述匹配层计算所述对话文本样本的编码向量与对应所述正样本、所述负样本的文本编码向量的相似度,并利用三元组损失函数计算损失,以训练得到所述第二预设模型。

可选地,所述第二预设模型包括第二输入层、编码层、第二全连接层;所述对话文本编码模块还用于:通过所述第二输入层接收输入的客服与用户的第一对话文本;由所述编码层对客服与用户的第一对话文本进行语义编码,得到第一编码向量;通过所述第二全连接层对所述第一编码向量进行维度转换,得到所述对话文本编码向量。

可选地,所述孪生编码层包括孪生结构的两个所述编码层,所述编码层通过多层转换器进行所述语义编码。

可选地,所述答复文本确定模块还用于:计算所述对话文本编码向量与所述知识库编码矩阵中各编码向量的余弦相似度,将所述知识库编码矩阵中对应所述余弦相似度最大的预设数量的编码向量对应的知识点,确定为所述答复文本。

可选地,所述第一预设模型和所述第二预设模型为语言表征模型。

根据本发明实施例的又一方面,提供了一种电子设备。

一种电子设备,包括:一个或多个处理器;存储器,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现本发明实施例所提供的确定客服答复文本的方法。

根据本发明实施例的又一方面,提供了一种计算机可读介质。

一种计算机可读介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现本发明实施例所提供的确定客服答复文本的方法。

上述发明中的一个实施例具有如下优点或有益效果:使用客服与用户的对话文本样本与知识库中的知识点样本,对孪生结构的第一预设模型进行训练,得到第二预设模型;通过第二预设模型对客服与用户的第一对话文本进行编码,得到对话文本编码向量;对对话文本编码向量和利用知识库中的知识点生成的知识库编码矩阵进行相似度计算,根据计算出的相似度对第一对话文本确定对应的答复文本。能够快速确定客服答复文本,缩短用户等待时间,提高诉求解决效率,减少计算量。

上述的非惯用的可选方式所具有的进一步效果将在下文中结合具体实施方式加以说明。

附图说明

附图用于更好地理解本发明,不构成对本发明的不当限定。其中:

图1是根据本发明一个实施例的确定客服答复文本的方法的主要步骤示意图;

图2是根据本发明一个实施例的预设模型的示意图;

图3是根据本发明一个实施例的确定客服答复文本的流程示意图;

图4是根据本发明一个实施例的确定客服答复文本的装置的主要模块示意图;

图5是本发明实施例可以应用于其中的示例性系统架构图;

图6是适于用来实现本发明实施例的服务器的计算机系统的结构示意图。

具体实施方式

以下结合附图对本发明的示范性实施例做出说明,其中包括本发明实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本发明的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。

图1是根据本发明一个实施例的确定客服答复文本的方法的主要步骤示意图。如图1所示,本发明一个实施例的确定客服答复文本的方法主要包括如下的步骤S101至步骤S103。

步骤S101:使用客服与用户的对话文本样本与知识库中的知识点样本,对孪生结构的第一预设模型进行训练,得到第二预设模型。

步骤S102:通过第二预设模型对客服与用户的第一对话文本进行编码,得到对话文本编码向量。

步骤S103:对对话文本编码向量和利用知识库中的知识点生成的知识库编码矩阵进行相似度计算,根据计算出的相似度对第一对话文本确定对应的答复文本。

客服与用户的对话文本样本包括对话中的客服的文本样本和用户的文本样本。

本发明实施例的方法的目是为了对客服与用户正在进行的某对话文本确定客服的答复文本,该对话文本即称为第一对话文本。

得到第二预设模型之后,可通过第二预设模型对知识库中的知识点进行编码,得到知识库编码矩阵,并保存知识库编码矩阵。

孪生结构的第一预设模型具体包括第一输入层、孪生编码层、第一全连接层、匹配层。

使用客服与用户的对话文本样本与知识库中的知识点样本,对孪生结构的第一预设模型进行训练,得到第二预设模型,具体步骤可包括:通过第一输入层接收输入样本,输入样本包括客服与用户的对话文本样本与知识库中的知识点样本,知识点样本包括正样本、负样本,正样本为与对话文本样本对应且被客服使用的知识点样本,负样本为从知识库中随机选取的知识点样本,即第一输入层的输入包括三部分,分别是:客服与用户的对话文本样本、正样本、负样本;由孪生编码层对输入样本进行语义编码,得到对话文本样本的编码向量以及分别对应正样本、负样本的文本编码向量,具体地,通过孪生编码层中的一个编码层对客服与用户的对话文本样本进行语义编码,得到对话文本样本的编码向量,通过孪生编码层中的另一个编码层对正、负样本进行语义编码,得到分别对应正样本、负样本的文本编码向量;将对话文本样本的编码向量以及分别对应正样本、负样本的文本编码向量经过第一全连接层进行维度转换后,在匹配层计算对话文本样本的编码向量与对应正样本、负样本的文本编码向量的相似度,并利用三元组损失函数计算损失,以训练得到第二预设模型。

第二预设模型具体包括第二输入层、编码层、第二全连接层。第一输入层与第二输入层相对应,二者不同之处在于第二输入层的输入只包括一个部分,该输入可以是客服与用户的第一对话文本或知识库中的知识点,第一全连接层与第二全连接层相对应,第二全连接层用于对编码层的输出进行维度转换。孪生编码层包括孪生结构的两个编码层,孪生结构的两个编码层中的任一编码层都与第二预设模型中的编码层相同。编码层通过多层转换器进行语义编码。

通过第二预设模型对客服与用户的第一对话文本进行编码,得到对话文本编码向量,具体可以包括:通过第二输入层接收输入的客服与用户的第一对话文本;由编码层对客服与用户的第一对话文本进行语义编码,得到第一编码向量;通过第二全连接层对第一编码向量进行维度转换,得到对话文本编码向量。

对对话文本编码向量和利用知识库中的知识点生成的知识库编码矩阵进行相似度计算,根据计算出的相似度对所述第一对话文本确定对应的答复文本,具体步骤包括:计算对话文本编码向量与知识库编码矩阵中各编码向量的余弦相似度,将知识库编码矩阵中对应余弦相似度最大的预设数量的编码向量对应的知识点,确定为答复文本。

第一预设模型和第二预设模型具体为语言表征模型,例如BERT模型,BERT模型全称为Bidirectional Encoder Representation from Transformers,是一个预训练的语言表征模型。

图2是根据本发明一个实施例的预设模型的示意图。本发明一个实施例的预设模型为BERT模型,且采用孪生网络结构,并使用Triplet Loss损失函数(三元组损失函数)来计算模型损失,训练模型,因此,本发明实施例的预设模型具体可以称为Siamese BERT-Triplet Loss模型(孪生BERT三元组损失模型)。本实施例的预设模型具体结构如图2所示,在模型训练阶段,预设模型一共四层,分别是输入层(即第一输入层)、孪生编码层、全连接层(即第一全连接层)、匹配层。将客服与用户的对话文本样本和知识点文本的样本(即知识点样本)输入后,通过孪生编码层对它们进行语义编码,使用多层的Transformer(转换器)来提取它们的语义特征,经过全连接层的映射后,使用Triplet Loss损失函数(三元组损失函数)来计算模型损失,训练出编码模型。Triplet Loss损失函数(三元组损失函数)的计算公式为:

其中,L表示损失;i表示样本序号,即第i组样本,1≤i≤N;N表示样本总数,即总共有N组样本;a

在模型训练阶段,输入层包含三部分,一条客服与用户的对话文本样本,两条知识点样本。两条知识点样本分别是当时客服与用户对话文本调用的知识点文本,称作正样本(positive),以及一条从知识库中随机选择的知识点(避免选到正样本),称作负样本(negative)。

客服与用户的对话文本样本和知识点样本的输入方式不同,客服与用户的对话文本样本是由客服人员和用户的对话拼接而成。它们的对话如表1所示。

表1:客服人员和用户对话表

其中客服人员文本为Q={q

Input={[CLS],q

知识点样本输入表示为K={k

负样本选取采用了Word2Vec(一种用于词向量计算的工具)中负采样方式,一条知识点被选为负样本的概率和它被调用的频率有关,被调用次数越多的知识点就越容易选为负样本。知识点被选取为负样本的概率和它出现的频次关系为:

上式中p(k

表2:负样本选取算法

模型训练阶段,本发明实施例将BERT和Siamese(孪生)结构相结合,使用一个权值共享的BERT同时对客服与用户的对话文本样本和知识点样本进行编码,这样不仅扩展了文本向量编码空间,而且消除了语义鸿沟的问题。最后通过BERT模型完成编码的文本向量为:

H={h

其中Siamese-BERT表示本发明实施例的孪生BERT三元组损失模型,Input表示输入,

在全连接层,将本发明实施例的预设模型Siamese-Bert编码层的输出进行维度转换,将高维度空间的向量投影到低维度空间。计算方式为:

F

其中,F

在匹配层,计算客服与用户的对话文本样本和正样本、负样本之间的相似度。在向量空间中,两个向量之间的距离代表了它们之间的相似度,可以使用欧式距离或余弦相似度来计算。欧式距离考虑了点之间的空间距离,它从维度大小的差异中进行分析,但是它对方向并不敏感。本发明实施例采用计算余弦相似度的方式。余弦相似度(Cosine)的计算公式为:

γ和η表示向量,d(γ,η)表示该两个向量的余弦相似度。

余弦相似度表示方向上的差异,它更适合文本相似的计算,相同意义的文本之间的向量方向往往差异不大。

在匹配层,首先计算向量的相似度,也可以说是向量之间的距离,目的为了和Triplet Loss相结合。现有技术中使用softmax损失函数的结果都是固定的类别,而在文本匹配任务中,将匹配任务类别化会损害模型的表示能力。本发明实施例Triplet Loss的目的并不是将结果分类,而是学习到一个好的向量表示。

本发明实施例将客服与用户的对话文本样本和知识点样本输入Siamese BERT-Triplet Loss模型后,通过孪生编码层(具体即孪生BERT编码层)对它们进行语义编码,使用多层的Transformer(转换器)来提取它们的语义特征,经过全连接层的映射后,使用Triplet Loss损失函数来计算模型损失,训练出编码模型。

为了能够高效准确地匹配到知识点,模型需要快速地推理出相似的知识点,现有文本匹配算法中需要将句子同时编码的方式难以提升效率,本发明实施例采用了孪生网络结构,也就是使用Siamese BERT-Triplet Loss模型来对客服与用户的对话文本样本和知识点样本同时编码。这样在线上推理阶段之前,可以将知识库中的知识点文本(简称知识点)进行编码,得到知识点编码矩阵,在推理时只需要使用训练好的模型(即第二预设模型)计算客服与用户的第一对话文本的编码向量,然后与知识点编码矩阵进行相似度计算,将原来上千次的模型编码计算缩减到一次,大大提升匹配效率。

在线上推理阶段之前,将知识库中的知识点知识点进行编码,得到知识点编码矩阵,即利用训练好的模型作为编码模型,对知识库中的知识点进行编码,该步骤是在模型训练完成之后,且线上实时对客服与用户的第一对话文本进行编码之前进行的,在得到知识点编码矩阵之后,可保存该知识点编码矩阵以供后续使用。

在推理时使用训练好的模型计算客服与用户的第一对话文本的编码向量,是指线上实时收到客服与用户的第一对话文本后,可利用本发明实施例训练好的模型实时进行编码,得到对话文本编码向量。

图3是根据本发明一个实施例的确定客服答复文本的流程示意图。如图3所示,图3中的模型是本发明实施例的训练后的模型,即对Siamese BERT-Triplet Loss模型训练后得到的第二预设模型,训练后的模型作为编码模型,用于对客服与用户的第一对话文本(即图3中的客服对话文本)或者知识库中的知识点文本(即图3中的知识库文本)进行编码,其中对客服与用户的第一对话文本的编码在线上实时进行,对知识库中的知识点文本的编码在线下预先进行。训练后的模型只有一个输入,即待编码的对话文本或知识点文本。另外,训练后的模型不需要匹配层,而是在训练好的模型之外对对话文本编码向量和知识库编码矩阵进行相似度计算(具体为余弦相似度计算),对计算出的相似度进行排序,根据对应相似度最高的一个或多个知识点(即匹配知识点)确定对应的答复文本,其中若相似度最高的有多个知识点,可随机确定一个知识点作为答复文本推荐给客服,或者将该多个知识点都推荐给客服以由客服来选取其中一个知识点作为答复文本。

本发明实施例为了能够获取双向文本语义表示信息,将BERT作为文本的编码模型,通过对客服对话文本进行预训练,在进行知识点匹配微调任务时,相较于其他文本编码结构,它可以更好的对口语化文本进行理解,同时添加Triplet Loss损失函数,使客服对话和对应知识点文本在向量空间中的距离减小,这样计算向量相似度时值就会增大,通过大量数据的训练,能够使模型具有更好的编码能力。

图4是根据本发明一个实施例的确定客服答复文本的装置的主要模块示意图。如图4所示,根据本发明一个实施例的确定客服答复文本的装置400主要包括:模型训练模块401、对话文本编码模块402、答复文本确定模块403。

模型训练模块401,用于使用客服与用户的对话文本样本与知识库中的知识点样本,对孪生结构的第一预设模型进行训练,得到第二预设模型;

对话文本编码模块402,用于通过第二预设模型对客服与用户的第一对话文本进行编码,得到对话文本编码向量;

答复文本确定模块403,用于对对话文本编码向量和利用知识库中的知识点生成的知识库编码矩阵进行相似度计算,根据计算出的相似度对所述第一对话文本确定对应的答复文本。

确定客服答复文本的装置400还可以包括知识点编码模块,用于:通过第二预设模型对知识库中的知识点进行编码,得到知识库编码矩阵,并保存知识库编码矩阵。

孪生结构的第一预设模型包括第一输入层、孪生编码层、第一全连接层、匹配层。

模型训练模块401具体可以用于:通过第一输入层接收输入样本,输入样本包括客服与用户的对话文本样本与知识库中的知识点样本,知识点样本包括正样本、负样本,正样本为与对话文本样本对应且被客服使用的知识点样本,负样本为从知识库中随机选取的知识点样本;由孪生编码层对输入样本进行语义编码,得到对话文本样本的编码向量以及分别对应正样本、负样本的文本编码向量;将对话文本样本的编码向量以及分别对应正样本、负样本的文本编码向量经过第一全连接层进行维度转换后,在匹配层计算对话文本样本的编码向量与对应正样本、负样本的文本编码向量的相似度,并利用三元组损失函数计算损失,以训练得到第二预设模型。

第二预设模型包括第二输入层、编码层、第二全连接层。

对话文本编码模块402具体可以用于:通过第二输入层接收输入的客服与用户的第一对话文本;由编码层对客服与用户的第一对话文本进行语义编码,得到第一编码向量;通过第二全连接层对第一编码向量进行维度转换,得到对话文本编码向量。

孪生编码层包括孪生结构的两个编码层,编码层通过多层转换器进行语义编码。

答复文本确定模块403具体可以用于:计算对话文本编码向量与知识库编码矩阵中各编码向量的余弦相似度,将知识库编码矩阵中对应余弦相似度最大的预设数量的编码向量对应的知识点,确定为答复文本。

第一预设模型和第二预设模型为语言表征模型。

另外,在本发明实施例中所述确定客服答复文本的装置的具体实施内容,在上面所述确定客服答复文本的方法中已经详细说明了,故在此重复内容不再说明。

图5示出了可以应用本发明实施例的确定客服答复文本的方法或确定客服答复文本的装置的示例性系统架构500。

如图5所示,系统架构500可以包括终端设备501、502、503,网络504和服务器505。网络504用以在终端设备501、502、503和服务器505之间提供通信链路的介质。网络504可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。

用户可以使用终端设备501、502、503通过网络504与服务器505交互,以接收或发送消息等。终端设备501、502、503上可以安装有各种通讯客户端应用,例如购物类应用、网页浏览器应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等(仅为示例)。

终端设备501、502、503可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。

服务器505可以是提供各种服务的服务器,例如对用户利用终端设备501、502、503所浏览的购物类网站提供支持的后台管理服务器(仅为示例)。后台管理服务器可以对接收到的产品信息查询请求等数据进行分析等处理,并将处理结果(例如目标推送信息、产品信息--仅为示例)反馈给终端设备。

需要说明的是,本发明实施例所提供的确定客服答复文本的方法一般由服务器505执行,相应地,确定客服答复文本的装置一般设置于服务器505中。

应该理解,图5中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。

下面参考图6,其示出了适于用来实现本申请实施例的终端设备或服务器的计算机系统600的结构示意图。图6示出的终端设备或服务器仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。

如图6所示,计算机系统600包括中央处理单元(CPU)601,其可以根据存储在只读存储器(ROM)602中的程序或者从存储部分608加载到随机访问存储器(RAM)603中的程序而执行各种适当的动作和处理。在RAM 603中,还存储有系统600操作所需的各种程序和数据。CPU 601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。

以下部件连接至I/O接口605:包括键盘、鼠标等的输入部分606;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分607;包括硬盘等的存储部分608;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分609。通信部分609经由诸如因特网的网络执行通信处理。驱动器610也根据需要连接至I/O接口605。可拆卸介质611,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器610上,以便于从其上读出的计算机程序根据需要被安装入存储部分608。

特别地,根据本发明公开的实施例,上文参考主要步骤示意图描述的过程可以被实现为计算机软件程序。例如,本发明公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行主要步骤示意图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分609从网络上被下载和安装,和/或从可拆卸介质611被安装。在该计算机程序被中央处理单元(CPU)601执行时,执行本申请的系统中限定的上述功能。

需要说明的是,本发明所示的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。

附图中的主要步骤示意图和框图,图示了按照本申请各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,主要步骤示意图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或主要步骤示意图中的每个方框、以及框图或主要步骤示意图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。

描述于本发明实施例中所涉及到的模块可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的模块也可以设置在处理器中,例如,可以描述为:一种处理器包括模型训练模块、对话文本编码模块、答复文本确定模块。其中,这些模块的名称在某种情况下并不构成对该模块本身的限定,例如模型训练模块还可以被描述为“用于使用客服与用户的对话文本样本与知识库中的知识点样本,对孪生结构的第一预设模型进行训练,得到第二预设模型的模块”。

作为另一方面,本发明还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的设备中所包含的;也可以是单独存在,而未装配入该设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被一个该设备执行时,使得该设备包括:使用客服与用户的对话文本样本与知识库中的知识点样本,对孪生结构的第一预设模型进行训练,得到第二预设模型;通过所述第二预设模型对客服与用户的第一对话文本进行编码,得到对话文本编码向量;对所述对话文本编码向量和利用知识库中的知识点生成的知识库编码矩阵进行相似度计算,根据计算出的相似度对所述第一对话文本确定对应的答复文本。

根据本发明实施例的技术方案,使用客服与用户的对话文本样本与知识库中的知识点样本,对孪生结构的第一预设模型进行训练,得到第二预设模型;通过第二预设模型对客服与用户的第一对话文本进行编码,得到对话文本编码向量;对对话文本编码向量和利用知识库中的知识点生成的知识库编码矩阵进行相似度计算,根据计算出的相似度对所述第一对话文本确定对应的答复文本。能够缩短用户等待时间,提高诉求解决效率,减少计算量,并可快速确定客服答复文本。

上述具体实施方式,并不构成对本发明保护范围的限制。本领域技术人员应该明白的是,取决于设计要求和其他因素,可以发生各种各样的修改、组合、子组合和替代。任何在本发明的精神和原则之内所作的修改、等同替换和改进等,均应包含在本发明保护范围之内。

相关技术
  • 一种神经网络模型训练方法及装置、文本标签确定方法及装置
  • 一种文本处理方法及智能客服方法
  • 一种确定客服答复文本的方法和装置
  • 机器人答复文本的确定方法、装置、设备及介质
技术分类

06120116298905