掌桥专利:专业的专利平台
掌桥专利
首页

一种知识驱动的对话生成方法及装置

文献发布时间:2023-06-19 11:49:09


一种知识驱动的对话生成方法及装置

技术领域

本发明涉及自然语言处理领域,尤其涉及一种知识驱动的对话生成方法及装置。

背景技术

随着社会的飞速发展,现今已经进入信息爆炸时代,人们对于高效的信息处理方式有着更迫切的追求,其中,对话系统受到了越来越多的研究者、厂商和用户的关注,产生了Siri,Google Assistant,小爱同学等对话系统。在对话系统的研究方面,一直以来,生成具有恰当语义和丰富信息量的对话回复,对构造一个成功的拟人化对话系统来说是至关重要的。

由于知识图谱描述了世界上实体和实体之间的关系,蕴含的知识数量非常巨大。为了生成具有恰当语义和丰富信息量的对话回复,一些研究工作尝试将知识图谱引入到对话生成过程中,这类工作被称之为知识驱动的对话模型。然而,这些研究工作都是采用预先训练好的知识嵌入表示、词向量表示或邻接矩阵来对知识图谱中的实体和关系进行建模,这样的方式使得它们不再适用于将大规模的知识图谱融入到对话生成中。

因此,如何更好地实现知识驱动的对话系统,已成为业界关注的研究重点。

发明内容

本发明提供一种知识驱动的对话生成方法及装置,用以更好地实现知识驱动的对话系统。

本发明提供一种知识驱动的对话生成方法,包括:

将待回复文本序列输入训练好的深度神经网路对话模型,得到所述待回复文本的回复文本序列;

其中,所述深度神经网路对话模型储存有知识图谱实体关系的特征表示数据集;

其中,所述训练好的深度神经网路对话模型是根据携带真实回复文本序列标签的待回复文本样本序列和所述知识图谱实体关系的特征表示数据集进行训练后得到的。

根据本发明提供的一种知识驱动的对话生成方法,在所述将待回复文本序列输入训练好的深度神经网路对话模型的步骤之前,所述方法还包括:

将待回复文本样本序列输入深度神经网路对话模型的双向编码器,得到所述待回复文本样本序列的隐式特征表示;

根据所述待回复文本样本序列中的头实体,得到所述头实体对应的知识图谱,以从储存的知识图谱实体关系的特征表示数据集中,确定出所述头实体的实体关系特征表示;

将所述待回复文本样本序列的隐式特征表示和所述头实体的实体关系特征表示,输入所述深度神经网路对话模型的知识解释器,得到所述头实体的特征表示和所述头实体对应的尾实体特征表示;

将所述头实体的特征表示、所述头实体对应的尾实体特征表示和预存的词表中通用词的特征表示,输入所述深度神经网路对话模型的解码器,得到所述待回复文本样本序列的回复文本序列。

根据本发明提供的一种知识驱动的对话生成方法,所述将待回复文本样本序列输入深度神经网路对话模型的双向编码器,得到所述待回复文本样本序列的隐式特征表示的步骤,具体包括:

将占位符替换所述待回复文本样本序列中的头实体,得到去词汇化处理的待回复文本样本序列;

根据所述去词汇化处理的待回复文本样本序列,得到所述待回复文本样本序列的隐式特征表示。

根据本发明提供的一种知识驱动的对话生成方法,所述将所述待回复文本样本序列的隐式特征表示和所述头实体的实体关系特征表示,输入所述深度神经网路对话模型的知识解释器,得到所述头实体的特征表示和所述头实体对应的尾实体特征表示的步骤,具体包括:

根据所述待回复文本样本序列的隐式特征表示,得到所述头实体的特征表示;

根据所述头实体的特征表示和所述头实体的实体关系特征表示,得到所述头实体对应的尾实体特征表示。

根据本发明提供的一种知识驱动的对话生成方法,在所述将待回复文本样本序列输入深度神经网路对话模型的双向编码器,得到所述待回复文本样本序列的隐式特征表示的步骤之后,所述方法还包括:

在根据所述待回复文本样本序列中的实体,检索不到所述实体对应的知识图谱的情况下,根据预存的知识图谱中任一实体的实体关系特征表示和所述待回复文本样本序列的隐式特征表示,得到所述任一实体的第一特征表示;

根据所述任一实体的第一特征表示,得到所述任一实体的第二特征表示;

将所述任一实体的第一特征表示、所述任一实体的第二特征表示和预存的词表中通用词的特征表示,输入所述深度神经网路对话模型的解码器,得到所述待回复文本样本序列的回复文本序列。

根据本发明提供的一种知识驱动的对话生成方法,在所述将待回复文本序列输入训练好的深度神经网路对话模型的步骤之前,所述方法还包括:

将待回复文本样本序列和所述待回复文本样本序列携带的真实回复文本序列标签作为一组对话训练样本,获取多组对话训练样本;

利用所述多组对话训练样本,对深度神经网络对话模型进行训练。

根据本发明提供的一种知识驱动的对话生成方法,利用所述多组对话训练样本和储存的知识图谱实体关系的特征表示数据集,对深度神经网络对话模型进行训练的步骤,具体包括:

对于任意一组对话训练样本,将所述对话训练样本输入深度神经网络对话模型,输出所述对话训练样本对应的预测概率;

利用预设损失函数,根据所述对话训练样本对应的预测概率和所述对话训练样本中的真实回复文本序列标签计算损失值;

若所述损失值小于预设阈值,则所述深度神经网络对话模型训练完成。

本发明还提供一种知识驱动的对话生成装置,包括:

回复文本生成模块,用于将待回复文本序列输入训练好的深度神经网路对话模型,得到所述待回复文本的回复文本序列;

其中,所述深度神经网路对话模型储存有知识图谱实体关系的特征表示数据集;

其中,所述训练好的深度神经网路对话模型是根据携带真实回复文本序列标签的待回复文本样本序列和所述知识图谱实体关系的特征表示数据集进行训练后得到的。

本发明还提供一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如上述任一种所述知识驱动的对话生成方法的步骤。

本发明还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如上述任一种所述知识驱动的对话生成方法的步骤。

本发明提供的一种知识驱动的对话生成方法及装置,根据待回复文本中的非结构化信息和知识图谱的结构化信息,基于训练好的深度神经网络对话模型,计算出知识图谱中的实体表示,可以更高效地应用知识图谱来生成具有恰当语义和丰富信息量的对话回复。

附图说明

为了更清楚地说明本发明或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。

图1是本发明提供的知识驱动的对话生成方法的流程示意图;

图2是本发明实施例提供的知识驱动的对话模型整体框架示意图;

图3是本发明提供的知识驱动的对话生成装置的结构示意图;

图4是本发明提供的电子设备的结构示意图。

具体实施方式

为使本发明的目的、技术方案和优点更加清楚,下面将结合本发明中的附图,对本发明中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。

图1是本发明提供的语音识别方法的流程示意图,如图1所示,包括:

步骤S1,将待回复文本序列输入训练好的深度神经网路对话模型,得到所述待回复文本的回复文本序列;

其中,所述深度神经网路对话模型储存有知识图谱实体关系的特征表示数据集;

其中,所述训练好的深度神经网路对话模型是根据携带真实回复文本序列标签的待回复文本样本序列和所述知识图谱实体关系的特征表示数据集进行训练后得到的。

具体地,本发明所描述的待回复文本序列为用户端输入的需要进行回复的文本序列,其包括字符、数字、标点和各种符号等数据形式的非结构化信息。

本发明所描述的待回复文本的回复文本序列指的是待回复文本序列输入到本发明训练好的深度神经网路对话模型后所得到的对应的回复文本序列。

本发明所描述的特征表示指的是对知识图谱中实体和实体关系特征进行参数化表示。

本发明所描述的知识图谱实体关系的特征表示数据集指的是针对常用知识图谱结构化信息中的实体关系特征进行参数化表示而得到的数据集合。

在本发明的实施例中,知识图谱实体关系的特征表示数据集会预先存储在深度神经网路对话模型中,以便后续对该模型进行训练。

本发明所描述的训练好的深度神经网路对话模型是根据训练样本和知识图谱实体关系的特征表示数据集进行训练后得到的,用于对用户端输入的待回复文本序列进行识别,学习知识图谱中实体的泛化性表示,从而输出具有恰当语义和丰富信息量的回复文本序列。

其中,训练样本是由多组携带有真实回复文本序列标签的待回复文本样本序列组成的。

其中,本发明所描述的真实回复文本序列标签是根据待回复文本样本序列预先确定的,并与待回复文本样本序列是一一对应的。也就是说,训练样本中的每一个待回复文本样本序列,都预先设定好携带一个与之对应的回复文本序列作为真实标签。

通过本发明实施例的方法,根据待回复文本中的非结构化信息和知识图谱的结构化信息,基于训练好的深度神经网络对话模型,计算出知识图谱中的实体表示,可以更高效地应用知识图谱来生成具有恰当语义和丰富信息量的对话回复。

基于上述任一实施例,在所述将待回复文本序列输入训练好的深度神经网路对话模型的步骤之前,所述方法还包括:

将待回复文本样本序列输入深度神经网路对话模型的双向编码器,得到所述待回复文本样本序列的隐式特征表示;

根据所述待回复文本样本序列中的头实体,得到所述头实体对应的知识图谱,以从储存的知识图谱实体关系的特征表示数据集中,确定出所述头实体的实体关系特征表示;

将所述待回复文本样本序列的隐式特征表示和所述头实体的实体关系特征表示,输入所述深度神经网路对话模型的知识解释器,得到所述头实体的特征表示和所述头实体对应的尾实体特征表示;

将所述头实体的特征表示、所述头实体对应的尾实体特征表示和预存的词表中通用词的特征表示,输入所述深度神经网路对话模型的解码器,得到所述待回复文本样本序列的回复文本序列。

具体地,本发明所描述的双向编码器可以根据待回复文本样本序列中知识实体的上下文内容对该知识实体进行上下文两个方向上编码,有利于提升建模的准确性。

本发明所描述的知识解释器可以用于根据待回复文本样本序列的编码结果,通过知识图谱的结构化信息,推理知识图谱中的实体表示。

本发明所描述的解码器可以用于对待回复文本样本序列中实体的特征表示和通用词的特征表示进行解码,生成回复文本序列。

在本发明的实施例中,隐式特征表示即为语义特征表示,指的是对待回复文本样本序列中词汇的语义特征进行参数化表示;储存的知识图谱实体关系的特征表示数据集指的是预先储存在深度神经网路对话模型中的知识图谱实体关系的特征表示数据集;预存的词表中通用词的特征表示指的是预先存储在深度神经网路对话模型中的通用词表里通用词特征的参数化表示。

进一步地,设定待回复文本样本序列为X=(x

在本发明的实施例中,知识图谱是根据待回复文本样本序列中的词为查询索引从知识库中检索得到的。待回复文本样本序列中的每一个词都对应G中的一个知识子图g

进一步地,将待回复文本样本序列X=(x

根据待回复文本样本序列X=(x

进一步地,将上述得到的待回复文本样本序列的隐式特征表示H=(h

进一步地,将头实体的特征表示

在本发明的实施例中,深度神经网路对话模型的解码器g

s

其中,s

进一步地,为了生成信息丰富知识相关的对话回复,通过解码器g

P

其中,

需要说明的是,深度神经网络对话模型的编码器、知识解释器和解码器均可以使用通用深度神经网络来实现,在此不作具体限定。

本发明实施例的方法,通过将待回复文本样本序列输入到深度神经网络对话模型,依次经过模型的编码器、知识解释器和解码器,得到待回复文本样本序列的回复文本序列,以此来对深度神经网络对话模型进行训练。

基于上述任一实施例,所述将待回复文本样本序列输入深度神经网路对话模型的双向编码器,得到所述待回复文本样本序列的隐式特征表示的步骤,具体包括:

将占位符替换所述待回复文本样本序列中的头实体,得到去词汇化处理的待回复文本样本序列;

根据所述去词汇化处理的待回复文本样本序列,得到所述待回复文本样本序列的隐式特征表示。

具体地,本发明所描述的去词汇化处理指的是使用占位符替换待回复文本样本序列中实体词的处理方式,该处理方式的目的是让模型关注在待回复文本样本序列中提到的最新的知识实体上,便于后续模型学习知识图谱中实体的泛化性表示。

进一步地,对于一个待回复文本样本序列X=(x

进一步地,在去词汇化处理的步骤之后,将待回复文本样本序列输入到深度神经网路对话模型的一个双向编码器f

H=f

h

其中,f

本发明实施例的方法,通过对待回复文本样本序列进行去词汇化处理后,基于深度神经网路对话模型的双向编码器,得到待回复文本样本序列的隐式特征表示。

基于上述任一实施例,所述将所述待回复文本样本序列的隐式特征表示和所述头实体的实体关系特征表示,输入所述深度神经网路对话模型的知识解释器,得到所述头实体的特征表示和所述头实体对应的尾实体特征表示的步骤,具体包括:

根据所述待回复文本样本序列的隐式特征表示,得到所述头实体的特征表示;

根据所述头实体的特征表示和所述头实体的实体关系特征表示,得到所述头实体对应的尾实体特征表示。

具体地,为了保证学到知识图谱中实体的泛化性表示,本发明不为每个实体学习参数化的特征表示,相反,使用待回复文本样本序列的隐式特征,通过MLP参数网络,来表示待回复文本样本序列中提到的知识实体,即得到头实体

进一步地,通过由知识实体

其中,MLP表示多层感知机,GRU表示门控递归单元,h

本发明实施例的方法,根据所述待回复文本样本序列的隐式特征表示,通过深度神经网路对话模型的知识解释器,得到头实体的特征表示和头实体对应的尾实体特征表示。

基于上述任一实施例,在所述将待回复文本样本序列输入深度神经网路对话模型的双向编码器,得到所述待回复文本样本序列的隐式特征表示的步骤之后,所述方法还包括:

在根据所述待回复文本样本序列中的实体,检索不到所述实体对应的知识图谱的情况下,根据预存的知识图谱中任一实体的实体关系特征表示和所述待回复文本样本序列的隐式特征表示,得到所述任一实体的第一特征表示;

根据所述任一实体的第一特征表示,得到所述任一实体的第二特征表示;

将所述任一实体的第一特征表示、所述任一实体的第二特征表示和预存的词表中通用词的特征表示,输入所述深度神经网路对话模型的解码器,得到所述待回复文本样本序列的回复文本序列。

具体地,在本发明的实施例中,虽然上述实施例方法能够表示与待回复文本样本序列相关的知识实体,但它不能建模知识图谱中与待回复文本样本序列中提到的实体不存在任何路径连接的实体,即通过待回复文本样本序列中提到的实体词,无法从知识库中的知识图谱里检索到相关知识子图。

为此,在本发明的实施例中,为了能够表示和应用这种与待回复文本样本序列中实体无法关联的知识实体,利用预存的知识图谱,对其中任一实体i,计算与实体i相连的|g

进一步地,根据实体i的第一特征表示,通过MLP参数网络,得到实体i的第二特征表示

其中,整个实体表示计算的过程都是通过注意力机制进行的,其计算过程如下:

其中,h

在本发明的实施例中,

进一步地,将实体i的第一特征表示

在本发明的实施例中,解码器g

s

其中,s

进一步地,为了生成信息丰富知识相关的对话回复,通过解码器g

P

其中,

通过本发明实施例的方法,根据待回复文本样本序列的隐式特征表示和预存的知识图谱中任一实体的实体关系特征表示,基于深度神经网络对话模型,得到所述待回复文本样本序列的回复文本序列,解决了由待回复文本序列中的实体检索不到对应的知识图谱时无法使用知识图谱中的实体表示的技术问题。

基于上述任一实施例,在所述将待回复文本序列输入训练好的深度神经网路对话模型的步骤之前,所述方法还包括:

将待回复文本样本序列和所述待回复文本样本序列携带的真实回复文本序列标签作为一组对话训练样本,获取多组对话训练样本;

利用所述多组对话训练样本,对深度神经网络对话模型进行训练。

具体地,在将待回复文本序列输入训练好的深度神经网路对话模型之前,还需对深度神经网路对话模型进行训练,具体训练过程如下:

将待回复文本样本序列和所述待回复文本样本序列携带的真实回复文本序列标签作为一组对话训练样本,即将每个带有真实回复文本序列标签的待回复文本样本序列作为一组训练样本,由此即可获得多组训练样本。

在本发明的实施例中,待回复文本样本序列与待回复文本样本序列携带的真实回复文本序列标签是一一对应的。

然后,在获得多组训练样本之后,再将多组训练样本依次输入至深度神经网络对话模型,即将每组训练样本中的待回复文本样本序列和真实回复文本序列标签同时输入至深度神经网络对话模型,根据深度神经网络对话模型的每一次输出结果,通过计算损失函数值,对深度神经网络中的模型参数进行调整,最终完成深度神经网络对话模型的训练过程。

通过本发明实施例的方法,将待回复文本样本序列和待回复文本样本序列携带的真实回复文本序列标签作为一组对话训练样本,利用多组训练样本对深度神经网络对话模型进行模型训练。

基于上述任一实施例,利用所述多组对话训练样本和储存的知识图谱实体关系的特征表示数据集,对深度神经网络对话模型进行训练的步骤,具体包括:

对于任意一组对话训练样本,将所述对话训练样本输入深度神经网络对话模型,输出所述对话训练样本对应的预测概率;

利用预设损失函数,根据所述对话训练样本对应的预测概率和所述对话训练样本中的真实回复文本序列标签计算损失值;

若所述损失值小于预设阈值,则所述深度神经网络对话模型训练完成。

具体地,在获得多组训练样本之后,对于任意一组训练样本,将该训练样本中的待回复文本样本序列和真实回复文本序列标签同时输入至深度神经网络对话模型,输出该训练样本对应的预测概率,其中预测概率指的是该训练样本针对不同回复文本序列对应的预测概率。

在本发明的实施例中,预设损失函数指的是预先设置在深度神经网络对话模型里的损失函数,用于模型评估;预设阈值指的是模型预先设置的阈值,用于获得最小损失值,完成模型训练。

在此基础上,利用预设损失函数根据训练样本对应的预测概率和训练样本中的真实回复文本序列标签计算损失值。其中,预设损失函数是训练语料中预测的知识实体或通用词的生成概率分布P(y

其中,预设损失函数定义为:

其中,q

进一步地,在计算获得损失值之后,本次训练过程结束,再利用随机梯度下降算法(Stochastic Gradient Descent;SGD)更新深度神经网络对话模型中的模型参数,之后再进行下一次训练。在训练的过程中,若针对某组训练样本计算获得的损失值小于预设阈值,则深度神经网络对话模型训练完成。

本发明实施例的方法,通过对深度神经网络对话模型进行训练,将深度神经网络对话模型的损失值控制在预设的范围内,从而有利于提高深度神经网络对话模型输出回复文本的准确性。

图2是本发明实施例提供的知识驱动的对话模型整体框架示意图,如图2所示,本发明的知识驱动的对话模型主要由编码器、知识解释器和解码器三个单元构成的。

如图2所示,待回复文本序列X可以为“What is the next book by ChuckPalahniuk after Pygmy?”,将待回复文本序列X输入深度神经网络对话模型的编码器Encoder,对待回复文本序列进行去词汇化Delexicalization处理,使用占位符[MASK1]覆盖序列倒数第1个实体词Pygmy,占位符[MASK2]覆盖序列倒数第2个实体词ChuckPalahniuk,经过对去词汇化处理的待回复文本序列进行双向编码,得到隐式特征表示H=(h

进一步地,通过待回复文本序列X中的头实体Chuck Palahniuk,可以从知识库中检索到其对应的知识子图,如图2的左侧所示。将隐式特征表示H=(h

根据头实体Chuck Palahniuk的特征表示

通过本发明实施例的方法,可以提供一种基于实体泛化性表示学习(Entity-Agnostic Representation Learning;EARL)的知识驱动的对话模型,能够学习知识图谱中实体的泛化性表示,并且生成具有恰当语义和丰富信息量的对话回复。

图3是本发明提供的知识驱动的对话生成装置的结构示意图,如图3所示,包括:

回复文本生成模块310,用于将待回复文本序列输入训练好的深度神经网路对话模型,得到所述待回复文本的回复文本序列;

其中,所述深度神经网路对话模型储存有知识图谱实体关系的特征表示数据集;

其中,所述训练好的深度神经网路对话模型是根据携带真实回复文本序列标签的待回复文本样本序列和所述知识图谱实体关系的特征表示数据集进行训练后得到的。

通过本发明的知识驱动的对话生成装置,根据待回复文本中的非结构化信息和知识图谱的结构化信息,基于训练好的深度神经网络对话模型,计算出知识图谱中的实体表示,可以更高效地应用知识图谱来生成具有恰当语义和丰富信息量的对话回复。

本实施例所述的知识驱动的对话生成装置可以用于执行上述方法实施例,其原理和技术效果类似,此处不再赘述。

图4是本发明提供的电子设备的结构示意图,如图4所示,该电子设备可以包括:处理器(processor)410、通信接口(Communications Interface)420、存储器(memory)430和通信总线440,其中,处理器410,通信接口420,存储器430通过通信总线440完成相互间的通信。处理器410可以调用存储器430中的逻辑指令,以执行所述知识驱动的对话生成方法,该方法包括:将待回复文本序列输入训练好的深度神经网路对话模型,得到所述待回复文本的回复文本序列;其中,所述深度神经网路对话模型储存有知识图谱实体关系的特征表示数据集;其中,所述训练好的深度神经网路对话模型是根据携带真实回复文本序列标签的待回复文本样本序列和所述知识图谱实体关系的特征表示数据集进行训练后得到的。

此外,上述的存储器430中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。

另一方面,本发明还提供一种计算机程序产品,所述计算机程序产品包括存储在非暂态计算机可读存储介质上的计算机程序,所述计算机程序包括程序指令,当所述程序指令被计算机执行时,计算机能够执行上述各方法所提供的所述知识驱动的对话生成方法,该方法包括:将待回复文本序列输入训练好的深度神经网路对话模型,得到所述待回复文本的回复文本序列;其中,所述深度神经网路对话模型储存有知识图谱实体关系的特征表示数据集;其中,所述训练好的深度神经网路对话模型是根据携带真实回复文本序列标签的待回复文本样本序列和所述知识图谱实体关系的特征表示数据集进行训练后得到的。

又一方面,本发明还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现以执行上述各方法提供的所述知识驱动的对话生成方法,该方法包括:将待回复文本序列输入训练好的深度神经网路对话模型,得到所述待回复文本的回复文本序列;其中,所述深度神经网路对话模型储存有知识图谱实体关系的特征表示数据集;其中,所述训练好的深度神经网路对话模型是根据携带真实回复文本序列标签的待回复文本样本序列和所述知识图谱实体关系的特征表示数据集进行训练后得到的。

以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。

通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。

最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

相关技术
  • 一种知识驱动的对话生成方法及装置
  • 基于知识库的对话生成方法、装置、终端及存储介质
技术分类

06120113066715