掌桥专利:专业的专利平台
掌桥专利
首页

人机对话控制方法、装置、设备及存储介质

文献发布时间:2024-04-18 19:58:26


人机对话控制方法、装置、设备及存储介质

技术领域

本申请属于数据处理领域,尤其涉及一种人机对话控制方法、装置、设备及存储介质。

背景技术

随着电子信息技术的不断发展,人机对话被应用于越来越多的应用场景中,如智能客服、智能助理等场景。可采用大语言模型(Large Language Model,LLM)来实现人机对话,大语言模型是基于机器学习和自然语言处理技术的模型,通过大量的文本数据进行训练,来学习服务人类语言理解和生成的能力。但大语言模型存在模型幻觉问题,导致大语言模型根据问题提供的答案会出现逻辑或事实性错误,降低了人机对话获取答案的准确性。

发明内容

本申请实施例提供一种人机对话控制方法、装置、设备及存储介质,能够提高人机对话获取答案的准确性。

第一方面,本申请实施例提供一种人机对话控制方法,包括:获取问题文本的文本向量;利用文本向量,按照信息熵由高至低的顺序,在预设的向量知识库中的多个向量子库中进行匹配,得到第一匹配结果,不同向量子库中的向量对应的文本的类型不同;根据问题文本、第一匹配结果和预设的提示词生成准则,生成第一提示词;将第一提示词输入预先训练的大语言模型,将大语言模型的输出结果确定为与问题文本对应的目标答案文本。

第二方面,本申请实施例提供一种人机对话控制装置,包括:向量获取模块,用于获取问题文本的文本向量;第一匹配模块,用于利用文本向量,按照信息熵由高至低的顺序,在预设的向量知识库中的多个向量子库中进行匹配,得到第一匹配结果,不同向量子库中的向量对应的文本的类型不同;提示词生成模块,用于根据问题文本、第一匹配结果和预设的提示词生成准则,生成第一提示词;大语言处理模块,用于将第一提示词输入预先训练的大语言模型,将大语言模型的输出结果确定为与问题文本对应的目标答案文本。

第三方面,本申请实施例提供一种电子设备,包括:处理器以及存储有计算机程序指令的存储器;处理器执行计算机程序指令时实现第一方面的人机对话控制方法。

第四方面,本申请实施例提供一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序指令,计算机程序指令被处理器执行时实现第一方面的人机对话控制方法。

本申请实施例提供一种人机对话控制方法、装置、设备及存储介质,能够先获取问题文本,利用问题文本的文本向量,按照信息熵由高至低的顺序,在预设的向量知识库中与多个向量子库中的向量进行匹配,得到第一匹配结果。由于按照信息熵由高至低的顺序匹配,第一匹配结果中的内容为传递的信息量相对更高的内容。利用提示词生成准则对提示词进行优化,将包括优化的内容、作为问题文本的上下文的第一匹配结果和问题文本一同输入大语言模型,利用第一匹配结果和优化的内容抑制大语言模型的发散性,从而改善模型幻觉问题,使得大语言模型输出更为准确的答案文本,提高人机对话获取答案的准确性。

附图说明

为了更清楚地说明本申请实施例的技术方案,下面将对本申请实施例中所需要使用的附图作简单的介绍,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。

图1为本申请一实施例提供的人机对话控制方法的流程图;

图2为本申请另一实施例提供的人机对话控制方法的流程图;

图3为本申请又一实施例提供的人机对话控制方法的流程图;

图4为本申请实施例提供的人机对话控制的一示例的逻辑示意图;

图5为本申请一实施例提供的人机对话控制装置的结构示意图;

图6为本申请一实施例提供的电子设备的结构示意图。

具体实施方式

下面将详细描述本申请的各个方面的特征和示例性实施例,为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及具体实施例,对本申请进行进一步详细描述。应理解,此处所描述的具体实施例仅意在解释本申请,而不是限定本申请。对于本领域技术人员来说,本申请可以在不需要这些具体细节中的一些细节的情况下实施。下面对实施例的描述仅仅是为了通过示出本申请的示例来提供对本申请更好的理解。需要说明的是,本申请实施例中对信息、数据的获取、存储、使用、处理等均得到用户或相关机构的授权,符合国家法律法规的相关规定。

随着电子信息技术的不断发展,人机对话被应用于越来越多的应用场景中,如智能客服、智能助理等场景。可采用大语言模型(Large Language Model,LLM)来实现人机对话,大语言模型是基于机器学习和自然语言处理技术的模型,通过大量的文本数据进行训练,来学习服务人类语言理解和生成的能力。但大语言模型会存在模型幻觉问题,导致大语言模型根据问题提供的答案会出现逻辑或事实性错误,降低了人机对话获取答案的准确性。

本申请实施例提供一种人机对话控制方法、装置、设备及存储介质,能够先获取问题文本,利用问题文本的文本向量,按照信息熵由高至低的顺序,在预设的向量知识库中与多个向量子库中的向量进行匹配,得到匹配结果,将匹配结果作为问题文本的上下文和问题文本一同输入大语言模型,利用匹配结果抑制大语言模型的发散性,从而降低模型幻觉问题出现的可能性,得到大语言模型输出的更为准确的答案文本,提高人机对话获取答案的准确性。

下面对本申请提供的人机对话控制方法、装置、设备及存储介质分别进行说明。

本申请第一方面提供一种人机对话控制方法,可应用于智能客服、智能助理等需要人机对话的场景中。该人机对话控制方法可由人机对话控制装置、电子设备等执行,在此并不限定。图1为本申请一实施例提供的人机对话控制方法的流程图,如图1所示,该人机对话控制方法可包括步骤S101至步骤S104。

在步骤S101中,获取问题文本的文本向量。

可根据用户的输入,获取问题文本即query,再利用预设的向量化模型,将问题文本转换为文本向量。用户的输入可包括文本输入,也可包括语音输入。若用户的输入包括文本输入,可直接从用户输入的文本中提取问题文本;若用户的输入包括语音输入,可先将用户输入的语音转换为文本,再从文本中提取问题文本。向量化模型可根据语言环境、序列长度、相似度函数等方面选取,在此并不限定。

在步骤S102中,利用文本向量,按照信息熵由高至低的顺序,在预设的向量知识库中的多个向量子库中进行匹配,得到第一匹配结果。

向量知识库可包括多个向量子库,每个向量子库包括至少一个向量,不同向量子库中的向量对应的文本类型不同,不同文本类型对应的向量的信息熵也不同,可将文本类型对应的向量的信息熵作为向量子库对应的信息熵。信息熵越高,能够传递的信息量越高。按照信息熵由高至低的顺序,依次在各向量子库中进行匹配。例如,向量知识库包括3个向量子库,按照向量子库对应的信息熵由高至低的顺序排列,3个向量子库分别为向量子库1、向量子库2和向量子库3,则文本向量先与向量子库1中的向量匹配,再与向量子库2中的向量匹配,再与向量子库3中的向量匹配。

文本向量在向量子库中进行匹配,具体为文本向量与向量子库中的向量进行匹配,匹配可通过计算文本向量与向量子库中的向量的匹配度参数实现。匹配度参数可表征匹配度,匹配度参数可与匹配度呈正相关或负相关,在此并不限定。匹配度可视为相似度,相似度与匹配度呈正相关关系,相似度越高,匹配度越高。在一些示例中,匹配可通过欧式距离算法、内积算法、余弦相似度算法等实现,但匹配并不限于上述算法。

利用文本向量在多个向量子库中匹配得到的第一匹配结果可包括在多个向量子库中匹配成功的向量对应的文本,且文本也对应按照文本类型的信息熵由高至低的顺序排序。第一匹配结果可包括多个向量子库中与文本向量匹配成功的向量对应的文本。通过第一匹配结果可得到与问题文本关联的传递的信息量相对更高的文本。

在步骤S103中,根据问题文本、第一匹配结果和预设的提示词生成准则,生成第一提示词。

第一提示词即prompt可包括问题文本、第一匹配结果和根据提示词生成准则生成的其他文本。在第一提示词中,第一匹配结果作为问题文本的上下文。提示词生成准则可用于优化提示词,提示词生成准则可使得生成的第一提示词相较于只包括问题文本和第一匹配结果的提示词更为优化,提高生成的提示词的质量。

在步骤S104中,将第一提示词输入预先训练的大语言模型,将大语言模型的输出结果确定为与问题文本对应的目标答案文本。

第一提示词作为大语言模型的输入,大语言模型对第一提示词进行分析,进而输出输出结果。大语言模型的输出结果包括答案文本。目标答案文本包括大语言模型输出的与问题文本对应的答案本文。第一提示词中第一匹配结果作为问题文本的上下文,且第一提示词是经提示词生成准则优化后的提示词,该第一提示词作为大语言模型的输入,可抑制大语言模型的输出结果的发散性,从而降低大语言模型出现模型幻觉问题的概率。

在本申请实施例中,能够先获取问题文本,利用问题文本的文本向量,按照信息熵由高至低的顺序,在预设的向量知识库中与多个向量子库中的向量进行匹配,得到第一匹配结果。由于按照信息熵由高至低的顺序匹配,第一匹配结果中的内容为传递的信息量相对更高的内容。利用提示词生成准则对提示词进行优化,将包括优化的内容、作为问题文本的上下文的第一匹配结果和问题文本一同输入大语言模型,利用第一匹配结果和优化的内容抑制大语言模型的发散性,从而改善模型幻觉问题,使得大语言模型输出更为准确的答案文本,提高人机对话获取答案的准确性。与传统的FAQ问答方式的人机对话相比,本申请实施例中的人机对话控制方法不需投入大量人力梳理获取大量垂直深度的FAQ的问答对,即可保证人机对话获取答案的准确性,节省了人力成本,也提高了人机对话控制系统的建立效率。

在一些实施例中,向量知识库可包括常用问题解答向量子库、摘要文本向量子库和原始文本向量子库,可在这三种向量子库中进行匹配,从而得到第一匹配结果。可根据提示词生成准则生成优化文本,将优化文本作为提示词中的一部分。图2为本申请另一实施例提供的人机对话控制方法的流程图,图2与图1的不同之处在于,图1中的步骤S202可具体细化为步骤S2021至步骤S2023,图1中的步骤S203可具体细化为步骤S2031和步骤S2032。

在步骤S1021中,利用文本向量依次在常用问题解答向量子库、摘要文本向量子库和原始文本向量子库中进行匹配,得到文本向量与常用问题解答向量子库、摘要文本向量子库和原始文本向量子库中向量的匹配度参数。

常用问题解答向量子库中的向量可基于常用问题解答对转换得到。常用问题解答对包括常用问题节点的问题和对应的答案。在具有存量的常用问题解答对的情况下,如,在具有常用问题解答机器人的标准问答对、专家问答对等的情况下,可根据存量的常用问题解答对形成常用问题解答向量子库;在不具有存量的常用问题解答对的情况下,也可预先利用大语言模型来提取常用问题解答对,需要说明的是,提取常用问题解答对的大语言模型与上述实施例中输入为第一提示词、输出为目标答案文本的大语言模型不同,是另一种大语言模型。在一些示例中,常用问题解答向量子库包括按照知识点分割的常用问题解答对转换得到的第一知识向量,可将常用问题解答对按照知识点分割,再经过向量转换,得到第一知识向量。例如,常用问题解答对中的一个问题和该问题对应的答案可划分为一个知识点,该知识点转换得到的向量为第一知识向量。

摘要文本向量子库中的向量可基于摘要本文转换得到。摘要文本为原始文本的摘要,可在数据处理阶段基于原始文档,采用文本摘要化方法处理得到,在此并不限定具体的文本摘要化方法。例如,可采用抽取式的文本摘要化方法,如TextRank方法,将原始文本分割为单个句子,计算句子之间的相似度,根据句子之间的相似度,构造无向有权边,句子可视为节点,句子之间的相似度即为句子之间的无向有权边,利用无向有权边对应的相似度得到节点的值即句子对应的值,选取值最高的多个句子形成摘要。又例如,可采用生成式的文本摘要化方法,可将原始文本输入生成式的大语言模型,如Transformer模型,将大语言模型输出的文本作为摘要文本,需要说明的是,用于得到摘要文本的大语言模型与上述实施例中输入为第一提示词、输出为目标答案文本的大语言模型,以及用于提取常用问题解答对的大语言模型不同。在一些示例中,摘要文本向量子库包括按照知识点分割的摘要文本转换得到的第二知识向量,可将摘要文本按照知识点分割,再经过向量转换,得到第二知识向量。例如,摘要文本中一个大标题下的多个小标题可划分为一个知识点,该知识点转换得到的向量为第二知识向量。

原始文本向量子库中的向量可基于原始文本转换得到。可按照段落、标点符号或定长分割原始文档,得到句子,再将句子转换为向量,形成原始文本向量子库,即,原始文本向量子库包括原始文本的句向量。

在上述常用问题解答向量子库、摘要文本向量子库和原始文本向量子库中,常用问题解答向量子库的信息熵最高,其次是摘要文本向量子库,再次是原始文本向量子库。在匹配过程中,先利用文本向量与常用问题解答向量子库中的向量进行匹配,再利用文本向量与摘要文本向量子库中的向量进行匹配,之后再利用文本向量与原始文本向量子库中的向量进行匹配。信息熵越高所能传递的信息量就越高,信息熵高的内容有助于人机对话整体准确率的提升。例如,对于问题文本“非备案人员出国证件领用分为集中情况”,利用原始文本进行人机对话得到的答案文本为“根据问题,非备案人员出国证件领用分为以下几种情况:1.利用年休假出行:非备案人员若利用年休假因私出国(境)的,需要在出行前至少XX个工作日在流程中提起请休假流程,待审批通过后才能在办理签证(签注)前XX日内领用因私出国(境)证件,同时在办理完毕后XX日内交回。2.利用法定节假日出行(不涉及请假):非备案人员若利用法定节假日因私出国(境)的,需要在出行前XX个工作日填写因私出国(境)证件领用单,提出申请。待审批通过后,才能在办理签证(签注)前XX日内领用因私出国(境)证件。需要注意的是,在出行前需要在此确认因私出国(境)的时间和形成,以免出现误操作”;而利用摘要文本进行人机对话得到的答案文本为“根据问题,非备案人员出国证件领用分为以下几种情况:(一)利用年休假出行;(二)利用法定节假日出行(不涉及请休假);(三)办理签证(签注);(四)其他用途”。由上可见,由于原始文本的长度过长,原始文本的信息熵低于摘要文本的信息熵,原始文本传递的信息量要低于摘要文本传递的信息量,对原始文档的截取容易出现错误,导致利用原始文本进行人机对话得到的答案文本有误,并未回答全面。由此可进一步说明,信息熵高的内容有助于人机对话整体准确率的提升。

文本向量与另一向量的匹配度参数可表征文本向量与另一向量的匹配度。在一些示例中,匹配度可实现为相似度,匹配度越高,相似度越高,即,匹配度参数可表征相似度。得到匹配度参数的算法可包括欧式距离算法、内积算法、余弦相似度算法等。例如,以匹配度参数的算法包括余弦相似度算法为例,文本向量与常用问题解答向量子库、摘要文本向量子库和原始文本向量子库中任一向量子库中的任一向量的匹配度参数可根据下式(1)和(2)计算得到:

VectorStore

其中,cos(θ)为余弦相似度;QueryVector为问题文本的文本向量;VectorStore

在步骤S1022中,根据匹配度参数和预设的匹配度阈值,在常用问题解答向量子库、摘要文本向量子库和原始文本向量子库中确定匹配向量。

匹配度阈值为用于判断是否匹配成功的阈值。若匹配度参数表征的匹配度大于等于匹配度阈值,表示匹配成功;若匹配度参数表征的匹配度小于匹配度阈值,表示匹配失败。按照信息熵由高至低的顺序,依次在常用问题解答向量子库、摘要文本向量子库和原始文本向量子库中确定匹配向量。匹配向量的匹配度参数表征的匹配度大于等于匹配度阈值,即,匹配向量包括常用问题解答向量子库、摘要文本向量子库和原始文本向量子库中与文本向量匹配成功的向量。

在步骤S1023中,将匹配向量对应的文本确定为第一匹配结果。

第一匹配结果包括匹配向量对应的文本。第一匹配结果中的至少部分会作为用于输出目标答案文本的大语言模型的输入的一部分。

在步骤S1031中,基于提示词生成准则,生成优化文本。

优化文本可作为用于输出目标答案文本的大语言模型的输入的一部分,能够提升大语言模型输出的目标答案文本的准确性。优化文本包括对提示词起到优化作用的文本。

在一些示例中,优化文本可包括场景设定文本、角色设定文本、真实性条件设定文本中的一者或两者以上。场景设定文本可用于限定第一提示词中的场景,从而利用场景限制大语言模型的发散性。角色设定文本用于限定第一提示词中的角色,从而利用角色限制大语言模型的发散性。真实性条件设定本文用于对大语言模型的输出的真实性进行限定,从而避免大语言模型的模型幻觉问题。

例如,在问题文本为“非备案人员若利用年休假出国怎么领用证件”的情况下,根据提示词生成准则,生成的角色设定文本可为“请你扮演一名专业的QA问题测试人员,根据已知信息回答用户问题”,生成的场景设定文本可为“已知信息中与问题无关的部分,请给予忽略,不要出现在回答里”,生成的真实性条件设定文本可为“答案从已知信息中抽取,不允许在答案中添加编造成分,不允许计算”。

在步骤S1032中,按照提示词生成准则,根据第一匹配结果中的至少部分、问题文本和优化文本,生成第一提示词。

可按照提示词生成准则,组合第一匹配结果中的至少部分、问题文本和优化文本,生成第一提示词。第一提示词包括第一匹配结果中的至少部分、问题文本和优化文本。其中,第一提示词的长度小于等于大语言模型的输入要求长度。第一提示词的长度可具体实现为第一提示词的字数,例如,第一提示词的长度要求可如下式(3)所示:

其中,Store

在一些示例中,第一提示词包括的第一匹配结果对应的匹配向量的数量小于等于预设的匹配数量。还可通过匹配向量的数量来限制第一提示词中包括第一匹配结果中的哪些内容。匹配数量可根据场景、需求、经验等设定,在此并不限定。例如,若第一匹配结果包括常用问题解答向量子库中一匹配向量对应的文本、摘要文本向量子库中一匹配向量对应的文本和原始文本向量库中一匹配向量对应的文本,匹配数量为1,则第一提示词包括常用问题解答向量子库中这一匹配向量对应的文本,但不包括摘要文本向量子库中这一匹配向量对应的文本和原始文本向量库中这一匹配向量对应的文本。

在一些示例中,第一匹配结果中的至少部分可作为第一提示词中的已知信息,从而将第一匹配结果中的至少部分作为问题文本的上下文。第一提示词中的第一匹配结果、优化文本和问题文本之间可通过间隔符间隔,从而区分各部分内容,更加便于大语言模型理解输入。

将第一提示词中第一匹配结果中的至少部分作为问题文本的上下文,可限制大语言模型的发散性,提高大语言模型输出的目标答案文本的准确性。而通过优化文本的加入,以及利用利用间隔符将示词中的第一匹配结果、优化文本和问题文本间隔,也可进一步提升大语言模型输出的目标答案文本的准确性。

例如,第一匹配结果中的至少部分为“(一)利用年休假出行:非备案人员若利用年休假因私出国(境)的,须至少于出行前XX个工作日在流程中提起请休假流程,待审批通过后,可在办理签证(签注)前XX日内领用因私出国(境)证件,办理完毕后XX日内交回,在出国(境)前XX日内再次领用”,问题本文为“非备案人员若利用年休假出国怎么领用证件”。

若第一提示词只包括第一匹配结果的至少部分和问题文本,生成的第一提示词为:

“已知信息:

(一)利用年休假出行:非备案人员若利用年休假因私出国(境)的,须至少于出行前XX个工作日在流程中提起请休假流程,待审批通过后,可在办理签证(签注)前XX日内领用因私出国(境)证件,办理完毕后XX日内交回,在出国(境)前XX日内再次领用。

请回答问题,问题是:非备案人员若利用年休假出国怎么领用证件”。

将该第一提示词输入大语言模型,大语言模型输出的答案文本为“非备案人员若利用年休假出国,应在出行前至少于出行前XX个工作日在流程中提起请休假流程,待审批通过后,在办理签证(签注)前XX日内领用因私出国(境)证件。具体流程如下:1.在流程中提出休假申请,并提交相关证明材料,如护照、签证等。2.在申请审批通过后,前往当地出国(境)部分办理签证(签注)手续。3.在办理签证(签注)手续前XX日内,前往当地出国(境)部门领用因私出国(境)证件。4.在出国(境)前XX日内,再次前往当地出国(境)部门交回因私出国(境)证件。需要注意的是,非备案人员出国需要提前了解当地出国(境)部门的规定和要求,并按照相关规定办理手续,以免出现不必要的麻烦”。

而利用本申请实施例中人机对话控制方法得到的第一提示词为:

“已知信息:

{(一)利用年休假出行:非备案人员若利用年休假因私出国(境)的,须至少于出行前XX个工作日在流程中提起请休假流程,待审批通过后,可在办理签证(签注)前XX日内领用因私出国(境)证件,办理完毕后XX日内交回,在出国(境)前XX日内再次领用}

请你请你扮演一名专业的QA问题测试人员,根据已知信息回答用户问题。答案从已知信息中抽取,不允许在答案中添加编造成分,不允许计算。已知信息中与问题无关的部分,请给予忽略,不要出现在回答里。

问题是:{非备案人员若利用年休假出国怎么领用证件}”。

将该第一提示词输入大语言模型,大语言模型输出的答案文本为“非备案人员若利用年休假出国,需要在出行前至少XX个工作日在流程中提起请休假流程,待审批通过后,可以在办理签证(签注)前XX日领用因私出国(境)证件。在办理完毕后XX日内交回,并在出国前再次领用”。

由上对比可得,采用本申请实施例提供的人机对话控制方法所得到的目标答案文本更加准确,更忠于标准答案。

在一些实施例中,为了提高人机对话效率,还可在获取问题文本的文本向量,利用文本向量与向量子库进行匹配之前,先利用常用问题解答机器人进行人机对话。图3为本申请又一实施例提供的人机对话控制方法的流程图,图3与图1的不同之处在于,图3所示的人机对话控制方法还可包括步骤S105和步骤S106,图1中的步骤S101可具体细化为图3中的步骤S1011。

在步骤S105中,将问题文本输入常用问题解答机器人。

在将问题文本转换为文本向量与向量知识库进行匹配之前,可先将问题文本输出常用问题解答机器人,确定常用问题解答机器人是否能够给出问题文本的答案文本。常用问题解答机器人可根据问题文本查询自身预先存储的常用问题解答对。对于问题文本而言,常用问题解答机器人存在两种执行结果,一种执行结果是能够在预先存储的常用问题解答对中查找得到问题文本对应的答案文本,则反馈该答案文本;另一种执行结果是不能在预先存储的常用问题解答对中查找得到问题文本对应的答案文本,则可反馈表征无法解答的信息。

在步骤S106中,若常用问题解答机器人反馈答案文本,则将反馈的答案文本确定为与问题文本对应的目标答案文本。

常用问题解答机器人预先存储的常用问题解答对的信息熵较高,若常见问题解答机器人能够反馈问题文本对应的答案文本,则该答案文本的准确性较高,可将该答案文本作为目标答案文本。在常用问题解答机器人能够反馈答案文本的情况下,该种处理比利用文本向量在向量知识库中进行匹配的处理方式速度更快,可提高人机对话的效率。

在步骤S1011中,若常用问题解答机器人未反馈答案文本,则获取问题文本的文本向量。

若常见问题解答机器人不能反馈问题文本对应的答案文本,则单纯依靠常用问题解答机器人不能得到目标答案文本,需要利用问题文本的文本向量在向量知识库中进行匹配,如步骤S102至步骤S104,借助向量指示库和大语言模型得到目标答案文本。

在向量知识库匹配和大语言模型处理之前,可利用常见问题解答机器人来对问题文本进行过滤,常见问题解答机器人无法获取答案文本的问题文本再进行向量知识库匹配和大语言模型处理,以进一步提高人机对话的效率。

为了便于理解,下面以一示例对人机对话的逻辑流程进行说明。图4为本申请实施例提供的人机对话控制的一示例的逻辑示意图,如图4所示,可对原始文本进行摘要化处理,得到摘要文本,常用问题解答对、原始文本和摘要文本可通过嵌入层即Embedding层将文本转换为向量并存放在向量知识库即VectorStore。可先将问题文本即Query输入常用问题解答机器人即FAQBot,确定常用问题解答机器人是否可反馈答案文本,若常用问题解答机器人可反馈答案文本,则可将常用问题解答机器人反馈的答案文本作为问题文本对应的目标答案文本。若常用问题解答机器人不能反馈答案文本,则可将问题文本通过嵌入层转换为问题文本的文本向量即QueryVector,文本向量可在向量知识库中进行匹配,得到第一匹配结果。第一匹配结果可进入提示词处理过程,输出第一提示词作为大语言模型的输入,将大语言模型的输出结果作为问题文本对应的目标答案文本。

在一些实施例中,某些模式的问题文本也可跳过向量知识库的匹配,采用其他效率更高的匹配方法。可确定问题文本是否符合预设的匹配条件;若问题文本符合预设的匹配条件,则采用匹配条件对应的匹配方法对问题文本进行匹配,得到第二匹配结果;根据问题文本、第二匹配结果和提示词生成准则,生成第二提示词;将第二提示词输入大语言模型,将大语言模型的输出结果确定为目标答案文本。

匹配条件可用于确定更适用其他匹配方法的问题文本。符合匹配条件的问题文本采用匹配条件对应的匹配方法进行匹配的效率高于问题文本采用向量知识库进行匹配的效率,在这种情况下,可选择效率更高的匹配方法进行问题文本的匹配。第二匹配结果包括问题文本采用匹配条件对应的匹配方法进行匹配得到的匹配结果。根据问题文本、第二匹配结果和提示词生成准则可生成第二提示词,第二提示词的生成方法与上述实施例中第一提示词的生成方法类似,在此不再赘述。根据提示词生成准则可生成优化文本,第二提示词可包括问题文本、第二匹配结果和优化文本。例如,问题文本为单个字符的关键词,则可使用倒排索引搜索方法得到第二匹配结果,根据问题文本、第二匹配结果和提示词生成准则,生成第二提示词,将第二提示词输入大语言模型进行处理。

在一些实施例中,若文本向量与常用问题解答向量子库、摘要文本向量子库和原始文本向量子库中向量的匹配度参数表征的匹配度均小于匹配度阈值,则将问题文本输入大语言模型,将大语言模型的输出结果确定为目标答案文本。

文本向量与常用问题解答向量子库、摘要文本向量子库和原始文本向量子库中向量的匹配度参数表征的匹配度均小于匹配度阈值,表示与问题文本对应的答案文本并不在知识向量库对应的各类文本中,可将问题文本直接输入大语言模型,利用大语言模型自身能力进行开放域问答,以保证得到的目标答案文本相对准确、客观。

本申请第二方面提供一种人机对话控制装置。图5为本申请一实施例提供的人机对话控制装置的结构示意图,如图5所示,该人机对话控制装置200可包括向量获取模块201、第一匹配模块202、提示词生成模块203和大语言处理模块204。

向量获取模块201可用于获取问题文本的文本向量。

第一匹配模块202可用于利用文本向量,按照信息熵由高至低的顺序,在预设的向量知识库中的多个向量子库中进行匹配,得到第一匹配结果,不同向量子库中的向量对应的文本的类型不同。

提示词生成模块203可用于根据问题文本、第一匹配结果和预设的提示词生成准则,生成第一提示词。

大语言处理模块204可用于将第一提示词输入预先训练的大语言模型,将大语言模型的输出结果确定为与问题文本对应的目标答案文本。

在本申请实施例中,能够先获取问题文本,利用问题文本的文本向量,按照信息熵由高至低的顺序,在预设的向量知识库中与多个向量子库中的向量进行匹配,得到第一匹配结果。由于按照信息熵由高至低的顺序匹配,第一匹配结果中的内容为传递的信息量相对更高的内容。利用提示词生成准则对提示词进行优化,将包括优化的内容、作为问题文本的上下文的第一匹配结果和问题文本一同输入大语言模型,利用第一匹配结果和优化的内容抑制大语言模型的发散性,从而改善模型幻觉问题,使得大语言模型输出更为准确的答案文本,提高人机对话获取答案的准确性。与传统的FAQ问答方式的人机对话相比,本申请实施例中的人机对话控制方法不需投入大量人力梳理获取大量垂直深度的FAQ的问答对,即可保证人机对话获取答案的准确性,节省了人力成本,也提高了人机对话控制系统的建立效率。

在一些实施例中,向量知识库包括常用问题解答向量子库、摘要文本向量子库和原始文本向量子库。第一匹配模块202可具体用于:利用文本向量依次在常用问题解答向量子库、摘要文本向量子库和原始文本向量子库中进行匹配,得到文本向量与常用问题解答向量子库、摘要文本向量子库和原始文本向量子库中向量的匹配度参数;根据匹配度参数和预设的匹配度阈值,在常用问题解答向量子库、摘要文本向量子库和原始文本向量子库中确定匹配向量,匹配向量的匹配度参数表征的匹配度大于等于匹配度阈值;将匹配向量对应的文本确定为第一匹配结果。

在一些示例中,常用问题解答向量子库包括按照知识点分割的常用问题解答对转换得到的第一知识向量。摘要文本向量子库包括按照知识点分割的摘要文本转换得到的第二知识向量。原始文本向量子库包括原始文本的句向量。

在一些实施例中,提示词生成模块203可具体用于:基于提示词生成准则,生成优化文本;按照提示词生成准则,根据第一匹配结果中的至少部分、问题文本和优化文本,生成第一提示词,第一提示词的长度小于等于大语言模型的输入要求长度。

在一些示例中,第一提示词包括的第一匹配结果对应的匹配向量的数量小于等于预设的匹配数量。优化文本包括场景设定文本、角色设定文本、真实性条件设定文本中的一者或两者以上。第一匹配结果中的至少部分为第一提示词中的已知信息。第一提示词中的第一匹配结果、优化文本和问题文本之间通过间隔符间隔。

在一些实施例中,该人机对话控制装置200还可包括决策模块。决策模块可用于:将问题文本输入常用问题解答机器人;若常用问题解答机器人反馈答案文本,则将反馈的答案文本确定为与问题文本对应的目标答案文本。

向量获取模块201可具体用于:若常用问题解答机器人未反馈答案文本,则获取问题文本的文本向量。

在一些实施例中,该人机对话控制装置200还可包括第二匹配模块。第二匹配模块可用于:若问题文本符合预设的匹配条件,则采用匹配条件对应的匹配方法对问题文本进行匹配,得到第二匹配结果,符合匹配条件的问题文本采用匹配条件对应的匹配方法进行匹配的效率高于问题文本采用向量知识库进行匹配的效率。

提示词生成模块203还可用于:根据问题文本、第二匹配结果和提示词生成准则,生成第二提示词。

大语言处理模块204还可用于:将第二提示词输入大语言模型,将大语言模型的输出结果确定为目标答案文本。

在一些实施例中,大语言处理模块204还用于:若文本向量与常用问题解答向量子库、摘要文本向量子库和原始文本向量子库中向量的匹配度参数表征的匹配度均小于匹配度阈值,则将问题文本输入大语言模型,将大语言模型的输出结果确定为目标答案文本。

本申请第三方面还提供了一种电子设备。图6为本申请一实施例提供的电子设备的结构示意图。如图6所示,电子设备300包括存储器301、处理器302及存储在存储器301上并可在处理器302上运行的计算机程序。

在一些示例中,上述处理器302可以包括中央处理器(CPU),或者特定集成电路(Application Specific Integrated Circuit,ASIC),或者可以被配置成实施本申请实施例的一个或多个集成电路。

存储器301可包括只读存储器(Read-Only Memory,ROM),随机存取存储器(RandomAccess Memory,RAM),磁盘存储介质设备,光存储介质设备,闪存设备,电气、光学或其他物理/有形的存储器存储设备。因此,通常,存储器包括一个或多个编码有包括计算机可执行指令的软件的有形(非暂态)计算机可读存储介质(例如,存储器设备),并且当该软件被执行(例如,由一个或多个处理器)时,其可操作来执行参考根据本申请实施例中人机对话控制方法所描述的操作。

处理器302通过读取存储器301中存储的可执行程序代码来运行与可执行程序代码对应的计算机程序,以用于实现上述实施例中的人机对话控制方法。

在一些示例中,电子设备300还可包括通信接口303和总线304。其中,如图6所示,存储器301、处理器302、通信接口303通过总线304连接并完成相互间的通信。

通信接口303,主要用于实现本申请实施例中各模块、装置、单元和/或设备之间的通信。也可通过通信接口303接入输入设备和/或输出设备。

总线304包括硬件、软件或两者,将电子设备300的部件彼此耦接在一起。举例来说而非限制,总线304可包括加速图形端口(Accelerated Graphics Port,AGP)或其他图形总线、增强工业标准架构(Enhanced Industry Standard Architecture,EISA)总线、前端总线(Front Side Bus,FSB)、超传输(Hyper Transport,HT)互连、工业标准架构(IndustryStandard Architecture,ISA)总线、无限带宽互连、低引脚数(Low pin count,LPC)总线、存储器总线、微信道架构(Micro Channel Architecture,MCA)总线、外围组件互连(Peripheral Component Interconnect,PCI)总线、PCI-Express(PCI-E)总线、串行高级技术附件(Serial Advanced Technology Attachment,SATA)总线、视频电子标准协会局部(Video Electronics Standards Association Local Bus,VLB)总线或其他合适的总线或者两个或更多个以上这些的组合。在合适的情况下,总线304可包括一个或多个总线。尽管本申请实施例描述和示出了特定的总线,但本申请考虑任何合适的总线或互连。

本申请第四方面还提供一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序指令,该计算机程序指令被处理器执行时可实现上述实施例中的人机对话控制方法,且能达到相同的技术效果,为避免重复,这里不再赘述。其中,上述计算机可读存储介质可包括非暂态计算机可读存储介质,如只读存储器(Read-Only Memory,简称ROM)、随机存取存储器(Random Access Memory,简称RAM)、磁碟或者光盘等,在此并不限定。

本申请实施例提供一种计算机程序产品,该计算机程序产品中的指令由电子设备的处理器执行时,使得电子设备执行上述实施例中的人机对话控制方法,且能达到相同的技术效果,为避免重复,这里不再赘述。

需要明确的是,本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同或相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。对于装置实施例、设备实施例、计算机可读存储介质实施例而言,相关之处可以参见方法实施例的说明部分。本申请并不局限于上文所描述并在图中示出的特定步骤和结构。本领域的技术人员可以在领会本申请的精神之后,作出各种改变、修改和添加,或者改变步骤之间的顺序。并且,为了简明起见,这里省略对已知方法技术的详细描述。

上面参考根据本申请的实施例的方法、装置(系统)和计算机程序产品的流程图和/或框图描述了本申请的各方面。应当理解,流程图和/或框图中的每个方框以及流程图和/或框图中各方框的组合可以由计算机程序指令实现。这些计算机程序指令可被提供给通用计算机、专用计算机、或其它可编程数据处理装置的处理器,以产生一种机器,使得经由计算机或其它可编程数据处理装置的处理器执行的这些指令使能对流程图和/或框图的一个或多个方框中指定的功能/动作的实现。这种处理器可以是但不限于是通用处理器、专用处理器、特殊应用处理器或者现场可编程逻辑电路。还可理解,框图和/或流程图中的每个方框以及框图和/或流程图中的方框的组合,也可以由执行指定的功能或动作的专用硬件来实现,或可由专用硬件和计算机指令的组合来实现。

本领域技术人员应能理解,上述实施例均是示例性而非限制性的。在不同实施例中出现的不同技术特征可以进行组合,以取得有益效果。本领域技术人员在研究附图、说明书及权利要求书的基础上,应能理解并实现所揭示的实施例的其他变化的实施例。在权利要求书中,术语“包括”并不排除其他装置或步骤;数量词“一个”不排除多个;术语“第一”、“第二”用于标示名称而非用于表示任何特定的顺序。权利要求中的任何附图标记均不应被理解为对保护范围的限制。权利要求中出现的多个部分的功能可以由一个单独的硬件或软件模块来实现。某些技术特征出现在不同的从属权利要求中并不意味着不能将这些技术特征进行组合以取得有益效果。

相关技术
  • 一种浴室加热装置和用于控制浴室加热装置的方法、设备、电子设备及计算机可读存储介质
  • 一种家居设备控制方法、装置、控制设备及可读存储介质
  • 控制方法及控制装置、计算机设备、存储介质及烹饪设备
  • 控制方法及控制装置、计算机设备、存储介质及烹饪设备
  • 信息处理装置、其人机对话方法及存储介质
  • 人机对话控制方法、装置、计算机设备及存储介质
  • 人机对话的输出控制方法、装置、电子设备及存储介质
技术分类

06120116487293