掌桥专利:专业的专利平台
掌桥专利
首页

使用注意力模型分析文本信息的方法及装置、电子设备

文献发布时间:2023-06-19 11:35:49


使用注意力模型分析文本信息的方法及装置、电子设备

技术领域

本公开涉及人工智能技术领域,更具体地,涉及一种使用注意力模型分析文本信息的方法、装置、电子设备、计算机可读存储介质和计算机程序产品。

背景技术

随着深度学习技术的发展,机器阅读理解模型中,注意力机制成为了机器阅读理解模型设计的主流方法。在相关技术的注意力模型中,注意力机制用来计算上下文和问题对之间的相似度,以相似度矩阵为基础构建上下文和段落的特征表示,实现上下文和问题之间的语义交互,有效提高了模型的文本表示能力。然而,对于这些基于注意力机制的模型架构,多层的注意力运算是相对独立的,每一层注意力的运算未曾考虑到上一层注意力的影响。因此,在多层注意力框架中,多层的注意力在同一文本上的分布会导致注意力冗余的现象。此外,多层的注意力未能关注到文本的重要内容,造成重要信息的注意力缺失问题。

发明内容

有鉴于此,本公开提供了一种使用注意力模型分析文本信息的方法及装置、电子设备和计算机可读存储介质。通过基于输入文本信息的问题词和上下文序列,利用多层注意力模型实现问题词和上下文序列的信息交互,得到并输出问题词所在的上下文序列的位置。

本公开的一个方面提供了一种使用注意力模型分析文本信息的方法,所述注意力模型包括输入层、上下文编码层、信息交互层、信息推理层和输出层,所述方法包括:使用所述输入层将输入的文本信息中包括的问题词和上下文序列分别转换为问题向量Q和上下文向量P;以及使用所述上下文编码层分别对所述问题向量Q和所述上下文向量P进行编码和特征提取,得到编码问题特征U和编码上下文特征H;使用所述信息交互层融合所述编码问题特征U和所述编码上下文特征H,得到针对所述问题词的上下文特征Z;使用所述信息推理层得到针对所述上下文特征Z的已编码上下文段落特征M;以及使用所述输出层处理所述已编码上下文段落特征M,以得到并输出所述问题词在所述上下文序列中的位置。

根据本公开的实施例,所述上下文编码层包括多个双向Transformer模块,每个双向Transformer模块均包括自注意力模块、前馈神经网络和输出模块。

根据本公开的实施例,所述信息交互层包括堆叠的多层注意力模块,每层注意力模块包括问题与上下文对齐模块、上下文自对齐模块和上下文推理模块;所述使用所述信息交互层融合所述编码问题特征U和所述编码上下文特征H,得到针对所述问题词的上下文特征Z包括:使用所述问题与上下文对齐模块,根据所述编码问题特征U和所述编码上下文特征H,得到针对问题词的上下文段落表示V;使用所述上下文自对齐模块,根据所述编码上下文特征H和所述上下文段落表示V,得到所述上下文序列中每个词的特征表示

根据本公开的实施例,所述使用所述问题与上下文对齐模块,根据所述编码问题特征U和所述编码上下文特征H,得到针对问题词的上下文段落表示V包括:计算所述编码问题特征U和所述编码上下文特征H之间的第一相似度矩阵E;根据所述相似度矩阵E计算所述上下文序列中每个词关于所述问题词的注意力分布Softmax(E);以及根据所述注意力分布Softmax(E)计算所述针对所述问题词的上下文段落表示V。

根据本公开的实施例,所述根据所述注意力分布计算所述针对所述问题词的上下文段落表示V包括:根据所述编码问题特征U和所述注意力分布Softmax(E),计算所述上下文序列中每个词关于所述问题词的上下文段落表示矩阵

根据本公开的实施例,所述根据所述编码上下文特征H和所述上下文段落表示V,计算所述上下文序列中每个词的特征表示

根据本公开的实施例,对于所述多层注意力模块,根据第j-1层注意力的相似度矩阵E

根据本公开的实施例,所述方法还包括:使用所述问题词在所述上下文序列中的位置来确定与所述问题词相对应的至少一个问题,以便提供针对所述至少一个问题的答复。

本公开的另一方面提供了一种使用注意力模型分析文本信息的装置,所述注意力模型包括输入层、上下文编码层、信息交互层、信息推理层和输出层,所述装置包括:

第一模块,用于使用输入层将输入的文本信息中包括的问题词和上下文序列分别转换为问题向量Q和上下文向量P;以及

第二模块,用于使用所述上下文编码层分别对问题向量和上下文向量进行编码和特征提取,得到编码问题特征和编码上下文特征;

第三模块,用于使用所述信息交互层融合所述编码问题特征U和所述编码上下文特征H,得到针对所述问题词的上下文特征Z;

第四模块,用于使用所述信息推理层得到针对所述上下文特征Z的已编码上下文段落特征M;以及

第五模块,用于使用所述输出层处理所述已编码上下文段落特征,以得到并输出所述问题词在所述上下文序列中的位置。

本公开的另一方面提供了一种电子设备,包括:一个或多个处理器;存储装置,用于存储一个或多个程序,其中,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器执行如上文所述的方法。

本公开的另一方面提供了一种计算机可读存储介质,其上存储有可执行指令,该指令被处理器执行时使处理器执行如上文所述的方法。

本公开的另一方面提供了一种计算机程序产品,其中,所述产品存储有计算机程序,所述计算机程序在被执行时能够实现根据上文所述的方法。

根据本公开的实施例,可以至少部分地解决相关技术中阅读理解模型注意力缺乏和冗余的问题,根据该方法生成的与问题词相关的内容在上下文序列中的位置更加准确,本方法能够更加准确地提取文本语义特征。

附图说明

通过以下参照附图对本公开实施例的描述,本公开的上述以及其他目的、特征和优点将更为清楚,在附图中:

图1示意性示出了根据本公开实施例的使用注意力模型分析文本信息的方法和装置的应用场景;

图2A示意性示出了根据本公开实施例的使用注意力模型分析文本信息的方法的流程图;

图2B示意性示出了根据本公开实施例的注意力模型的结构示意图;

图3A示意性示出了根据本公开实施例的注意力模型中的注意力模块的结构示意图;

图3B示意性示出了根据本公开实施例的使用信息交互层融合编码问题特征和编码上下文特征得到针对问题的上下文特征的流程图;

图3C示意性示出了根据本公开实施例的使用注意力模型分析文本信息的方法的获取针对问题词的上下文段落表示的流程图;

图3D示意性示出了根据本公开实施例的根据注意力分布计算针对问题词的上下文段落表示的流程图;

图3E示意性示出了根据本公开实施例的根据编码上下文特征和上下文段落表示,计算上下文序列中每个词的特征表示的流程图;

图4示意性示出了根据本公开实施例的注意力模型中的双向Transformer模块的结构示意图;

图5示意性示出了根据本公开实施例的使用注意力模型分析文本信息的装置的方框图;

图6示意性示出了根据本公开实施例的电子设备的方框图。

具体实施方式

以下,将参照附图来描述本公开的实施例。但是应该理解,这些描述只是示例性的,而并非要限制本公开的范围。在下面的详细描述中,为便于解释,阐述了许多具体的细节以提供对本公开实施例的全面理解。然而,明显地,一个或多个实施例在没有这些具体细节的情况下也可以被实施。此外,在以下说明中,省略了对公知结构和技术的描述,以避免不必要地混淆本公开的概念。

在此使用的术语仅仅是为了描述具体实施例,而并非意在限制本公开。在此使用的术语“包括”、“包含”等表明了所述特征、步骤、操作和/或部件的存在,但是并不排除存在或添加一个或多个其他特征、步骤、操作或部件。

在此使用的所有术语(包括技术和科学术语)具有本领域技术人员通常所理解的含义,除非另外定义。应注意,这里使用的术语应解释为具有与本说明书的上下文相一致的含义,而不应以理想化或过于刻板的方式来解释。

在使用类似于“A、B和C等中至少一个”这样的表述的情况下,一般来说应该按照本领域技术人员通常理解该表述的含义来予以解释(例如,“具有A、B和C中至少一个的系统”应包括但不限于单独具有A、单独具有B、单独具有C、具有A和B、具有A和C、具有B和C、和/或具有A、B、C的系统等)。术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个所述特征。

术语“高速公路网络”是指一种用于构建深度神经网络的架构设计方法,可以帮助构建更深的神经网络而不至于模型难以训练,高速公路网络通过门控函数来调节信息流动比例,使信息可以在多层网络中流动而不会衰减,同时帮助模型快速收敛。

客户与电话银行的交互过程可以通过ASR技术将音频文件转为文本文件。机器阅读理解技术可用于从这类文本中提取客户意图,完成对于客户意向的收集和统计工作。这对于未配置的对话场景尤其重要。目前对于客户表达的无法识别的场景,常用的做法是播报兜底话术,提醒客户选择现有场景对话。而机器阅读理解技术可以提取用户感兴趣,却未实现的会话场景。例如,通过客户反馈的音频内容,将音频内容转化为文本文件,通过机器阅读理解提取客户的问题和上下文信息,并将针对问题的文本信息显示给用户。

本公开的实施例提供了一种使用注意力模型分析文本信息的方法、装置、电子设备和介质。通过根据输入的文本信息中的问题词和上下文序列转换得到的问题向量Q和上下文向量P,并提取编码问题特征U和编码上下文特征H,并进一步得到针对问题词的上下文特征Z,最终得到问题词在上下文序列中的位置。本公开的方法解决相关技术中阅读理解模型注意力缺乏和冗余的问题,根据该方法生成的与问题词相关的内容在上下文序列中的位置更加准确,本方法能够更加准确地提取文本语义特征。

图1示意性示出了根据本公开实施例的可以应用于使用注意力模型分析文本信息的方法的示例性系统架构100。需要注意的是,图1所示仅为可以应用本公开实施例的系统架构的示例,以帮助本领域技术人员理解本公开的技术内容,但并不意味着本公开实施例不可以用于其他设备、系统、环境或场景。

需要说明的是,本公开实施例提供的使用注意力模型分析文本信息的方法、装置、电子设备以及存储介质可用于人工智能技术领域、金融领域,也可用于金融领域之外的其他领域,如机器学习技术领域,本公开实施例提供的使用注意力模型分析文本信息的方法及装置、电子设备以及存储介质对应用领域不做限定。

如图1所示,根据该实施例的系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。

用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如购物类应用、网页浏览器应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等(仅为示例)。

终端设备101、102、103可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。

服务器105可以是提供各种服务的服务器,例如对用户利用终端设备101、102、103所浏览的网站提供支持的后台管理服务器(仅为示例)。后台管理服务器可以对接收到的用户请求等数据进行分析等处理,并将处理结果(例如根据用户请求获取或生成的网页、信息、或数据等)反馈给终端设备。

需要说明的是,本公开实施例所提供的使用注意力模型分析文本信息的方法一般可以由服务器105执行。相应地,本公开实施例所提供的使用注意力模型分析文本信息的装置一般可以设置于服务器105中。本公开实施例所提供的使用注意力模型分析文本信息的方法也可以由不同于服务器105且能够与终端设备101、102、103和/或服务器105通信的服务器或服务器集群执行。相应地,本公开实施例所提供的使用注意力模型分析文本信息的装置也可以设置于不同于服务器105且能够与终端设备101、102、103和/或服务器105通信的服务器或服务器集群中。

应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。

图2A示意性示出了根据本公开实施例的使用注意力模型分析文本信息的方法的流程图。

图2B示意性示出了根据本公开实施例的注意力模型的结构示意图。其中,如图2B所示,注意力模型200包括输入层210、上下文编码层220、信息交互层230、信息推理层240和输出层250。

下面结合图2A和图2B对本公开实施例的使用注意力模型分析文本信息的方法进行详细说明。

如图2A所示,本公开实施例的使用注意力模型分析文本信息的方法的流程包括操作S201至操作S205。

在操作S201中,使用输入层210将输入的文本信息中包括的问题词和上下文序列分别转换为问题向量Q和上下文向量P。

问题向量例如可以是词向量、句向量。词向量可以将词语或短语转换为高维度连续向量空间的数学表示,词向量表示包括独热表示(One-hot Representation)词向量以及分布式词向量。句向量是将不定长的句子用定长的向量表示,为NLP下游任务提供服务。

根据本公开的实施例,通过将输入的文本信息中的问题词和上下文序列转换为问题向量Q和上下文向量P,可以更好的考虑上下文全局信息,进行更加有效的语义推理。

在输入层210中,从词向量、字符嵌入向量、位置嵌入向量、词性嵌入向量等多个粒度对文本序列进行编码。首先,使用了预训练的300维Glove词向量对输入文本序列进行嵌入,对每个输入文本序列的单词获得一个固定维度的向量表示。同时使用了一个一维卷积神经网络(CNN)对单词的字符进行编码,将每一个字符映射成一个高维向量,其中字符嵌入的向量维度的大小为卷积核通道数,最后对输入向量在宽度上进行最大池化,从而得到单词的字符嵌入向量。

此外,使用Transformer模型中所使用的绝对位置嵌入方法和相对位置嵌入方法获取文本序列的位置嵌入向量,以及通过对输入文本序列进行词性标注,将文本的词性序列输入到一个一层的卷积神经网络(CNN)中,对单词的词性进行编码而得到词性嵌入表示。之后将序列的位置嵌入向量、词性嵌入向量和词向量相加,并将单词的词向量和字符向量在向量维度上进行串联,最终得到问题和上下文段落的嵌入表示X

其中

经过词向量简单的相加和拼接,将输入的文本序列转化为了含有语义信息的特征嵌入表示,为了更好的融合这些文本特征信息,又将该文本特征表示输入到一个两层的高速网络,经过高速网络对文本特征表示的处理分别输出问题和上下文段落的特征序列

在操作S202中,使用上下文编码层220分别对问题向量Q和上下文向量P进行编码和特征提取,得到编码问题特征U和编码上下文特征H。

例如,采用以注意力机制为基础的Transformer模型作为特征编码器。分别将由高速网络所输出的文本特征表示输入到由三层的双向Transformer模块组成的编码器中,其中每一层Transformer模块由自注意力模块、前馈神经网络和输出模块组成,并在模块的输出部分进行了残差连接和层标准化操作。通过三层的双向Transformer模块对文本特征进行上下文编码,最后获得编码问题特征U和编码上下文特征H,其中

根据本公开的实施例,通过采用上述的Transformer模型作为特征编码器,能够很好的处理长文本序列,且能进行并行运算。引入Transformer模块作为问题和段落信息编码器,有效的提升了模型的特征编码能力,并采用指针网络作为候选答案边界预测器返回最终的答案。

图3A示意性示出了根据本公开实施例的注意力模型中的注意力模块的结构示意图。

在操作S203中,使用信息交互层230融合编码问题特征U和编码上下文特征H,得到针对问题词的上下文特征Z。

例如,信息交互层230包括堆叠的多层注意力模块231。例如,注意力模块231的层数例如可以是三层、四层或者五层等,具体的层数可以根据实际的需求进行设定。注意力模块231之间通过串联的方式形成信息交互层。

在本公开的实施例中,如图3A所示,每层注意力模块231可以包括问题与上下文对齐模块310、上下文自对齐模块320和上下文推理模块330。其中,问题与上下文对齐模块310的输入端与上下文编码层220的输出端连接,以从上下文编码层220获取编码问题特征U和编码上下文特征H。问题与上下文对齐模块310的输出端与上下文自对齐模块320的输入端连接,上下文自对齐模块320的输出端与上下文推理模块330连接。在本公开的实施例中,问题与上下文对齐模块310、上下文自对齐模块320、上下文推理模块330通过串联连接。

在本公开的实施例中,多层注意模块是由多个单层注意力模块231堆叠构成,每一个单层注意力模块运算都使用多层对齐注意力机制进行连接,多层对齐注意力机制根据公式(1)进行计算,

例如,以设定的三层对齐注意力层连接情况为例:

Z

Z

Z

其中,Align

公式(2):

其中,σ(·)为sigmoid函数,W

公式(3):

其中,W

根据本公开的实施例,在多层注意力模块中,通过将问题和上下文序列的对齐,同时也将提取的上下文序列高维特征与上下文序列特征进行对齐。通过这种方式可以不断的补充上下文序列信息到多层的注意力运算中,避免在深层注意力运算时出现真实上下文特征信息的丢失。

图3B示意性示出了根据本公开实施例的使用信息交互层融合编码问题特征和编码上下文特征得到针对问题的上下文特征的流程图。

在本公开的实施例中,使用信息交互层230融合编码问题特征U和编码上下文特征H,得到针对问题的上下文特征Z的流程包括操作S301至操作S303。

在操作S301中,使用问题与上下文对齐模块310,根据编码问题特征U和编码上下文特征H,得到针对问题的上下文段落表示V。

在操作S302中,使用上下文自对齐模块320,根据编码上下文特征H和上下文段落表示V,得到上下文序列中每个词的特征表示

在操作S303中,使用上下文推理模块330,根据每个词的特征表示

在本公开的实施例中,问题与上下文对齐模块310用于处理问题和上下文段落的信息交互,根据编码问题特征U和编码上下文特征H,得到针对问题的上下文段落表示V。

图3C示意性示出了根据本公开实施例的使用注意力模型分析文本信息的方法的获取针对问题词的上下文段落表示的流程图。

如图3C所示,获取针对问题的上下文段落表示V的操作流程包括操作S311至S313。

在操作S311中,计算编码问题特征U和编码上下文特征H之间的第一相似度矩阵E。

例如,给定的编码问题特征U和编码上下文特征H通过公式表示如下:

U={u

H={h

其中,m和n分别代表着问题词和上下文段落的长度。编码问题特征U和编码上下文特征H的之间的注意力相似度

其中,i∈[1,m],j∈[1,n],E

相似度计算函数

其中,⊙为向量元素级的乘法,[;]为向量之间的串联操作,

在操作S312中,根据相似度矩阵E计算上下文序列中每个词关于问题词的注意力分布Softmax(E)。

例如,可以根据上下文中问题词的数目计算注意力分布Softmax(E)。例如,可以根据相似度矩阵获得上下文中第j个词关于问题的注意力分布

在操作S313中,根据注意力分布Softmax(E)计算针对问题词的上下文段落表示V。

图3D示意性示出了根据本公开实施例的根据注意力分布计算针对问题词的上下文段落表示的流程图。

如图3D所示,根据注意力分布Softmax(E)计算针对问题词的上下文段落表示V的流程图包括操作S321至S322。

在操作S321中,根据编码问题特征U和注意力分布Softmax(E),计算上下文序列中每个词关于问题词的上下文段落表示矩阵

例如,根据相似度举证获得上下文中第j个词关于问题词的注意力分布

在操作S322中,通过对上下文段落表示矩阵

例如,通过高速公路网络通过创建一个输出门,控制上下文特征的输入比例,同时对输出特征进行了非线性变化,最终获得的问题和上下文对齐模块输出的针对问题词的上下文段落表示V如公式(6)所示:

其中,W

根据本公开的实施例,通过将高速公路网络引入到问题与上下文对齐模块中,可以实现更好的控制问题感知的上下文段落特征的输入比例,以及多层注意力计算造成梯度消失的问题。

在本公开的实施例中,如图3A所示,上下文自对齐模块320用于进行上下文段落的自注意力操作,捕获不同层上下文段落之间的语义信息,并得到上下文序列中的每个词的特征表示

图3E示意性示出了根据本公开实施例的根据编码上下文特征和上下文段落表示,计算上下文序列中每个词的特征表示的流程图。

如图3A和3E所示,使用上下文自对齐模块320,根据编码上下文特征H和上下文段落表示V,得到上下文序列中每个词的特征表示

在上下文自对齐模块320中,通过对编码上下文特征H进行自注意力操作,捕获上下文中不同词语之间的长距离依赖关系。

在操作S331中,计算上下文序列中每个词彼此之间的相似度矩阵S。

例如,使用初始的编码上下文特征H进行自注意力运算,根据公式(5)和公式(7)计算上下文序列中每个词语彼此之间的相似度矩阵S,

其中公式(7)为:

其中,i∈[1,n],j∈[1,n],当i=j时,表示上下文段落词与自身计算相似度,这将导致段落词的相似度集中于自身而不能扩展到其他词,因此设定此时的相似度为0,避免段落词不与自身计算相似度。当i≠j时,表示上下文段落中不同词之间的相似度,从而使用相似度计算函数

计算的上下文序列中每个词语彼此之间的相似度矩阵

其中,W

在操作S332中,根据相似度矩阵S计算上下文序列中每个词关于上下文序列的注意力分布Softmax(S)。

例如,通过对上下文序列的自相似度矩阵进行Softmax归一化,可以得到上下文序列中每一个词关于上下文的注意力分布

在操作S333中,根据注意力分布Softmax(S)计算上下文序列中每个词的特征表示

例如,使用注意力分布作为上下文序列特征向量的权重进行加权求和,获得每一个段落词的加权特征表示

在本公开的实施例中,上下文推理模块330用于进一步对上下文段落信息进行推理,融合上下文的语义信息,以得到针对问题的上下文特征表示Z。

如图3A所示,使用上下文推理模块330,根据每个词的特征表示

例如,将获得的每一个段落词的加权特征表示

在本公开的实施例中,对于多层注意力模块,根据第j-1层注意力的相似度矩阵E

在操作S204中,使用信息推理层得到针对问题词的上下文特征Z的已编码上下文段落特征M。

在本公开的实施例中,信息推理层主要用于针对问题词的上下文特征Z进行推理,用以捕获问题和上下文序列结合的语义信息。在该层中,采用两层双向Transformer网络结构作为上下文和问题间语义信息的编码器,将针对问题词的上下文特征Z输入到编码器中,进一步融合问题信息到上下文段落中,得到编码后的上下文段落特征

在操作S205中,使用输出层处理已编码上下文段落特征M,以得到并输出问题词在上下文序列中的位置。

在本公开的实施例中,输出层主要的作用是预测在上下文背景下问题的真实答案。输出层主要用于预测出问题答案在上下文序列中出现的具体起始位置和结束位置。采用指针网络作为答案预测网络结构。

例如,使用注意力池化操作对编码为题特征U进行特征编码生成指针网络的初始隐藏状态

在得到答案的起始位置的概率分布后,基于起始位置的概率分布和LSTM网络的输出向量生成答案结束位置预测模块的初始状态v

其中,w

通过输出层输出的答案起始位置和结束位置的概率分布,使用极大似然估计建立模型的损失函数,其目标函数如公式(12)所示:

其中,θ为模型中所有的可训练参数,

在本公开的实施例中,使用注意力模型分析文本信息的方法还包括使用问题词在上下文序列中的位置来确定与问题词相对应的至少一个问题,以便提供针对至少一个问题的答复。

在本公开的实施例中,在客服与客户之间的沟通过程中,或者客户与自动电话客服交互过程中,通过将对话或者交互过程中的音频信息转化为文本文件。再通过本公开实施例中的使用注意力模型分析文本信息的方法对上述的文本文件进行分析。然后,根据客户的提出的问题,基于该问题对上下文信息进行提取,最终为客户展示与其提出的问题相关联的内容。通过本公开实施例所提供的注意力模型分析文本信息的方法,能够针对问题提取更加准确的上下文信息。

图4示意性示出了根据本公开实施例的注意力模型中的双向Transformer模块的结构示意图。

如图4所示,双向Transformer模块400包括自注意力模块410、前馈神经网络420以及输出模块430。

其中,自注意力模块410用于与卷积神经网络结合实现上下文特征提取。前馈神经网络420用于对输入的问题向量Q和上下文向量P进行反馈处理等。输出模块430用于将双向Transformer模块中的数据进行输出。

图5示意性示出了根据本公开实施例的使用注意力模型分析文本信息的装置的方框图。

如图5所示,使用注意力模型分析文本信息的装置500包括第一模块510、第二模块520、第三模块530、第四模块540以及第五模块550。

其中,第一模块510配置成用于使用输入层将输入的文本信息中包括的问题词和上下文序列分别转换为问题向量Q和上下文向量P。

第二模块520配置成用于使用所述上下文编码层分别对问题向量和上下文向量进行编码和特征提取,得到编码问题特征和编码上下文特征。

第三模块530配置成用于使用所述信息交互层融合所述编码问题特征U和所述编码上下文特征H,得到针对所述问题词的上下文特征Z。

第四模块540配置成用于使用所述信息推理层得到针对所述上下文特征Z的已编码上下文段落特征M。

第五模块550配置成用于使用所述输出层处理所述已编码上下文段落特征,以得到并输出所述问题词在所述上下文序列中的位置。

根据本公开的实施例的模块、子模块、单元、子单元中的任意多个、或其中任意多个的至少部分功能可以在一个模块中实现。根据本公开实施例的模块、子模块、单元、子单元中的任意一个或多个可以被拆分成多个模块来实现。根据本公开实施例的模块、子模块、单元、子单元中的任意一个或多个可以至少被部分地实现为硬件电路,例如现场可编程门阵列(FPGA)、可编程逻辑阵列(PLA)、片上系统、基板上的系统、封装上的系统、专用集成电路(ASIC),或可以通过对电路进行集成或封装的任何其他的合理方式的硬件或固件来实现,或以软件、硬件以及固件三种实现方式中任意一种或以其中任意几种的适当组合来实现。或者,根据本公开实施例的模块、子模块、单元、子单元中的一个或多个可以至少被部分地实现为计算机程序模块,当该计算机程序模块被运行时,可以执行相应的功能。

例如,第一模块510、第二模块520、第三模块530、第四模块540以及第五模块550中的任意多个可以合并在一个模块中实现,或者其中的任意一个模块可以被拆分成多个模块。或者,这些模块中的一个或多个模块的至少部分功能可以与其他模块的至少部分功能相结合,并在一个模块中实现。根据本公开的实施例,第一模块510、第二模块520、第三模块530、第四模块540以及第五模块550中的至少一个可以至少被部分地实现为硬件电路,例如现场可编程门阵列(FPGA)、可编程逻辑阵列(PLA)、片上系统、基板上的系统、封装上的系统、专用集成电路(ASIC),或可以通过对电路进行集成或封装的任何其他的合理方式等硬件或固件来实现,或以软件、硬件以及固件三种实现方式中任意一种或以其中任意几种的适当组合来实现。或者,第一模块510、第二模块520、第三模块530、第四模块540以及第五模块550中的至少一个可以至少被部分地实现为计算机程序模块,当该计算机程序模块被运行时,可以执行相应的功能。

图6示意性示出了根据本公开实施例的电子设备的方框图。图6示出的电子设备仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。

如图6所示,根据本公开实施例的电子设备600包括处理器601,其可以根据存储在只读存储器(ROM)602中的程序或者从存储部分608加载到随机访问存储器(RAM)603中的程序而执行各种适当的动作和处理。处理器601例如可以包括通用微处理器(例如CPU)、指令集处理器和/或相关芯片组和/或专用微处理器(例如,专用集成电路(ASIC)),等等。处理器601还可以包括用于缓存用途的板载存储器。处理器601可以包括用于执行根据本公开实施例的方法流程的不同动作的单一处理单元或者是多个处理单元。

在RAM 603中,存储有电子设备600操作所需的各种程序和数据。处理器601、ROM602以及RAM 603通过总线604彼此相连。处理器601通过执行ROM 602和/或RAM 603中的程序来执行根据本公开实施例的方法流程的各种操作。需要注意,所述程序也可以存储在除ROM602和RAM 603以外的一个或多个存储器中。处理器601也可以通过执行存储在所述一个或多个存储器中的程序来执行根据本公开实施例的方法流程的各种操作。

根据本公开的实施例,电子设备600还可以包括输入/输出(I/O)接口605,输入/输出(I/O)接口605也连接至总线604。电子设备600还可以包括连接至I/O接口605的以下部件中的一项或多项:包括键盘、鼠标等的输入部分606;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分607;包括硬盘等的存储部分608;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分609。通信部分609经由诸如因特网的网络执行通信处理。驱动器610也根据需要连接至I/O接口605。可拆卸介质611,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器610上,以便于从其上读出的计算机程序根据需要被安装入存储部分608。

本公开还提供了一种计算机可读存储介质,该计算机可读存储介质可以是上述实施例中描述的装置/电子设备中所包含的;也可以是单独存在,而未装配入该装置/电子设备中。上述计算机可读存储介质承载有一个或者多个程序,当上述一个或者多个程序被执行时,实现根据本公开实施例的方法。

根据本公开的实施例,计算机可读存储介质可以是非易失性的计算机可读存储介质,例如可以包括但不限于:便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。例如,根据本公开的实施例,计算机可读存储介质可以包括上文描述的ROM 602和/或RAM 603和/或ROM 602和RAM 603以外的一个或多个存储器。

本公开的实施例还包括一种计算机程序产品,其包括计算机程序,该计算机程序包含用于执行本公开实施例所提供的方法的程序代码,当计算机程序产品在电子设备上运行时,该程序代码用于使电子设备实现本公开实施例所提供的使用注意力模型分析文本信息的方法。

在该计算机程序被处理器601执行时,执行本公开实施例的系统/装置中限定的上述功能。根据本公开的实施例,上文描述的系统、装置、模块、单元等可以通过计算机程序模块来实现。

在一种实施例中,该计算机程序可以依托于光存储器件、磁存储器件等有形存储介质。在另一种实施例中,该计算机程序也可以在网络介质上以信号的形式进行传输、分发,并通过通信部分609被下载和安装,和/或从可拆卸介质611被安装。该计算机程序包含的程序代码可以用任何适当的网络介质传输,包括但不限于:无线、有线等等,或者上述的任意合适的组合。

根据本公开的实施例,可以以一种或多种程序设计语言的任意组合来编写用于执行本公开实施例提供的计算机程序的程序代码,具体地,可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。程序设计语言包括但不限于诸如Java,C++,python,“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。

附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法、装置和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。

本领域技术人员可以理解,本公开的各个实施例和/或权利要求中记载的特征可以进行多种组合或/或结合,即使这样的组合或结合没有明确记载于本公开中。特别地,在不脱离本公开精神和教导的情况下,本公开的各个实施例和/或权利要求中记载的特征可以进行多种组合和/或结合。所有这些组合和/或结合均落入本公开的范围。

以上对本公开的实施例进行了描述。但是,这些实施例仅仅是为了说明的目的,而并非为了限制本公开的范围。尽管在以上分别描述了各实施例,但是这并不意味着各个实施例中的措施不能有利地结合使用。本公开的范围由所附权利要求及其等同物限定。不脱离本公开的范围,本领域技术人员可以做出多种替代和修改,这些替代和修改都应落在本公开的范围之内。

相关技术
  • 使用注意力模型分析文本信息的方法及装置、电子设备
  • 文本信息分析方法、装置、电子设备及存储介质
技术分类

06120112985516