掌桥专利:专业的专利平台
掌桥专利
首页

一种实体关系联合抽取方法、终端以及存储介质

文献发布时间:2023-06-19 09:52:39


一种实体关系联合抽取方法、终端以及存储介质

技术领域

本发明涉及自然语言技术领域,特别涉及一种实体关系联合抽取方法、终端以及存储介质。

背景技术

命名实体识别和关系抽取是自然语言处理领域的基础任务,自然语言文本是由字符构成的,字符的组合构成了单位,例如词、句子、段落等。命名实体识别(NER)任务是找到文本中提到的每个命名实体,例如名词短语、人名和地名等。实体关系抽取则是发现文本中命名实体之间的语义关系,这些关系通常是二元关系,如子女关系、部分-整体关系和地理空间关系等。

在现有技术中,命名实体识别和关系抽取联合模型在实体识别任务中没有直接考虑文本中词的信息,关系抽取任务中也没有直接考虑文本中所有字符的信息,准确性较差。

因此,现有技术还有待改进和提高。

发明内容

针对现有技术的上述缺陷,提供一种实体关系联合抽取方法、终端及存储介质,旨在解决现有技术中在实体关系联合抽取时在关系抽取任务中没有直接考虑所有实体的信息,准确性较差的问题。

本发明的第一方面,提供一种实体关系联合抽取方法,包括:

获取目标文本,将所述目标文本中的每个字符转化为初始字向量,并确定所述目标文本中是否存在预训练词向量对应的目标词;

若存在,则根据所述目标词的预训练词向量与所述目标词中包括的字符的所述初始字向量,获取所述目标文本中每个字符的中间字向量;

将所述目标文本中的每个字符的所述中间字向量和所述目标文本中的各个字符的所述中间字向量之和分别并联,获取所述各个字符分别对应的输入字向量;

将所述输入字向量输入至预先训练完成的第一神经网络,通过所述第一神经网络获取所述目标文本的实体识别结果;

根据所述实体识别结果与所述输入字向量获取用于输入至预先训练完成的第二神经网络的输入数据,通过所述第二神经网络获取所述目标文本的实体关系抽取结果;

其中,所述第一神经网络和所述第二神经网络是通过包括多组训练数据的训练集共同被训练完成的,每组训练数据包括样本文本、样本文本对应的实体标注结果以及样本文本对应的实体关系标注结果。

所述的实体关系联合抽取方法,其中,所述根据所述目标词的预训练词向量与所述目标词中包括的字符的所述初始字向量,获取所述目标文本中每个字符的中间字向量,包括:

对于所述目标词中包括的字符,将所述目标词的预训练词向量输入至预先训练完成的第三神经网络,在所述第三神经网络中,对所述目标词的预训练词向量进行多头注意力处理,获取所述目标词中各个字符对应的权重,分别按照所述目标词中的字符对应的权重将所述目标词的预训练词向量与各个字符的初始字向量相加,获取每个字符的所述中间字向量;

对于不存在对应的目标词的字符,将对应的所述初始字向量作为所述中间字向量;

其中,所述第三神经网络与所述第一神经网络、所述第二神经网络共同通过所述训练集训练完成。

所述的实体关系联合抽取方法,其中,所述第一神经网络包括第一编码器模块以及多层感知模块;所述通过所述第一神经网络获取所述目标文本的实体识别结果,包括:

通过所述第一编码器模块对各个所述输入字向量进行编码,获取编码字向量;

将所述编码字向量作为所述多层感知模块的输入,获取所述多层感知模块输出的结果作为所述目标文本的实体识别结果;

其中,所述第一编码器模块中包括多层编码器,每层编码器的输入包括所述第一编码器模块中前面所有的编码器的输出。

所述的实体关系联合抽取方法,其中,所述根据所述实体识别结果与所述输入字向量获取用于输入至预先训练完成的第二神经网络的输入数据,包括:

获取所述第一编码器模块对所述输入字向量进行编码后输出的所述编码字向量;

对所述目标文本中属于同一实体词的字符的所述输入字向量进行求和,得到各个输入词向量作为所述第二神经网络的输入数据。

所述的实体关系联合抽取方法,其中,所述对所述目标文本中属于同一实体词的字符的所述输入字向量进行求和,包括:

在预先训练完成的第四神经网络中,通过多头注意力机制获取属于同一实体词的各个字符的权重,根据各个字符的权重对属于同一实体词的字符的所述输入字向量进行求和;

其中,所述第四神经网络与所述第一神经网络、所述第二神经网络共同通过所述训练集训练完成。

所述的实体关系联合抽取方法,其中,所述第二神经网络包括第二编码器模块和关系分类模块;所述通过所述第二神经网络获取所述目标文本的实体关系抽取结果,包括:

将每个所述输入词向量与所有字符的所述编码字向量之和进行并联后得到各个中间词向量,通过所述第二编码器模块对各个所述中间词向量进行编码,获取编码词向量;

将各个所述编码词向量作为所述关系分类模块的输入,获取所述关系分类模块的输出作为所述目标文本的实体关系抽取结果;

其中,所述第二编码器模块包括多层编码器,每层编码器的输入包括所述第二编码器模块中前面的所有编码器的输出。

所述的实体关系联合抽取方法,其中,所述获取目标文本之前,所述方法还包括:

在对所述第一神经网络和所述第二神经网络进行训练的过程中,获取所述训练集中每组训练数据对应的目标损失值;

根据所述目标损失值更新所述第一神经网络和所述第二神经网络中的参数,实现对所述第一神经网络和所述第二神经网络的训练。

所述的实体关系联合抽取方法,其中,所述获取所述训练集中每组训练数据对应的目标损失值,包括:

对于目标样本文本:

通过所述第二神经网络获取所述目标样本文本的预测实体识别结果,根据所述预测实体识别结果和所述目标样本文本的实体标注结果获取第一损失值;

根据所述目标样本文本的实体标注结果对所述目标样本文本中各个字符对应的所述编码字向量进行求和,获取所述目标样本文本对应的样本词向量,对属于同一类别实体的所述样本词向量求均值向量,并将每个类别实体的所述均值向量分别与其他类别对应的预设标签向量之间的相似度,作为第二损失值;

通过所述第二神经网络获取所述目标样本文本的预测实体关系抽取结果,根据所述预测实体关系抽取结果和所述目标样本文本的实体关系标注结果获取第三损失值;

获取所述第一损失值、所述第二损失值和所述第三损失值的和作为所述目标损失值。

本发明的第二方面,提供一种终端,包括:处理器、与处理器通信连接的存储介质,存储介质适于存储多条指令,处理器适于调用存储介质中的指令,以执行实现上述任一项所述的实体关系联合抽取方法的步骤。

本发明的第三方面,提供一种存储介质,其中,存储介质存储有一个或者多个程序,该一个或者多个程序可被一个或者多个处理器执行,以实现上述任一项所述的实体关系联合抽取方法的步骤。

有益效果:与现有技术相比,本发明提供了一种实体关系联合抽取方法、终端及存储介质,本发明提供的实体关系联合抽取方法首先将目标文本中存在的目标词的词向量对目标文本中每个字符的初始字向量进行处理后得到每个字符的输入字向量,将每个字符的输入字向量作为用于输出实体识别结果的第一神经网络的输入来输出实体识别结果,再根据目标文本的实体识别结果以及目标文本中每个字符的输入字向量来获取用于输出关系抽取结果的第二神经网络的输入,使得两类任务共享目标文本中字符和词的信息,提升了实体和关系联合抽取的准确性。

附图说明

图1为本发明提供的实体关系联合抽取方法的实施例的整体流程图;

图2为本发明提供的实体关系联合抽取方法的实施例中获取中间字向量的示意图;

图3为本发明提供的实体关系联合抽取方法的实施例的具体流程示意图;

图4为本发明提供的终端的实施例的结构原理图。

具体实施方式

为使本发明的目的、技术方案及效果更加清楚、明确,以下参照附图并举实施例对本发明进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。

本发明提供的一种实体关系联合抽取方法,是可以应用在终端中,终端可以但不限于是各种个人计算机、笔记本电脑、手机、平板电脑等。

实施例一

如图1所示,本发明提供的实体关系联合抽取方法包括步骤:

S100、获取目标文本,将所述目标文本中的每个字符转化为初始字向量,并确定所述目标文本中是否存在预训练词向量对应的目标词;

S200、若存在,则根据所述目标词的预训练词向量与所述目标词中包括的字符的所述初始字向量,获取所述目标文本中每个字符的中间字向量;

S300、将所述目标文本中的每个字符的所述中间字向量和所述目标文本中的各个字符的所述中间字向量之和分别并联,获取所述各个字符分别对应的输入字向量;

S400、将所述输入字向量输入至预先训练完成的第二神经网络,通过所述第二神经网络获取所述目标文本的实体识别结果;

S500、根据所述实体识别结果与所述输入字向量获取用于输入至预先训练完成的第三神经网络的输入数据,通过所述第三神经网络获取所述目标文本的实体关系抽取结果。

所述第一神经网络和所述第二神经网络是通过包括多组训练数据的训练集共同被训练完成的,每组训练数据包括样本文本、样本文本对应的实体标注结果以及样本文本对应的实体关系标注结果。具体地,本实施例提供的实体关系联合抽取方法的步骤,可以是在实体关系联合抽取模型中实行,模型中包括用于输出实体识别结果的第一神经网络和用于输出实体关系抽取结果的第二神经网络。所述模型中还可以包括与所述第一神经网络和所述第二神经网络连接的其他神经网络,所述模型中包括的所有神经网络是作为一个整体被训练,即模型的训练是端到端的,具体将在后文被详细说明。

下面对各个步骤分别进行详细说明:

S100、获取目标文本,将所述目标文本中的每个字符转化为初始字向量,并确定所述目标文本中是否存在预训练词向量对应的目标词。

所述目标文本是待进行命名实体识别(简称为实体识别)和实体关系关系抽取的文本,所述目标文本由多个字符组成,在获取到所述目标文本后,获取所述目标文本中每个字符的向量作为字符的初始字向量,同时确定所述目标文本中是否存在预训练词向量对应的目标词。

具体地,所述预训练词向量是预先选取多个单词进行训练后获取得到的词向量,例如ctb.50d.vec预训练词向量,每个所述预训练词向量对应一个单词(目标词),在获取到所述目标文本后,确定所述目标文本中是否存在所述目标词。如图2所示,对于文本“武汉市长江大桥”,存在的目标词有:“武汉”、“武汉市”、“市长”、“长江”、“大桥”、“长江大桥”。

S200、若存在,则根据所述目标词的预训练词向量与所述目标词中包括的字符的所述初始字向量,获取所述目标文本中每个字符的中间字向量。

所述目标词中包括字符,对于一个所述目标词中包括的单个字符,结合该字符的初始字向量和该目标词的词向量来获取该字符的中间字向量,如图2所示,对于目标词“武汉市”,包括“武”、“汉”、“市”三个字符,那么字符“武”对应的中间字向量由“武”的所述初始字向量和“武汉市”的预训练词向量获得。

具体地,所述根据所述目标词的预训练词向量与所述目标词中包括的字符的所述初始字向量,获取所述目标文本中每个字符的中间字向量,包括:

对于所述目标词中包括的字符,将所述目标词的预训练词向量输入至预先训练完成的第三神经网络,在所述第三神经网络中,对所述目标词的预训练词向量进行多头注意力处理,获取所述目标词中各个字符对应的权重,分别按照所述目标词中的字符对应的权重将所述目标词的预训练词向量与各个字符的初始字向量相加,获取每个字符的所述中间字向量。

对于所述目标词中包括的字符,可以是直接将该字符的初始字向量和对应的目标词的预训练词向量相加得到该字符的所述中间字向量,在本实施例中,为了提升准确度,还对所述目标词的预训练词向量进行多头注意力处理,获取所述目标词中每个字符对应的词向量权重,在对所述目标词中的字符的所述中间字向量和对应的预训练词向量进行求和时,考虑到该字符的权重,即将对应的预训练词向量乘以权重值后再与字符的所述中间字向量进行相接。

所述目标词中每个字符的权重可以是通过第三神经网络得到,所述第三神经网络是注意力网络,能够实现多头注意力处理,当通过所述第三神经网络获取每个字符的所述中间字向量时,所述第三神经网络是和所述第一神经网络和所述第二神经网络作为整体共同通过训练集被训练完成的,所述训练集包括多组训练数据,每组训练数据包括包括样本文本、样本文本对应的实体标注结果以及样本文本对应的实体关系标注结果。

对于不存在对应的目标词的字符,则将对应的所述初始字向量作为所述中间字向量。

如图2所示,获取所述中间字向量的过程可以看做是将所述目标文本转化为异质图结构,字符和词是图的两类节点,词由字符组成,并由边进行连接。

S300、将所述目标文本中的每个字符的所述中间字向量和所述目标文本中的各个字符的所述中间字向量之和分别并联,获取所述各个字符分别对应的输入字向量。

具体地,在获取到所述目标文本每个字符对应的所述中间字向量后,对所述目标文本中每个字符对应的所述中间字向量进行求和,各个所述中间字向量之和分别与每个字符的所述中间字向量进行并联后得到每个字符分别对应的输入字向量。可以将所述输入字向量看做是在所述目标文本对应的异质图结构中加入全局节点,保证了每个字符对应的所述输入字向量均能考虑到所述目标文本的全局信息。在后面的处理中,用于输出所述目标文本的实体识别结果的第一神经网络和用于输出所述目标文本的实体关系抽取结果的第二神经网络的输入中均包括所述输入字向量,也就是说,在本实施例中,实体识别任务和实体关系抽取任务共享所述目标文本中字符和词的信息,能够提升任务准确性。

S400、将所述输入字向量输入至预先训练完成的第一神经网络,通过所述第一神经网络获取所述目标文本的实体识别结果。

具体地,所述第一神经网络包括第一编码器模块以及多层感知模块;所述通过所述第一神经网络获取所述目标文本的实体识别结果,包括:

S410、通过所述第一编码器模块对各个所述输入字向量进行编码,获取编码字向量;

S420、将所述编码字向量作为所述多层感知模块的输入,获取所述多层感知模块输出的结果作为所述目标文本的实体识别结果。

所述第一编码器模块中包括多层编码器(Encoder),在本实施例中,所述第一编码器模块中包括4层transformer编码器,并且,所述第一编码器模块的结构采用类似DenseNet的结构,即,每层编码器的输入包括所述第一编码器模块中前面的所有编码的输出,例如,所述第一编码器模块中包括ABCD四个编码器,按照ABCD的顺序排列,即,其中A的输入为所述输入词向量,那么,C编码器的输入中包括AB编码器的输出,在一种可能的实现方式中,所述第一编码器模块中每个编码器的输入中还包括第一个编码器的输入,即各个所述输入词向量。每层编码器的输入包括所述第一编码器模块中前面的所有编码的输出使得每层编码器能够接收前面所有层编码器的信息,有效提升网络的泛化能力,可以使用更少的参数量达到更高的准确率。

所述关系分类模块为多层感知机(MLP),所述关系分类模型的输出为每个字符的实体标签,所述目标文本中每个字符的所述实体标签能够反映该字符是否属于一个实体、哪几个字符属于一个实体、以及实体的类别,也就是说,所述实体识别结果包括所述目标文本中存在的各个实体、以及各个实体的类别。

在本实施例中,采用BIO方式标记字符,即,每个字符输出的标签中包含“B”、“I”、“O”,B表示该字符是一个实体的开始字符,“I”表示该字符是一个实体的中间字符,“O”表示该字符不是实体的字符,例如实体“杨振宁”,类别为人名,那么,对应的正确实体标签应为:“B-PER”、“I-PER”、“I-PER”。

S500、根据所述实体识别结果与所述输入字向量获取用于输入至预先训练完成的第二神经网络的输入数据,通过所述第二神经网络获取所述目标文本的实体关系抽取结果。

所述根据所述实体识别结果与所述输入字向量获取用于输入至预先训练完成的第二神经网络的输入数据,包括:

S510、获取所述第一编码器模块对所述输入字向量进行编码后输出的所述编码字向量;

S520、对所述目标文本中属于同一实体词的字符的所述输入字向量进行求和,得到各个输入词向量作为所述第二神经网络的输入数据。

所述第一编码器模块对所述输入字向量进行编码后输出所述编码字向量的具体说明可以参见对步骤S400的说明。

所述对所述目标文本中属于同一实体词的字符的所述输入字向量进行求和,包括:

在预先训练完成的第四神经网络中,通过多头注意力机制获取属于同一实体词的各个字符的权重,根据各个字符的权重对属于同一实体词的字符的所述输入字向量进行求和。

在一种可能的实现方式中,可以直接将所述目标文本中属于同一实体词的字符的所述输入字向量进行求和,得到各个所述输入词向量。在本实施例中,通过预先训练完成的第四神经网络来对属于同一实体词的字符的所述输入字向量进行求和。具体地,所述第四神经网络为注意力网络,在所述第四神经网络中,通过多头注意力机制获取属于同一实体词的各个字符的权重,根据各个字符的权重对属于同一实体词的字符的所述输入字向量进行求和,即对属于同一实体词的每个字符,都将对应的所述输入字向量乘以对应的权重后再相加,得到该实体词对应的所述输入词向量。

在通过所述第四神经网络求和获取所述输入词向量的情形中,所述第四神经网络与所述第一神经网络、所述第二神经网络共同通过所述训练集训练完成,当然,可以理解的是,在还存在所述第三神经网络的情形中,所述第一神经网络、所述第二神经网络、所述第三神经网络以及所述第四神经网络均是作为一个整体通过所述训练集共同训练完成的。

所述第二神经网络包括第二编码器模块和关系分类模块;所述通过所述第二神经网络获取所述目标文本的实体关系抽取结果,包括:

S530、将每个所述输入词向量与所有字符的所述编码字向量之和进行并联后得到各个中间词向量,通过所述第二编码器模块对各个所述中间词向量进行编码,获取编码词向量;

S540、将各个所述编码词向量作为所述关系分类模块的输入,获取所述关系分类模块的输出作为所述目标文本的实体关系抽取结果;

在获取到各个所述输入词向量后,对于每个所述输入词向量,都与所述的所述编码字向量之和进行并联,得到各个中间词向量,将各个所述中间词向量作为所述第二编码器模块的输入进行编码。与所述第一编码器类似,所述第二编码器模块中包括多层编码器(Encoder),在本实施例中,所述第二编码器模块中包括4层transformer编码器,并且,所述第二编码器模块的结构采用类似DenseNet的结构,即,每层编码器的输入包括所述第二编码器模块中前面的所有编码的输出,例如,所述第二编码器模块中包括ABCD四个编码器,按照ABCD的顺序排列,即,其中A的输入为所述输入词向量,那么,C编码器的输入中包括AB编码器的输出,在一种可能的实现方式中,所述第二编码器模块中每个编码器的输入中还包括第一个编码器的输入,即各个所述输入词向量。每层编码器的输入包括所述第二编码器模块中前面的所有编码的输出使得每层编码器能够接收前面所有层编码器的信息,有效提升网络的泛化能力,可以使用更少的参数量达到更高的准确率。

所述关系分类模块可以为关系网络(Relation Network),编码获取所述编码词向量后,将各个所述编码词向量作为所述关系分类模块的输入,所述关系分类模块输出所述目标文本的实体关系抽取结果。

在获取所述目标文本之前,需要对所述第一神经网络和所述第二神经网络进行训练,下面对训练过程进行介绍。具体地,在所述获取目标文本之前,所述方法还包括:

在对所述第一神经网络和所述第二神经网络进行训练的过程中,获取所述训练集中每组训练数据对应的目标损失值;

根据所述目标损失值更新所述第一神经网络和所述第二神经网络中的参数,实现对所述第一神经网络和所述第二神经网络的训练。

可以理解,在本实施例提供的实体关系联合抽取方法中使用了其他神经网络的情况下,还根据所述目标损失值更新其他神经网络,如前文中所述的第三神经网络、第四神经网络的参数,实现整体训练。

具体地,所述获取所述训练集中每组训练数据对应的目标损失值,包括:

对于目标样本文本:

S001、通过所述第二神经网络获取所述目标样本文本的预测实体识别结果,根据所述预测实体识别结果和所述目标样本文本的实体标注结果获取第一损失值;

S002、根据所述目标样本文本的实体标注结果对所述目标样本文本中各个字符对应的所述编码字向量进行求和,获取所述目标样本文本对应的样本词向量,对属于同一类别实体的所述样本词向量求均值向量,并将每个类别实体的所述均值向量分别与其他类别对应的预设标签向量之间的相似度,作为第二损失值;

S003、通过所述第二神经网络获取所述目标样本文本的预测实体关系抽取结果,根据所述预测实体关系抽取结果和所述目标样本文本的实体关系标注结果获取第三损失值;

S004、获取所述第一损失值、所述第二损失值和所述第三损失值的和作为所述目标损失值。

对于所述目标样本文本,根据本实施例中提供的实体关系联合抽取方法的步骤,获取所述目标样本文本的输入字向量作为所述第二神经网络的输入,获取所述第二神经网络输出的预测实体识别结果,根据所述预测实体识别结果和所述目标样本文本的实体标注结果通过交叉熵损失函数计算出第一损失值。随后根据所述目标样本文本的实体标注结果对所述目标样本文本中各个字符对应的所述编码字向量进行求和,即,对属于同一实体的字符的编码字向量进行求和,获取所述目标样本文本中各个实体分别对应的样本词向量,在获取所述样本词向量的过程中,可以是直接对字符的编码字向量进行求和,也可以是通过所述第四神经网络进行多头注意力处理后再求和。获取到所述样本词向量后,属于同一实体类别的实体词对应的所述样本词向量求均值向量,分别求每个类别实体的所述均值向量与其他类别对应的预设标签向量之间的相似度,例如,共有4个实体ABCD,AB属于第一类别,C属于第二类别,D属于第三类别,那么,求AB的均值向量分别与第二类别和第三类别的预设标签向量之间的相似度,求C的样本词向量分别与第一类别和第三类别的预设标签向量之间的相似度,求D的样本词向量分别与第一类别和第二类别的预设标签向量之间的相似度。将所有的相似度之和作为第二损失值。所述预设标签向量包括预先设置的多个实体类别的向量,计算不同类别词向量与阈值标签向量之间的两两相似度,作为损失函数的一部分,通过最小化损失函数,不同类别词向量之间相似度低,同类别之间相似度高,提升了实体识别的准确率。在获取所述目标样本文本的实体识别结果后,将各个所述样本词向量分别与所述目标样本文本中各个字符的所述编码字向量之和并联,得到各个样本中间词向量后通过所述第二神经网络的所述第二编码模块以及所述关系分类模块,输出所述目标样本文本的预测实体关系抽取结果,根据所述预测实体关系抽取结果和所述目标样本文本的实体关系标注结果得到所述第三损失值。最终将所述第一损失值、所述第二损失值和所述第三损失值之和作为训练的目标损失值。

对于所述训练集中的每个样本文本,都一次作为所述目标样本文本进行处理,在多次训练后,所述目标损失值达到收敛,训练完成。

本实施例提供的实体关系联合抽取方法的具体流程图可以如图3所示。

综上所述,本实施例提供一种实体关系联合抽取方法,首先将目标文本中存在的目标词的词向量对目标文本中每个字符的初始字向量进行处理后得到每个字符的输入字向量,将每个字符的输入字向量作为用于输出实体识别结果的第一神经网络的输入来输出实体识别结果,再根据目标文本的实体识别结果以及目标文本中每个字符的输入字向量来获取用于输出关系抽取结果的第二神经网络的输入,使得两类任务共享目标文本中字符和词的信息,提升了实体和关系联合抽取的准确性。

应该理解的是,虽然本发明说明书附图中给出的的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,本发明中的步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,本发明步骤的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。

本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本发明所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。

实施例二

基于上述实施例,本发明还提供了一种终端,其原理框图可以如图4所示。该终端包括存储器10和处理器20,存储器10中存储有计算机程序,该处理器10执行计算机程序时能够执行本发明提供的实体关系联合抽取方法的步骤,具体如实施例一中所述。

实施例三

本发明还提供了一种存储介质,存储介质存储有一个或者多个程序,该一个或者多个程序可被一个或者多个处理器执行,以实现上述实施例所述的实体关系联合抽取方法的步骤。

最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

相关技术
  • 一种实体关系联合抽取方法、终端以及存储介质
  • 实体关系联合抽取方法、装置、电子设备和存储介质
技术分类

06120112333991