掌桥专利:专业的专利平台
掌桥专利
首页

一种客诉识别模型的构建方法、客诉识别方法及装置

文献发布时间:2024-01-17 01:14:25


一种客诉识别模型的构建方法、客诉识别方法及装置

技术领域

本文涉及人工智能技术领域,尤其涉及一种客诉识别模型的构建方法、客诉识别方法及装置。

背景技术

客诉是指银行的客户向银行进行的投诉。目前银行大多通过制定专家规则、机器学习模型识别客户是否属于投诉,现有的专家规则、机器学习模型随着时间的推移,识别效果将大幅下降,需要不断的重新制定新的专家规则、训练新机器学习模型,耗费大量的人力物力。

现在亟需一种客诉识别模型的构建方法、客诉识别方法及装置,从而解决现有技术中识别客诉类型的时效性差的问题。

发明内容

为解决现有技术中的问题,本文实施例提供了一种客诉识别模型的构建方法、客诉识别方法及装置,实现了通过深度学习的方法对客诉数据进行识别,相比于现有技术中利用专家规则、机器学习模型进行预测的方法,大幅提高了识别的时效性。

为了解决上述技术问题中的任意一种,本文的具体技术方案如下:

一方面,本文实施例提供了一种客诉识别模型的构建方法,包括,

将预先标注的客诉样本集和非客诉样本集经过层归一化处理,得到训练数据集;

将所述训练数据集输入到双层双向LSTM网络进行训练,得到所述训练数据集中每个样本的输出;

将所述训练数据集中每个样本最后一个字符的隐藏层输出组成第一向量;

对所述训练数据集全部样本的输出在列维度上分别进行最大池化操作和平均池化操作,得到第二向量和第三向量;

对所述第一向量、第二向量和第三向量输入到全连接层进行训练;

在所述全连接层的输出结果与所述训练数据集中的标注情况之间的匹配度满足要求的情况下,得到客诉识别模型。

进一步地,将所述训练数据集输入到双层双向LSTM网络进行训练之前,所述方法还包括:对所述训练数据集进行数据清洗。

进一步地,所述数据清洗包括:

对超过所述双层双向LSTM网络输入的最大文本长度的样本进行截断处理,以便于对截断处理后的所述训练数据集输入到双层双向LSTM网络进行训练。

进一步地,所述方法还包括:

对文本长度小于所述最大文本长度的样本,按照所述最大文本长度对所述样本的内容进行填充;

对填充的内容进行屏蔽处理,以便于将屏蔽处理后的所述训练数据集输入到双层双向LSTM网络进行训练。

进一步地,按照所述最大文本长度对所述样本的内容进行填充进一步包括:

在所述样本的内容最后连续填充多个预定字符,直至填充预定字符后的样本的文本长度等于所述最大文本长度。

进一步地,对填充的内容进行屏蔽处理进一步包括:

对填充的内容进行标记,以便于在双层双向LSTM神经网络的训练过程中,根据所述标记确定不参加计算的所述填充的内容。

进一步地,所述数据清洗还包括:

对所述训练数据集进行脱敏处理,以便于对脱敏处理后的所述训练数据集输入到双层双向LSTM网络进行训练。

进一步地,所述方法还包括:

每对所述训练数据集中的全部样本进行一次训练后,根据所述全连接层的输出结果和所述训练数据集中的标注情况计算客诉识别模型正确率;

在所述正确率超过预设门限值且大于前后预定次训练对应的正确率时,将该正确率对应的所述客诉识别模型作为最终的客诉识别模型。

进一步地,计算所述全连接层的输出结果与所述标注情况之间的匹配度进一步包括:

对所述全连接层的输出结果进行argmax操作,得到所述训练数据集的样本分类情况;

计算所述样本分类情况和所述标注情况之间的匹配度。

基于同一发明构思,本发明实施例还提供了一种客诉识别方法,所述方法包括:

获取用户反馈的文本数据;

将所述文本数据输入到预先利用上述所述的客诉识别模型构建方法所得到的客诉识别模型中进行计算,得到所述文本数据对应的客诉识别结果。

另一方面,本发明实施例还提供了一种客诉识别模型的构建装置,所述装置包括:

样本集归一化处理单元,用于将预先标注的客诉样本集和非客诉样本集经过层归一化处理,得到训练数据集;

双层双向LSTM网络训练单元,用于将所述训练数据集输入到双层双向LSTM网络进行训练,得到所述训练数据集中每个样本的输出;

第一向量构建单元,用于将所述训练数据集中每个样本最后一个字符的隐藏层输出组成第一向量;

池化处理单元,用于对所述训练数据集全部样本的输出在列维度上分别进行最大池化操作和平均池化操作,得到第二向量和第三向量;

全连接层训练单元,用于对所述第一向量、第二向量和第三向量输入到全连接层进行训练;

客诉识别模型确定单元,用于在所述全连接层的输出结果与所述训练数据集中的标注情况之间的匹配度满足要求的情况下,得到客诉识别模型。

基于同一发明构思,本发明实施例还提供了一种客诉识别装置,所述装置包括:

客诉文本获取单元,用于获取用户反馈的文本数据;

客诉识别单元,用于将所述文本数据输入到预先利用上述所述的客诉识别模型构建方法所得到的客诉识别模型中进行计算,得到所述文本数据对应的客诉识别结果。

另一方面,本发明实施例还提供了一种计算机设备,包括存储器、处理器、以及存储在存储器上的计算机程序,处理器执行所述计算机程序时实现上述的方法。

另一方面,本发明实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述的方法。

最后,本发明实施例还提供了一种计算机程序产品,所述计算机程序产品包括计算机程序,所述计算机程序被处理器执行时实现上述的方法。

利用本文实施例,首先对多个用户反馈的历史文本进行标注,确定每个文本是否为客诉的标签,分别得到客诉样本集合非客诉样本集,再对客诉样本集和非客诉样本集进行层归一化处理,得到训练数据集,然后将训练数据集输入到双层双向LSTM网络进行训练,得到每个样本的输出。由于双向双层LSTM网络是循环神经网络,每个样本最后一个字符的隐藏层输出包含了前面字符的上下文语义信息,将每个样本的最后一个字符的隐藏层数据组成第一向量。然后对训练数据集全部样本的输出在列维度上分别进行最大池化操作和平均池化操作,得到第二向量和第三向量。再把第二向量和第三向量进行合并,将合并后的向量输入到全连接层进行训练,全连接层的输出为每个样本是否为客诉的结果,然后和各样本标注的标签进行匹配,在匹配度满足要求的情况下,将训练过程中每个步骤组成客诉识别模型。然后再利用客诉识别模型对用户反馈的文本进行识别,判断其是否属于客户投诉。通过本发明实施例的方法,实现了对用户反馈的文本进行分析确定是否属于客户投诉,解决现有技术中识别客诉的时效性差的问题,从而及时对客户投诉进行处理,提高客户的满意度。

附图说明

为了更清楚地说明本文实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本文的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。

图1所示为本发明实施例中一种客诉识别模型的构建方法的实施系统示意图;

图2所示为本文实施例一种客诉识别模型的构建方法的流程示意图;

图3所示为本文实施例中对样本进行填充和屏蔽的过程;

图4所示为本文实施例中确定最终的客诉识别模型的过程;

图5所示为本文实施例中一种客诉识别模型的构建装置的结构示意图;

图6所示为本文实施例中一种客诉识别方法的流程示意图;

图7所示为本文实施例中一种客诉识别装置结构示意图;

图8所示为本文实施例中计算机设备的结构示意图。

【附图标记说明】:

101、用户终端;

102、服务器;

501、样本集归一化处理单元;

502、双层双向LSTM网络训练单元;

503、第一向量构建单元;

504、池化处理单元;

505、全连接层训练单元;

506、客诉识别模型确定单元;

701、客诉文本获取单元;

702、客诉识别单元;

802、计算机设备;

804、处理设备;

806、存储资源;

808、驱动机构;

810、输入/输出模块;

812、输入设备;

814、输出设备;

816、呈现设备;

818、图形用户接口;

820、网络接口;

822、通信链路;

824、通信总线。

具体实施方式

下面将结合本文实施例中的附图,对本文实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本文一部分实施例,而不是全部的实施例。基于本文中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本文保护的范围。

需要说明的是,本文的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本文的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、装置、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。

需要说明的是,本申请技术方案中对数据的获取、存储、使用、处理等均符合国家法律法规的相关规定。

如图1所示为本发明实施例中一种客诉识别模型的构建方法的实施系统示意图,包括用户终端101和服务器102。用户终端101和服务器102之间可以通过网络进行通信,网络可以包括局域网(Local Area Network,简称为LAN)、广域网(Wide Area Network,简称为WAN)、因特网或其组合,并连接至网站、用户设备(例如计算设备)和后端系统。

服务器102上存储多个用户通过用户终端101反馈的历史文本,服务器102对历史文本进行分析训练,得到客诉识别模型并存储。当用户通过用户终端101向服务器102反馈新的文本时,服务器102利用客诉识别模型对用户反馈的文本进行分析,确定该文本是否为客诉文本,以便于业务人员及时对客诉文本进行处理,提高用户体验。

此外,需要说明的是,图1所示的仅仅是本公开提供的一种应用环境,在实际应用中,还可以包括其他应用环境,本说明书不做限制。

为了解决现有技术中存在的问题,本文实施例提供了一种客诉识别模型的构建方法,该方法实现了通过深度学习的方法对客诉数据进行识别,相比于现有技术中利用专家规则、机器学习模型进行预测的方法,大幅提高了识别的时效性。图2所示为本文实施例一种客诉识别模型的构建方法的流程示意图。在本图中描述了利用客户反馈的历史文本训练客诉识别模型的过程。实施例中列举的步骤顺序仅仅为众多步骤执行顺序中的一种方式,不代表唯一的执行顺序。在实际中的系统或装置产品执行时,可以按照实施例或者附图所示的方法顺序执行或者并行执行。具体的如图2所示,可以由服务器102执行,所述方法可以包括:

步骤201:将预先标注的客诉样本集和非客诉样本集经过层归一化处理,得到训练数据集;

步骤202:将所述训练数据集输入到双层双向LSTM网络进行训练,得到所述训练数据集中每个样本的输出;

步骤203:将所述训练数据集中每个样本最后一个字符的隐藏层输出组成第一向量;

步骤204:对所述训练数据集全部样本的输出在列维度上分别进行最大池化操作和平均池化操作,得到第二向量和第三向量;

步骤205:对所述第一向量、第二向量和第三向量输入到全连接层进行训练;

步骤206:在所述全连接层的输出结果与所述训练数据集中的标注情况之间的匹配度满足要求的情况下,得到客诉识别模型。

利用本文实施例,首先对多个用户反馈的历史文本进行标注,确定每个文本是否为客诉的标签,分别得到客诉样本集合非客诉样本集,再对客诉样本集和非客诉样本集进行层归一化处理,得到训练数据集,然后将训练数据集输入到双层双向LSTM网络进行训练,得到每个样本的输出。由于双向双层LSTM网络是循环神经网络,每个样本最后一个字符的隐藏层输出包含了前面字符的上下文语义信息,将每个样本的最后一个字符的隐藏层数据组成第一向量。然后对训练数据集全部样本的输出在列维度上分别进行最大池化操作和平均池化操作,得到第二向量和第三向量。再把第二向量和第三向量进行合并,将合并后的向量输入到全连接层进行训练,全连接层的输出为每个样本是否为客诉的结果,然后和各样本标注的标签进行匹配,在匹配度满足要求的情况下,将训练过程中每个步骤组成客诉识别模型。然后再利用客诉识别模型对用户反馈的文本进行识别,判断其是否属于客户投诉。通过本发明实施例的方法,实现了对用户反馈的文本进行分析确定是否属于客户投诉,解决现有技术中识别客诉的时效性差的问题,从而及时对客户投诉进行处理,提高客户的满意度。

在本发明实施例中,用户反馈的信息会通过文本的形式保存在数据库中,内容主要包括用户诉求、诉求相关的明细、用户身份信息等。然后利用正则、关键字等手段对文本数据进行标注,将文本数据分为客诉样本集合非客诉样本集,然后对客诉样本集和非客诉样本集进行层归一化处理,得到训练数据集。

然后将训练数据集输入到双层双向LSTM网络进行训练,示例性地,双层双向LSTM网络的输入为三维向量(batch_size,max_len,128),其中batch_size,表示一次训练的样本数,max_len表示最大样本长度。输出也是三维向量(batch_size,max_len,128)。然后将训练数据集中每个样本最后一个字符的隐藏层输出组成第一向量,最后一个字符对应的隐藏层输出包含了前面字符的上下文语义信息,即每个样本的最后一个字符的隐藏层输出为(1,128)的一维向量,每个样本的最后一个字符的隐藏层输出组成的第一向量的维度是(batch_size,128)。

然后对训练数据集全部样本的输出(batch_size,max_len,128)在列维度上分别进行最大池化操作和平均池化操作,对于一个样本,双层双向LSTM网络输出的向量维度为(max_len,128),可以看做是一个max_len行、128列的矩阵,在列维度进行操作是指:在每一列取最大值(最大池化)、对每一列取平均值(平均池化),最大池化、平均池化最后都得到一个(1,128)的向量(在每一列做了最大值、平均操作)。对于一个批次的样本来说,最大池化、平均池化最后得到的向量维度都是(batch_siez,128)。

然后对第一向量、第二向量和第三向量进行合并,得到(batch_size,128*3)的向量,作为最后全连接层的输入,全连接层最后输出(batch_size,2)的向量,做argmax操作后即可知道输出的类别,从而计算出训练数据集每个样本的预测标注情况(例如1表示客诉样本,0表示为非客诉样本)。然后再和训练数据集的实际标注情况进行匹配,在匹配度满足要求的情况下,得到客诉识别模型,客诉识别模型包括训练的全步骤,各步骤的参数为客诉识别模型的参数。例如可以确定出预测标注情况与实际标注情况相符的样本数量,计算相符的样本数量占样本总量的比值,在该比值超过预设门限值时,确定客诉识别模型。

需要说明的是,训练数据集并非均用于模型训练,还有部分数据用于验证模型,计算模型精度,可以按照预定的比例将训练数据集分为模型训练集、模型验证集和模型测试集,利用模型训练集、模型验证集和模型测试集训练出最终额的客诉识别模型。

根据本发明的一个实施例,将所述训练数据集输入到双层双向LSTM网络进行训练之前,所述方法还包括:对所述训练数据集进行数据清洗。

进一步地,所述数据清洗包括:对超过所述双层双向LSTM网络输入的最大文本长度的样本进行截断处理,以便于对截断处理后的所述训练数据集输入到双层双向LSTM网络进行训练。

在本发明实施例中,可以按照训练参数中的最大文本长度max_len对样本进行截断处理,例如仅保留最大文本长度max_len内的文本进行训练。此外还可以根据样本的格式将超过最大文本长度max_len的文本作为新的样本,前提是能够根据样本的格式确定超过最大文本长度max_len的文本仍能够表示整个样本的含义。

在本文发明的一些其他实施例中,还可以对过短的文本进行删除处理,对文本中出现的生僻字进行删除,对文本进行脱敏处理等,本发明实施例不做限制。对数据清洗后的文本初始化为双层双向LSTM网络规定维度的字向量,并输入到双层双向LSTM网络中进行训练。

在本发明实施例中,训练过程中的每个批次的文本长度都可能不同,为了提高训练速度,根据本发明的一个实施例,如图3所示,所述方法还包括:

步骤301:对文本长度小于所述最大文本长度的样本,按照所述最大文本长度对所述样本的内容进行填充;

步骤302:对填充的内容进行屏蔽处理,以便于将屏蔽处理后的所述训练数据集输入到双层双向LSTM网络进行训练。

在本发明实施例中,将文本长度小于最大文本长度的样本,按照最大文本长度对样本进行填充,例如填充多个数值“0”,然后再进行计算,相比于对多个不同长度的文本进行处理的方法,避免了因长度不同而不能并行计算,从而减少不必要额的梯度计算,可以并行对多个文本进行处理,加快训练速度,并且对填充的数值进行屏蔽处理,屏蔽后的数值不参与计算,从而避免填充的数值对训练模型的影响。

根据本发明的一个实施例,按照所述最大文本长度对所述样本的内容进行填充进一步包括:

在所述样本的内容最后连续填充多个预定字符,直至填充预定字符后的样本的文本长度等于所述最大文本长度。

根据本发明的一个实施例,对填充的内容进行屏蔽处理进一步包括:

对填充的内容进行标记,以便于在双层双向LSTM神经网络的训练过程中,根据所述标记确定不参加计算的所述填充的内容。

需要说明的是,还可以通过其他方法进行填充和屏蔽处理,本说明书不做限制。

根据本发明的一个实施例,为了确定准确度最高的客诉识别模型,如图4所示,所述方法还包括:

步骤401:每对所述训练数据集中的全部样本进行一次训练后,根据所述全连接层的输出结果和所述训练数据集中的标注情况计算客诉识别模型正确率;

步骤402:在所述正确率超过预设门限值且大于前后预定次训练对应的正确率时,将该正确率对应的所述客诉识别模型作为最终的客诉识别模型。

在本发明实施例中,把所有训练样本都训练一次(一个epoch)之后,都计算一次验证集(未参与训练的样本)的正确率,如果正确率超过预设门限值且大于前后预定次训练对应的正确率时,将该正确率对应的客诉识别模型作为最终的客诉识别模型。

前后预定次数可以根据实际的需要设定,例如前后一次训练。也可以设定相应的规则,例如在训练次数达到设定值后,若最后一次训练的正确率仍大于前一次训练的正确率,则前后预定次中的后面预定次数为0,不再进行训练,将最后一次训练的客诉识别模型作为最终的模型。

通过图4所示的方法,确保了训练得到的模型的正确率是最佳的。

基于同一发明构思,本发明实施例还提供了一种客诉识别模型的构建装置,如图5所示,包括:

样本集归一化处理单元501,用于将预先标注的客诉样本集和非客诉样本集经过层归一化处理,得到训练数据集;

双层双向LSTM网络训练单元502,用于将所述训练数据集输入到双层双向LSTM网络进行训练,得到所述训练数据集中每个样本的输出;

第一向量构建单元503,用于将所述训练数据集中每个样本最后一个字符的隐藏层输出组成第一向量;

池化处理单元504,用于对所述训练数据集全部样本的输出在列维度上分别进行最大池化操作和平均池化操作,得到第二向量和第三向量;

全连接层训练单元505,用于对所述第一向量、第二向量和第三向量输入到全连接层进行训练;

客诉识别模型确定单元506,用于在所述全连接层的输出结果与所述训练数据集中的标注情况之间的匹配度满足要求的情况下,得到客诉识别模型。

由于上述装置解决问题的原理与上述方法相似,因此上述装置的实施可以参见上述方法的实施,重复之处不再赘述。

基于同一发明构思,本发明实施例还提供了一种客诉识别方法,如图6所示,所述方法包括:

步骤601:获取用户反馈的文本数据;

步骤602:将所述文本数据输入到预先利用上述所述的客诉识别模型的构建方法得到的客诉识别模型中进行计算,得到所述文本数据对应的客诉识别结果。

示例性地,可以按照设定的间隔时间跑一次客诉识别模型,对过设定的时间间隔对应的时间内产生的文本数据进行预测,确定是否为客诉文本,若为客诉文本,则通知业务人员进行处理。对所有输入模型的客诉原始数据、清洗后的数据、模型预测结果保存到数据库存档,方便日后做数据溯源。

基于同一发明构思,本发明实施例还提供了一种客诉识别装置,如图7所示,所述装置包括:

客诉文本获取单元701,用于获取用户反馈的文本数据;

客诉识别单元702,用于将所述文本数据输入到预先利用上述所述的客诉识别模型的构建方法得到的客诉识别模型中进行计算,得到所述文本数据对应的客诉识别结果。

由于上述装置解决问题的原理与上述方法相似,因此上述装置的实施可以参见上述方法的实施,重复之处不再赘述。

如图8所示为本发明实施例计算机设备的结构示意图,本发明中的装置可以为本实施例中的计算机设备,执行上述本发明的方法。计算机设备802可以包括一个或多个处理设备804,诸如一个或多个中央处理单元(CPU),每个处理单元可以实现一个或多个硬件线程。计算机设备802还可以包括任何存储资源806,其用于存储诸如代码、设置、数据等之类的任何种类的信息。非限制性的,比如,存储资源806可以包括以下任一项或多种组合:任何类型的RAM,任何类型的ROM,闪存设备,硬盘,光盘等。更一般地,任何存储资源都可以使用任何技术来存储信息。进一步地,任何存储资源可以提供信息的易失性或非易失性保留。进一步地,任何存储资源可以表示计算机设备802的固定或可移除部件。在一种情况下,当处理设备804执行被存储在任何存储资源或存储资源的组合中的相关联的指令时,计算机设备802可以执行相关联指令的任一操作。计算机设备802还包括用于与任何存储资源交互的一个或多个驱动机构808,诸如硬盘驱动机构、光盘驱动机构等。

计算机设备802还可以包括输入/输出模块810(I/O),其用于接收各种输入(经由输入设备812)和用于提供各种输出(经由输出设备814)。一个具体输出机构可以包括呈现设备816和相关联的图形用户接口(GUI)818。在其他实施例中,还可以不包括输入/输出模块810(I/O)、输入设备812以及输出设备814,仅作为网络中的一台计算机设备。计算机设备802还可以包括一个或多个网络接口820,其用于经由一个或多个通信链路822与其他设备交换数据。一个或多个通信总线824将上文所描述的部件耦合在一起。

通信链路822可以以任何方式实现,例如,通过局域网、广域网(例如,因特网)、点对点连接等、或其任何组合。通信链路822可以包括由任何协议或协议组合支配的硬连线链路、无线链路、路由器、网关功能、名称服务器等的任何组合。

本文实施例还提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述方法。

本文实施例还提供一种计算机可读指令,其中当处理器执行所述指令时,其中的程序使得处理器执行上述方法。

应理解,在本文的各种实施例中,上述各过程的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本文实施例的实施过程构成任何限定。

还应理解,在本文实施例中,术语“和/或”仅仅是一种描述关联对象的关联关系,表示可以存在三种关系。例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系。

本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本文的范围。

所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述的系统、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。

在本文所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另外,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口、装置或单元的间接耦合或通信连接,也可以是电的,机械的或其它的形式连接。

所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本文实施例方案的目的。

另外,在本文各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以是两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。

所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本文的技术方案本质上或者说对现有技术做出贡献的部分,或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本文各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。

本文中应用了具体实施例对本文的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本文的方法及其核心思想;同时,对于本领域的一般技术人员,依据本文的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本文的限制。

技术分类

06120116077103