掌桥专利:专业的专利平台
掌桥专利
首页

一种基于推荐服务器及子系统的推荐系统及方法

文献发布时间:2024-04-18 19:53:33


一种基于推荐服务器及子系统的推荐系统及方法

技术领域

本文涉及人工智能领域,尤其涉及一种基于推荐服务器及子系统的推荐系统及方法。

背景技术

现有涉及多个子系统的推荐系统中,需要各子系统直接将样本数据发送至中央服务器,由中央服务器训练物品推荐模型。

现有技术中的物品推荐模型训练方法,因需要各子系统将本系统样本数据发送至中央服务器,因此存在用户隐私保护性差、使得用户隐私存在泄漏风险的问题。

发明内容

本文用于解决现有技术中的物品推荐模型训练存在用户隐私保护性差、泄漏风险大的问题。

为了解决上述技术问题。本文的第一方面提供一种基于推荐服务器及子系统的推荐系统,包括:推荐服务器及多个子系统;

推荐服务器用于发送待训练推荐模型至各子系统,对各子系统发送的局部推荐模型进行聚合处理,判断聚合所得推荐模型是否满足预设条件,若不满足,则将聚合所得推荐模型作为待训练推荐模型发送至各子系统,若满足,则将聚合所得推荐模型作为全局推荐模型发送至各子系统;

所述子系统用于接收待训练推荐模型及全局推荐模型;利用本地的会话数据调整待训练推荐模型的参数以得到局部推荐模型,发送局部推荐模型至所述推荐服务器;根据全局推荐模型对用户推荐请求进行内容推荐,其中,所述会话数据包括用户选择内容的连续序列。

作为本文的进一步实施例中,所述推荐服务器发送待训练推荐模型至各子系统,包括:

所述推荐服务器利用自适应选择器,选择活跃的子系统;

发送待训练推荐模型至活跃的子系统。

作为本文的进一步实施例中,所述推荐服务器对各子系统发送的局部推荐模型进行聚合处理得到全局推荐模型,包括:

利用如下公式对局部推荐模型中的各参数分别进行加权处理得到全局推荐模型:

S=∑

其中,S为全局推荐模型;q为子系统数量;a

作为本文的进一步实施例中,各子系统的权重通过如下公式计算得到:

其中,D

作为本文的进一步实施例中,各子系统利用本地的会话数据训练待训练推荐模型的参数以得到局部推荐模型,包括:

将本地的会话数据输入至待训练推荐模型中,预测得到推荐内容;

根据本地的会话数据及预测得到的推荐内容,构造损失函数;

利用损失函数优化所述待训练推荐模型中的参数,将优化后得到的模型作为局部推荐模型。

作为本文的进一步实施例中,利用本地的会话数据训练待训练推荐模型得到局部推荐模型之后还包括:

对局部推荐模型进行增加噪声处理。

作为本文的进一步实施例中,对局部推荐模型进行增加噪声处理包括:利用如下公式进行增加噪声处理:

其中,W

作为本文的进一步实施例中,各子系统根据全局推荐模型对用户推荐请求进行推荐,包括:

利用本地的会话数据更新全局推荐模型,得到本地个性化推荐模型;

利用本地个性化推荐模型对用户推荐请求进行推荐。

本文的第二方面提供一种基于推荐服务器及子系统的推荐方法,包括:

推荐服务器发送待训练推荐模型至各子系统;

各子系统接收所述待训练推荐模型,利用本地的会话数据训练所述待训练推荐模型的参数以得到局部推荐模型,发送局部推荐模型至所述推荐服务器,其中,所述会话数据包括用户选择内容的连续序列;

所述推荐服务器对各子系统发送的局部推荐模型进行聚合处理,判断聚合所得推荐模型是否满足预设条件,若不满足,则将聚合所得推荐模型作为待训练推荐模型发送至各子系统,若满足,则将聚合所得推荐模型作为全局推荐模型发送至各子系统;

各子系统接收所述全局推荐模型,根据全局推荐模型对用户推荐请求进行内容推荐。

本文的第三方面提供一种推荐服务器,包括:

通信模块,用于发送待训练推荐模型至各子系统;

聚合模块,用于根据各子系统发送的局部推荐模型进行聚合处理;

分析模块,用于判断聚合所得推荐模型是否满足预设条件,若不满足,则将聚合所得推荐模型作为待训练推荐模型通过所述通信模块发送至各子系统,若满足,则将将聚合所得推荐模型作为全局推荐模型通过所述通信模块发送至各子系统。

本文的第四方面提供一种推荐模型训练方法,适用于推荐服务器,包括:

发送待训练推荐模型至各子系统;

根据各子系统发送的局部推荐模型进行聚合处理得到全局推荐模型,通过所述通信模块发送全局推荐模型至各子系统。

本文第五方面提供.一种基于推荐服务器及子系统的推荐子系统,包括:

通信模块,用于接收待训练推荐模型及全局推荐模型;

训练模块,用于利用本地的会话数据训练所述待训练推荐模型的参数以得到局部推荐模型,发送局部推荐模型至所述推荐服务器,其中,所述会话数据包括用户选择内容的连续序列;

推荐模块,用于根据全局推荐模型对用户推荐请求进行推荐。

本文第六方面提供一种推荐模型训练方法,适用于基于推荐服务器及子系统的推荐子系统,包括:

接收待训练推荐模型及全局推荐模型;

用本地的会话数据训练所述待训练推荐模型的参数以得到局部推荐模型,发送局部推荐模型至推荐服务器,其中,所述会话数据包括用户选择内容的连续序列;

根据全局推荐模型对用户推荐请求进行推荐。

本文提供的基于推荐服务器及子系统的推荐系统及方法、推荐服务器及子系统,通过推荐服务器将待训练推荐模型发送至子系统,由子系统利用本地的会话数据训练待训练推荐模型,得到局部推荐模型,将局部推荐模型发送至推荐服务器,由推荐服务器对局部推荐模型进行聚合处理,判断聚合所得推荐模型是否满足预设条件,若不满足,则将聚合所得推荐模型作为待训练推荐模型发送至各子系统,若满足,则将聚合所得推荐模型作为全局推荐模型发送至各子系统,由各子系统根据全局推荐模型进行内容推荐,本文使用分散的子系统(例如每个连锁店)训练局部推荐模型,使用推荐服务器对局部推荐模型进行聚合处理,能够交换学习模型以实现基于会话的全局推荐模型(例如在中央商店),然后将全局推荐模型分发到所有子系统。本文将集中收集会话数据以训练推荐模型改为由各子系统分布式训练推荐模型,可以在实现相近推荐效果的情况下,更好保护用户隐私的效果。

为让本文的上述和其他目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附图式,作详细说明如下。

附图说明

为了更清楚地说明本文实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本文的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。

图1示出了本文实施例基于推荐服务器及子系统的推荐系统的结构图;

图2示出了本文实施例待训练推荐模型发送过程流程图;

图3示出了本文实施例待训练推荐模型训练过程流程图;

图4示出了本文实施例内容推荐过程流程图;

图5示出了本文实施例内容推荐方法的流程图;

图6示出了本文实施例推荐服务器的结构图;

图7示出了本文实施例推荐服务器侧的内容推荐模型训练方法的流程图;

图8示出了本文实施例内容推荐子系统的结构图;

图9示出了本文实施例内容推荐子系统的内容推荐模型训练方法的流程图;

图10示出了本文实施例内容推荐模型训练过程流程图;

图11示出了本文实施例计算机设备的结构图。

附图符号说明:

110、推荐服务器;

120、子系统;

610、通信模块;

620、聚合模块;

630、分析模块;

810、通信模块;

820、训练模块;

830、推荐模块;

1102、计算机设备;

1104、处理器;

1106、存储器;

1108、驱动机构;

1110、输入/输出模块;

1112、输入设备;

1114、输出设备;

1116、呈现设备;

1118、图形用户接口;

1120、网络接口;

1122、通信链路;

1124、通信总线。

具体实施方式

下面将结合本文实施例中的附图,对本文实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本文一部分实施例,而不是全部的实施例。基于本文中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本文保护的范围。

需要说明的是,本文的说明书和权利要求书及上述附图中的术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、装置、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。

本说明书提供了如实施例或流程图所述的方法操作步骤,但基于常规或者无创造性的劳动可以包括更多或者更少的操作步骤。实施例中列举的步骤顺序仅仅为众多步骤执行顺序中的一种方式,不代表唯一的执行顺序。在实际中的系统或装置产品执行时,可以按照实施例或者附图所示的方法顺序执行或者并行执行。

需要说明的是,本文的基于推荐服务器及子系统的推荐系统可用于任何需多家连锁或分公司的企业进行线上推荐内容。本文所述的推荐服务器为设置于企业中心,例如为中控服务器等。本文所述的子系统可位于不同的区域、数据中心或机构,例如为连锁店、分公司等机构的服务器,具体为何取决于应用场景。对于多方合作的情况,多方共同协作以训练新的全局模型而不公开原始数据,每一个子系统就是其中的一方。对于物联网的情况,如果每个设备都具有足够的计算能力,则每个设备都可以是理想情况下的子系统。

本文提供一种基于推荐服务器及子系统的推荐系统,用于解决现有技术中的内容推荐模型训练存在用户隐私保护性差、泄漏风险大的问题。具体的,如图1所示,基于推荐服务器及子系统的推荐系统包括:推荐服务器110及多个子系统120。

推荐服务器110用于发送待训练推荐模型至各子系统120,对各子系统120发送的局部推荐模型进行聚合处理,判断聚合所得推荐模型是否满足预设条件,若不满足,则将聚合所得推荐模型作为待训练推荐模型发送至各子系统120,若满足,则将聚合所得推荐模型作为全局推荐模型发送至各子系统120。

子系统120用于接收待训练推荐模型及全局推荐模型;利用本地的会话数据调整待训练推荐模型的参数以得到局部推荐模型,发送局部推荐模型至推荐服务器110;根据全局推荐模型对用户推荐请求进行内容推荐,其中,会话数据包括用户选择内容的连续序列。

本文通过将集中收集数据以训练推荐模型改为由各子系统分布式训练推荐模型,可以在实现相近推荐效果的情况下,更好保护用户隐私的效果。

详细的说,本文所述的待训练推荐模型、局部推荐模型、全局推荐模型均为基于会话的推荐模型,只是参数不同,待训练推荐模型包括原始推荐模型及推荐服务器聚合得到的推荐模型,待训练推荐模型的参数值需重新训练,局部推荐模型中的参数需进一步确定是否需要重训练,全局推荐模型中的参数为最终的参数。推荐模型可以预测用户即将选择的内容,具体为何内容,与用户已选择内容相关,本文对此不作限定。一些具体实施方式中,推荐模型例如选用现有神经网络模型,例如GRU4REC、SR-GNN等网络,本文对推荐模型的具体结构不作限定。

本文推荐的内容根据应用场景不同而不同,例如自动驾驶领域,内容可以为驾驶策略、车辆行为、车辆里的娱乐内容等,又例如电商领域,内容例如为用户点选的商品等,本文对推荐的内容具体为何不做限定。凡是能够根据用户操作产生连续序列内容的场景均属于本文保护范围。

所谓会话指的是用户在一次访问(例如一次登录)子系统时按顺序操作的用户行为,例如浏览记录、点击记录、购买记录等,记录中记录着相关内容信息。本文所述的会话数据为本地用户操作产生的数据,例如,用户一次登录子系统先后点击了A、B、C三个内容,则A、B、C即为用户的一会话数据。各子系统训练待训练推荐模型时,可使用本系统已有的所有会话数据实现,或使用最近一段时间(例如三个月)的会话数据实现,本文对此不作限定。

本文所述推荐模型的输入为用户已输入内容序列(用户可通过点击、浏览等方式实现内容序列录入),输出为推荐内容的概率,可将概率最高的内容推荐给用户,或概率排名前N的内容推荐给用户,例如用户购买了相机、一些镜头和相机三脚架,则在此会话中推荐当前用户的下一个选择内容。具体实施时,可将各子系统中的会话数据划分为训练集及测试集,利用训练集中的会话数据训练待训练推荐模型,用测试集中的会话数据测试局部推荐模型的精度,根据测试结果决定是否要重新训练。

具体实施时,需先将已有会话数据进行数字化转换,得到会话数字化序列,数据化时,先对会话数据内的内容进行编号,随后将会话数据转化为one hot encoding,再将其转化为密集嵌入向量。然后,根据会话数据,标定预测内容输出概率。最后,根据数字化序列及对应的预测内容概率训练待训练推荐模型。具体训练过程可参考现有技术,此处不再详述。

具体实施时,由于子系统的内部原因(例如用户不活跃)或外部原因(例如由不稳定的网络连接引起的传输失败),并非所有子系统都会参与每个与推荐服务器通信的过程,为了减少时间成本,提高推荐模型的训练效率,如图2所示,推荐服务器110发送待训练推荐模型至各子系统120,包括:步骤201,推荐服务器利用自适应选择器,选择活跃的子系统;步骤202,发送待训练推荐模型至活跃的子系统。

本文所述的自适应选择器可根据子系统的资源情况自动选择活跃的子系统,即子系统资源满足预设阈值的子系统。

为了提高数据传输效率,本文所述的推荐服务器110将待训练推荐模型及全局推荐模型发送至各子系统120,各子系统120发送局部推荐模型至推荐服务器110均至发送的是模型中的参数,各子系统120级推荐服务器110之间约定有模型的结构信息。进一步的,参与训练模型的子系统可能需要花费更多的时间对模型进行训练,并且模型性能也会受到影响。例如,如果只有少数子系统参与通信回合,则模型性能将很快达到极限。如果继续进行培训,则会浪费计算资源,并给这些子系统带来负担。,为了解决这个问题,可设置子系统的限制数量n

子系统根据全局推荐模型对用户推荐请求进行内容推荐过程包括:将用户已经确定的会话数据(例如用户已经购买了相机、镜头及三脚架,已有的会话数据为相机、镜头、三脚架)输入至全局推荐模型中,由全局推荐模型输出用户下一选择的内容(例如,用户下一步将购买的物品),并依据全局推荐模型输出的内容对用户进行推荐。

子系统120训练待训练推荐模型时,可将每次更新的推荐模型作为局部推荐模型发送给推荐服务器110,还可将多次更新的推荐模型作为局部推荐模型发送给推荐服务器110,本文对此不作限定。

本文一实施例中,推荐服务器110根据各子系统发送的局部推荐模型的准确度对各子系统发送的局部推荐模型进行聚合处理得到全局推荐模型,包括:

利用如下公式对局部推荐模型中的各参数分别进行加权处理得到全局推荐模型:

S=∑

其中,S为全局推荐模型;q为子系统数量;a

详细的说,各子系统的权重为各子系统中会话数据的数据量占所有子系统中会话数据的数据量的比例,可通过如下公式计算得到:

其中,D

具体的,会话数据的数量指的是会话数据条数,例如两条会话数据分别为A->B,B->C,那么数据量是2。

通常情况下,数据量越大,计算出的模型精度越高,因此,各子系统数据量的占比能够反映各子系统计算出的局部推荐模型的准确度。

本文一实施例中,每一子系统均具有一本地推荐器引擎,各子系统的本地推荐器引擎利用本地计算资源对推荐模型进行训练、局部推荐模型的传输以及利用全局推荐模型向用户推荐内容,其中,本地资源包括计算模型所需的CPU,GPU,内存等。如图3所示,各子系统120利用本地的会话数据训练待训练推荐模型的参数以得到局部推荐模型,包括:

步骤301将本地的会话数据输入至待训练推荐模型中,预测得到推荐内容;

步骤302,根据本地的会话数据及预测得到的推荐内容,构造损失函数;

步骤303,利用损失函数优化所述待训练推荐模型中的参数,将优化后得到的模型作为局部推荐模型。

步骤302中,可采用成对排序损失构造损失函数。还可利用本地的会话数据能够确定下一推荐内容,根据下一推荐内容及预测得到的推荐内容,采用MSE等方法构造损失函数,本文对此不作限定。

步骤303中,判断损失函数梯度下降迭代是否收敛到损失函数接近最小值或不在变化,若判断结果为否,则利用预设步长及损失函数的下降梯度利用如下公式确定待训练推荐模型中参数。

s′

重复上述步骤301至步骤303直至损失函数梯度下降迭代是否收敛到损失函数接近最小值或不在变化,完成待训练模型的优化,将最后得到的模型作为局部推荐模型。

本文一实施例中,为了进一步保护用户隐私,推荐服务器利用本地的会话数据训练待训练推荐模型得到局部推荐模型之后还包括:

对局部推荐模型进行增加噪声处理。

一些具体实施方式中,对局部推荐模型进行增加噪声处理包括:利用如下公式进行增加噪声处理:

其中,W

本实施例通过添加

具体实施时,选择σ为

本实施例通过噪声添加至局部推荐模型中来使传输失真,从而使得系统对特定子系统的更新不敏感,可以实现子系统级别差分隐私。

本文一实施例中,为了适应各子系统个性化需求,如图4所示,各子系统120根据全局推荐模型对用户推荐请求进行推荐,包括:

步骤401,利用本地的会话数据更新全局推荐模型,得到本地个性化推荐模型;

步骤402,利用本地个性化推荐模型对用户推荐请求进行推荐。

本实施例通过对各子系统的全局推荐模型进行微调,能够适应各子系统用户的案号,使得各子系统能够提供个性化推荐服务。

本文一实施例中,如图5所示,还提供一种基于推荐服务器及子系统的推荐方法,包括:

步骤501,推荐服务器发送待训练推荐模型至各子系统;

步骤502,各子系统接收所述待训练推荐模型,利用本地的会话数据训练所述待训练推荐模型的参数以得到局部推荐模型,发送局部推荐模型至所述推荐服务器,其中,所述会话数据包括用户选择内容的连续序列;

步骤503,推荐服务器对各子系统发送的局部推荐模型进行聚合处理,判断聚合所得推荐模型是否满足预设条件,若不满足,则将聚合所得推荐模型作为待训练推荐模型发送至各子系统,返回步骤502继续执行,若满足,则将聚合所得推荐模型作为全局推荐模型发送至各子系统;

步骤504,各子系统接收全局推荐模型,根据全局推荐模型对用户推荐请求进行内容推荐。具体的,步骤504包括:利用本地的会话数据更新全局推荐模型,得到本地个性化推荐模型;利用本地个性化推荐模型对用户推荐请求进行推荐。

本实施例各步骤的实施可参考前述实施例基于推荐服务器及子系统的推荐系统的实施例,此处不再详述。

本实施例将现有技术中集中收集会话数据改为分布式训练推荐模型的模式,可以在实现相近推荐效果的情况下,更好的保护用户隐私,将使分散的子系统(例如每个连锁店)能够交换推荐模型以实现基于会话的全局推荐模型(即各子系统局部推荐模型聚合后模型,例如在中央商店),然后将此全局推荐模型分发到所有子系统,所有子系统依据全局推荐模型进行内容推荐。

本文一实施例中,如图6所示,还提供一种推荐服务器,包括:

通信模块610,用于发送待训练推荐模型至各子系统;

聚合模块620,用于根据各子系统发送的局部推荐模型进行聚合处理;

分析模块630,用于判断聚合所得推荐模型是否满足预设条件,若不满足,则将聚合所得推荐模型作为待训练推荐模型通过所述通信模块发送至各子系统,若满足,则将聚合所得推荐模型作为全局推荐模型通过所述通信模块发送至各子系统。

相对应的,本文还提供一种内容推荐模型训练方法,应用于推荐服务器,如图7所示,内容推荐模型训练方法包括:

步骤710,发送待训练推荐模型至各子系统;

步骤720,根据各子系统发送的局部推荐模型进行聚合处理;

步骤730,判断聚合所得推荐模型是否满足预设条件,若不满足,则将聚合所得推荐模型作为待训练推荐模型发送至各子系统,若满足,则将聚合所得推荐模型作为全局推荐模型发送至各子系统。

本文一实施例中,如图8所示,还提供一种内容推荐子系统,包括:

通信模块810,用于接收待训练推荐模型及全局推荐模型;

训练模块820,用于利用本地的会话数据训练所述待训练推荐模型的参数以得到局部推荐模型,通过通信模块810发送局部推荐模型至推荐服务器,其中,所述会话数据包括用户选择内容的连续序列;

推荐模块830,用于根据全局推荐模型对用户推荐请求进行推荐。

相对应的,本文还提供一种内容推荐模型训练方法,应用于子系统,如图9所示,内容推荐模型训练方法包括:

步骤910,接收待训练推荐模型及全局推荐模型;

步骤920,利用本地的会话数据训练所述待训练推荐模型的参数以得到局部推荐模型,发送局部推荐模型至推荐服务器,其中,所述会话数据包括用户选择内容的连续序列;

步骤930,根据全局推荐模型对用户推荐请求进行推荐。

本文提供的推荐服务器及子系统配合使用,与现有技术相比,具有以下有益效果:

1.为了同时提高推荐性能并实现用户数据隐私,采用推荐服务器及子系统配合方式,由子系统进行推荐模型训练,由推荐服务器决定模型训练是否结束(可称之为联邦学习框架),能够获得令人满意的结果。

2.在推荐模型训练过程中,应用差分隐私算法,在训练模型中增加了噪声,将可接受的模型性能损失换取用户等级的差分隐私。

为了更清楚说明本文技术方案,下面以一具体实施例进行详细说明,具体的,假设推荐服务器中推荐模型为S(S为推荐模型中参数集合,用参数可以表示模型),子系统端的推荐模型为s

如图10所示,内容推荐模型(即全局推荐模型)训练方法及内容预测方法包括:

步骤1001,推荐服务器先确定初始推荐模型(例如通过初始化或先验数据训练得到推荐模型S0),将得到的初始推荐模型参数向量发送给各系统,s

步骤1002,在训练周期T中,对每个活跃的子系统,则利用本地会话数据构造损失函数L;利用本地会话数据计算损失函数的梯度

步骤1003,在梯度中增加噪声:

其中,

步骤1004,利用梯度、学习率及当前推荐模型的参数,计算得到更新后参数,即局部推荐模型参数,具体计算公式为:

s′

其中,s′

将局部推荐模型参数s′

步骤1005,推荐服务器从所有子系统中随机选择q个,这q个子系统局部推荐模型的参数向量为w

(1)先计算各子系统的权重:

其中,a

(2)根据各子系统的权重及各子系统的参数向量,对各子系统局部推荐模型进行聚合处理得到全局推荐模型:

S=∑

步骤1006,将全局推荐模型分发给各子系统s

步骤1007,各子系统接收推荐服务器发送的全局推荐模型,利用本地会话数据训练全局推荐模型,得到个性化推荐模型:

s‘’

利用个性化推荐模型对用户进行内容推荐。

本文一实施例中,还提供一计算机设备,作为上述推荐服务器或子系统,用于执行推荐模型的训练过程,具体的,如图11所示,计算机设备1102可以包括一个或多个处理器1104,诸如一个或多个中央处理单元(CPU),每个处理单元可以实现一个或多个硬件线程。计算机设备1102还可以包括任何存储器1106,其用于存储诸如代码、设置、数据等之类的任何种类的信息。非限制性的,比如,存储器1106可以包括以下任一项或多种组合:任何类型的RAM,任何类型的ROM,闪存设备,硬盘,光盘等。更一般地,任何存储器都可以使用任何技术来存储信息。进一步地,任何存储器可以提供信息的易失性或非易失性保留。进一步地,任何存储器可以表示计算机设备1102的固定或可移除部件。在一种情况下,当处理器1104执行被存储在任何存储器或存储器的组合中的相关联的指令时,计算机设备1102可以执行相关联指令的任一操作。计算机设备1102还包括用于与任何存储器交互的一个或多个驱动机构1108,诸如硬盘驱动机构、光盘驱动机构等。

计算机设备1102还可以包括输入/输出模块1110(I/O),其用于接收各种输入(经由输入设备1112)和用于提供各种输出(经由输出设备1114))。一个具体输出机构可以包括呈现设备1116和相关联的图形用户接口1118(GUI)。在其他实施例中,还可以不包括输入/输出模块1110(I/O)、输入设备1112以及输出设备1114,仅作为网络中的一台计算机设备。计算机设备1102还可以包括一个或多个网络接口1120,其用于经由一个或多个通信链路1122与其他设备交换数据。一个或多个通信总线1124将上文所描述的部件耦合在一起。

通信链路1122可以以任何方式实现,例如,通过局域网、广域网(例如,因特网)、点对点连接等、或其任何组合。通信链路1122可以包括由任何协议或协议组合支配的硬连线链路、无线链路、路由器、网关功能、名称服务器等的任何组合。

对应于图7、图9中的方法,本文实施例还提供了一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行上述方法的步骤。

本文实施例还提供一种计算机可读指令,其中当处理器执行所述指令时,其中的程序使得处理器执行如图7、图9所示的方法。

应理解,在本文的各种实施例中,上述各过程的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本文实施例的实施过程构成任何限定。

还应理解,在本文实施例中,术语“和/或”仅仅是一种描述关联对象的关联关系,表示可以存在三种关系。例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系。

本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本文的范围。

所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述的系统、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。

在本文所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另外,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口、装置或单元的间接耦合或通信连接,也可以是电的,机械的或其它的形式连接。

所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本文实施例方案的目的。

另外,在本文各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以是两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。

所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本文的技术方案本质上或者说对现有技术做出贡献的部分,或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本文各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。

本文中应用了具体实施例对本文的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本文的方法及其核心思想;同时,对于本领域的一般技术人员,依据本文的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本文的限制。

技术分类

06120116337374