掌桥专利:专业的专利平台
掌桥专利
首页

基于改进的生成对抗网络的评分预测方法

文献发布时间:2023-06-19 19:30:30


基于改进的生成对抗网络的评分预测方法

技术领域

本发明涉及计算机应用技术领域,具体是基于改进的生成对抗网络的评分预测方法。

背景技术

目前,基于协同过滤的推荐算法一直是推荐领域使用最广泛、最主流的方法之一,协同过滤是根据已有用户与项目交互的历史数据推测未知数据,启发式的协同过滤推荐算法主要分为三种:一种是基于用户的协同过滤算法,通过计算用户之间的相似度为用户推荐可能喜欢的项目;一种是基于项目的协同过滤算法,通过计算项目之间的相似度,从而向用户推荐;一种是基于模型的协同过滤算法,利用已有的部分稀疏数据来预测那些空白的物品和数据之间的评分关系,从而找到用户可能感兴趣的项目。随着深度学习的不断发展,生成对抗网络(Generative Adversarial Networks)已经被成功应用到推荐领域。生成对抗网络拥有生成模型和判别模型,但在训练过程中,生成器试图欺骗鉴别器,并让其认为生成模型中的数据是真实数据,鉴别器试图正确判断真实数据,在GAN训练期间,生成模型试图通过输入假数据生成真实数据,而区别模型则估计数据为真或假的可能性(来自生成模型),最终,鉴别器无法区分生成器中的数据,而生成器可以生成我们需要的数据,由于GAN缺乏有效的推理机制,无法对用户的交互特征进行表示,这限制了它学习数据的分布,影响了预测结果的准确性。

发明内容

本发明的目的在于解决现有技术中存在的问题,提供基于改进的生成对抗网络的评分预测方法,可以利用学习到的交互特征,进一步提升模型学习用户兴趣分布的能力,以提高评级预测的准确性。

本发明为实现上述目的,通过以下技术方案实现:

基于改进的生成对抗网络的评分预测方法,包括步骤:

S1、首先将用户交互历史输入到编码器中,利用编码器学习用户交互数据的特征并进行表示,然后将编码器的输入与输出看作联合分布,并输入到判别器;

S2、将用户隐式交互矩阵输入到生成器中,由生成器学习用户的兴趣分布,并将生成器的输出与输入看作联合分布,输入到判别器;

S3、将训练得到两个联合分布分别输入到判别器中,判别器判断输入数据的来源,如果来自于编码器,则输出的值越接近于1越好,如果来源于生成器,则输出的值越接近于0越好,编码器与生成器两者做对抗训练,以使两个联合分布尽可能的接近;

S4、当训练到最优时,两个联合分布基本相同,此时将用户的每个项目输入到生成器中,对每个项目生成一个评分,并做一个排序,为用户提供他们可能更感兴趣的项目。

优选的,步骤S1中,以用户的交互历史作为输入,在进入编码器后,对数据进行特征提取,以获取用户的兴趣偏好,最终得到所有用户兴趣偏好矩阵,然后将编码器的输入与输出看作一个联合分布,作为判别器的输入。

优选的,步骤S2中,将隐式交互矩阵输入到生成器中,生成器根据用户的兴趣分布,不断地学习,最终生成尽可能接近用户真实兴趣的分布,然后将生成器的输出与输入看作一个联合分布,作为判别器的输入。

优选的,步骤S3中,将编码器与判别器的联合分布输入到判别器中,判别器判断输入数据的来源,假设来源于编码器,则输出值为1,来源于生成器,则输出值为0,编码器、生成器与判别器做对抗训练,使两个联合分布尽可能的接近,在训练完成后,完成用户对每个项目的评分预测,来为用户推荐他们更感兴趣的项目。

对比现有技术,本发明的有益效果在于:

本发明将独立的编码器和生成器进行对抗训练测试评分预测,以便更好地为用户推荐喜欢的项目,提高用户满意度;利用独立的编码器与生成器,学习交互特征的表示,能够更好地拟合用户项目交互数据的分布,提高推荐的准确性。

附图说明

图1是本发明的系统评分预测总体架构图;

图2是本发明的编码器结构图;

图3是本发明的生成器结构图;

图4是本发明的判别器结构图。

具体实施方式

下面结合具体实施例,进一步阐述本发明。应理解,这些实施例仅用于说明本发明而不用于限制本发明的范围。此外应理解,在阅读了本发明讲授的内容之后,本领域技术人员可以对本发明作各种改动或修改,这些等价形式同样落于本申请所限定的范围。

CFGAN是基于GAN和CF的非常成功的深度推荐框架。在数据预处理方面,采用矢量方式对抗训练,提出基于矢量方式对抗训练的GAN框架。由于数据更易于收集,因此它计划将重点放在具有隐式反馈的CF上。CFGAN的生成模型试图生成真实的购买向量。同样,D试图区分生成的用户购买向量和从地面真实情况获得的真实购买向量。生成器通过生成与购买向量类似的向量来与判别器进行博弈,但是最终生成器将训练得到一个全1向量,为此,将负采样技术引入CFGAN,并通过损失函数进行优化,保证生成器G学习到用户购买过的物品为1、未购买过的为0从而生成非全1的购买向量。

实施例1:如附图1-4所示,本发明所述是基于改进的生成对抗网络的评分预测方法,包括步骤:

S1、首先将用户交互历史输入到编码器中,利用编码器学习用户交互数据的特征并进行表示,然后将编码器的输入与输出看作联合分布,并输入到判别器;

S2、将用户隐式交互矩阵输入到生成器中,由生成器学习用户的兴趣分布,并将生成器的输出与输入看作联合分布,输入到判别器;

S3、将训练得到两个联合分布分别输入到判别器中,判别器判断输入数据的来源,如果来自于编码器,则输出的值越接近于1越好,如果来源于生成器,则输出的值越接近于0越好,编码器与生成器两者做对抗训练,以使两个联合分布尽可能的接近;

S4、当训练到最优时,两个联合分布基本相同,此时将用户的每个项目输入到生成器中,对每个项目生成一个评分,并做一个排序,为用户提供他们可能更感兴趣的项目。

实施例2:本发明所述是基于改进的生成对抗网络的评分预测方法,具体的:

1、编码器

编码器的模型图如附图2所示,以用户的交互历史作为输入,在进入编码器后,对数据进行特征提取,以获取用户的兴趣偏好,最终得到所有用户兴趣偏好矩阵。然后将编码器的输入与输出看作一个联合分布,作为判别器的输入。

2、生成器

生成器的模型图如附图3所示,我们将隐式交互矩阵输入到生成器中,生成器根据用户的兴趣分布,不断地学习,最终生成尽可能接近用户真实兴趣的分布。然后将生成器的输出与输入看作一个联合分布,作为判别器的输入。

3、判别器

判别器的模型图如附图4所示,最终将编码器与判别器的联合分布输入到判别器中,判别器判断输入数据的来源,假设来源于编码器,则输出值为1,来源于生成器,则输出值为0,编码器、生成器与判别器做对抗训练,使两个联合分布尽可能的接近。在训练完成后,完成用户对每个项目的评分预测,来为用户推荐他们更感兴趣的项目。

4、评分预测推荐模型

整体模型框架图参照附图1,将独立的编码器和生成器进行对抗训练测试评分预测,以便更好地为用户推荐喜欢的项目,提高用户满意度。

具体步骤如下:

步骤1:将隐式交互矩阵分别输入到编码器与生成器中,分别得到生成的交互矩阵。

步骤2:将编码器的输入与输入看作一个联合分布,生成器的输出与输入作为一个联合分布,两个联合分布同时输入到判别器中,进行对抗训练,直到判别器无法区分数据的来源。

步骤3:将用户的每个项目输入到训练好的生成器中,生成用户对每个项目的评分,预测用户的真实偏好。

5、实验证明

采用3个数据集Movielens-100K,Filmtrust以及Movielens-1M,采用以下4种对比算法:BPR、CDAE、CFGAN、CGAN,以此验证本发明性能优于其它对比推荐算法。

将IGAN与以上方法进行比较提到的模型进行了比较。

比较的结果如表表1,表2所示。

表1不同数据集的对比

表2不同Epoch的实验结果

在MovieLens-100K,FilmTrust,MovieLens-1M上,本发明都取得了更好的效果,所有指标都优于目前一些算法。CFGAN模型在基本原理以及方法上和本发明最相似,在MovieLens-100K上,IGAN相对于CFGAN性能而言,P@5提升了5.26%,G@5提升了5.43%,M@5提升了1.56%;在FilmTrust上,IGAN相比于CFGAN,P@5提升了1.40%,G@5提升了1.43%,M@5提升了1.56%;在MovieLens-1M上,IGAN相较于CFGAN,P@5提升了2.95%,G@5提升了2.85%,M@5提升了1.37%。结果表明,IGAN模型整体性能都优于CFGAN模型。

CGAN同样是生成对抗网络与变分自编码器结合的模型,利用变分自编码器作为生成器将离散空间对抗转移到连续空间对抗,增强了模型的鲁棒性,但并未充分利用变分自编码器的推理能力。

与CGAN相比,本发明在MovieLens-100K上,P@5提升了8.21%,G@5提升了8.68%,M@5提升了7.95%。

在表2中,本发明在Movielens-100k中分别在200、400、600epoch下对比CFGAN,CGAN,结果表明,训练200次下,P@5与G@5均优于CFGAN以及CGAN,在训练400以及600次下,编码器模块充分发挥了作用,提升了模型的训练速度以及精度。结果表明,在充分利用VAE推理能力与GAN对抗能力,IGAN能够表征一些有意义的特征,辅助模型学习更接近于真实数据的分布。无论在整体对比上还是在不同训练周期对比上,本发明的实验结果均为最优。

本发明主要优于目前一些算法的原因是本发明使用独立的编码器与生成器进行对抗训练,这种方式在一定程度上提升了GAN模型的特征表示能力,从而使本发明学到更真实的数据分布,为用户推荐更好的项目。

相关技术
  • 基于双重生成对抗网络的评分预测方法
  • 一种基于生成对抗网络的时序评分预测方法
技术分类

06120115938796