掌桥专利:专业的专利平台
掌桥专利
首页

兴趣点分析方法及装置

文献发布时间:2023-06-19 11:35:49


兴趣点分析方法及装置

技术领域

本发明涉及数据处理技术领域,尤其涉及一种兴趣点分析方法及装置。

背景技术

本部分旨在为权利要求书中陈述的本发明实施例提供背景或上下文。此处的描述不因为包括在本部分中就承认是现有技术。

用户行为是具有关联性的,通过用户一段时间去过的地点序列,获取地点之间的关联性,可以得到一个地点的用户会去的以及去过的可能地点。这就是目前一个非常热门的研究课题兴趣点(Point of Interest,简称POI)分析。

现有技术中通常统计关注事件组在全量数据中发生的次数,例如,1000个用户中有100个用户一段时间内都去过医院和药店,则(医院,药店)的频次为100,如果此时(医院,甜品店)的频次为20,可以得出药店相比于甜品店和医院更相关。考虑事物发生的时序性时,则需保留整条时间上的行为链。但是这种方法存在数据量过大,时间复杂度过高的问题。

针对上述问题,目前尚未提出有效的解决方案。

发明内容

本发明实施例中提供了一种兴趣点分析方法,用以解决现有兴趣点分析方法存在数据量过大,时间复杂度过高的问题,该方法包括:

获得出行轨迹记录数据;

对所述出行轨迹记录数据进行次数压缩处理;

将次数压缩处理后的出行轨迹记录数据进行编码,得到对应的数字序列;

将所述数字序列输入预先建立的word2vec神经网络模型进行训练,确定训练好的所述word2vec神经网络模型的权重矩阵;

根据所述权重矩阵,进行兴趣点分析。

进一步地,出行轨迹记录数据包括:地点经纬度信息。

进一步地,对所述出行轨迹记录数据进行次数压缩处理,包括:

利用shrink函数对所述出行轨迹记录数据中重复的部分进行次数压缩处理。

进一步地,所述shrink函数为:对数函数向下取整。

进一步地,所述的兴趣点分析方法,还包括:

按预设窗口长度对所述数字序列进行取窗口处理;

将所述数字序列输入预先建立的word2vec神经网络模型进行训练,包括:将进行取窗口处理的数字序列输入预先建立的word2vec神经网络模型进行训练。

进一步地,所述word2vec神经网络模型包括:CBOW模型或LSTM模型。

进一步地,根据所述权重矩阵,进行兴趣点分析,包括:

根据所述权重矩阵,确定每个地点对应的向量;

根据所述向量,确定向量夹角数据;

根据所述向量夹角数据,进行兴趣点分析。

本发明实施例中提供了一种兴趣点分析装置,用以解决现有兴趣点分析方法存在数据量过大,时间复杂度过高的问题,该装置包括:

数据获得模块,用于获得出行轨迹记录数据;

数据压缩模块,用于对所述出行轨迹记录数据进行次数压缩处理;

数据编码模块,用于将次数压缩处理后的出行轨迹记录数据进行编码,得到对应的数字序列;

模型训练模块,用于将所述数字序列输入预先建立的word2vec神经网络模型进行训练,确定训练好的所述word2vec神经网络模型的权重矩阵;

兴趣点分析模块,用于根据所述权重矩阵,进行兴趣点分析。

进一步地,出行轨迹记录数据包括:地点经纬度信息。

进一步地,所述数据压缩模块进一步用于:

利用shrink函数对所述出行轨迹记录数据中重复的部分进行次数压缩处理。

进一步地,所述shrink函数为:对数函数向下取整。

进一步地,所述的兴趣点分析装置,还包括:

取窗口处理模块,用于按预设窗口长度对所述数字序列进行取窗口处理;

所述模型训练模块进一步用于:将进行取窗口处理的数字序列输入预先建立的word2vec神经网络模型进行训练。

进一步地,所述word2vec神经网络模型包括:CBOW模型或LSTM模型。

进一步地,所述兴趣点分析模块进一步用于:

根据所述权重矩阵,确定每个地点对应的向量;

根据所述向量,确定向量夹角数据;

根据所述向量夹角数据,进行兴趣点分析。

本发明实施例中还提供了一种计算机设备,所述计算机设备包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述兴趣点分析方法。

本发明实施例中还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有执行上述兴趣点分析方法的计算机程序。

本发明实施例通过获得出行轨迹记录数据;对所述出行轨迹记录数据进行次数压缩处理;将次数压缩处理后的出行轨迹记录数据进行编码,得到对应的数字序列;将所述数字序列输入预先建立的word2vec神经网络模型进行训练,确定训练好的所述word2vec神经网络模型的权重矩阵;根据所述权重矩阵,进行兴趣点分析。本发明实施例通过对出行轨迹记录数据进行次数压缩处理实现了重复地点的平滑,进而根据处理后的数据进行编码和模型训练,从而有效缩减了数据量,解决了现有兴趣点分析方法存在数据量过大,时间复杂度过高的问题。

附图说明

为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。在附图中:

图1为本发明实施例中提供的一种兴趣点分析方法流程图;

图2~图3为本发明具体实施例中兴趣点分析过程示意图;

图4为本发明实施例中提供的一种兴趣点分析装置示意图;

图5为本发明实施例中提供的一种电子设备示意图。

具体实施方式

为使本发明实施例的目的、技术方案和优点更加清楚明白,下面结合附图对本发明实施例做进一步详细说明。在此,本发明的示意性实施例及其说明用于解释本发明,但并不作为对本发明的限定。

首先对本发明实施例中涉及的技术用于进行解释:

Embedding:Embedding指用一个低维稠密向量“表示”一个对象,这里说的对象可以是一个词、一个商品,也可以是一部电影等等。Embedding过后的向量包含了对象的某些特征,且不同对象的Embedding向量相似度(cosine)能够反映对象之间的相似性。

word2vec:word2vec是word to vector的简称,是一个生成对于‘词’Embedding表达的模型,由谷歌在2013年提出。word2vec的模型结构是一个双层的神经网络,输入层是词的字典编号,在接上一个全连接的隐层过后,再接一个全连接的输出层。word2vec的出发点是希望用一个稠密向量表示一个词的语义,越相近的词向量相似度越高。如“男人”和“女人”的向量相似度会比“男人”和“口红”相似度高。word2vec有两种训练方式,skip-gram和CBOW。本文使用后者,CBOW是根据中心词周围的词来预测中心词的概率。在训练word2vec的过程中,需要准备由一组句子组成的语料库。假设其中一个长度为T的句子为w

LSTM:长短期记忆网络(LSTM,Long Short-Term Memory)是一种时间循环神经网络,是为了解决一般的RNN(循环神经网络)存在的长期依赖问题而专门设计出来的,所有的RNN都具有一种重复神经网络模块的链式形式。在标准RNN中,这个重复的结构模块只有一个非常简单的结构,例如一个tanh层。

Apriori:Apriori算法是第一个关联规则挖掘算法,也是最经典的算法。它利用逐层搜索的迭代方法找出数据库中项集的关系,以形成规则,其过程由连接(类矩阵运算)与剪枝(去掉那些没必要的中间结果)组成。该算法中项集的概念即为项的集合。包含K个项的集合为k项集。项集出现的频率是包含项集的事务数,称为项集的频率。如果某项集满足最小支持度,则称它为频繁项集。

如前所述,用户行为是具有关联性的,通过用户一段时间去过的地点序列,获取地点之间的关联性,得到一个地点的用户,会去的以及去过的可能地点。现有处理这种问题的思路是,统计关注事件组在全量数据中发生的次数,例如,1000个用户中有100个用户一段时间内都去过医院和药店,则(医院,药店)的频次为100,如果此时(医院,甜品店)的频次为20,这样我们可以得出药店相比于甜品店和医院更相关。进一步,考虑事物发生的时序性时,则需保留整条时间上的行为链,这样数据量往往过大,导致时间复杂度过高。

简单关联算法从是否购买商品的行为上,对商品进行关联计算,经典的Apriori算法,利用逐层搜索的迭代方法找出数据库中项集的关系,缺点为没有考虑地点发生的先后关系,如:abbaacaaaacaaac视为abc,但明显a地点和c地点具有较强先后关系;而现有的基于Aprior算法考虑时序性的模型,时间复杂度过高,难以处理大量数据;上述二中的CBOW方法处理此问题时的缺点为,当用户多次前往同个地点时,如:AAAAABC,训练B地点时,CBOW模型的输入中会出现过多A地点,输入多样性低,导致模型过于倾斜重复地点;如直接去重,则可能忽略了高频地点的影响

为了解决现有兴趣点分析方法存在数据量过大,时间复杂度过高的问题,本发明实施例中提供了一种兴趣点分析方法,图1为本发明实施例中提供一种兴趣点分析方法流程图,如图1所示,包括如下步骤:

步骤101、获得出行轨迹记录数据;

步骤102、对所述出行轨迹记录数据进行次数压缩处理;

步骤103、将次数压缩处理后的出行轨迹记录数据进行编码,得到对应的数字序列;

步骤104、将所述数字序列输入预先建立的word2vec神经网络模型进行训练,确定训练好的所述word2vec神经网络模型的权重矩阵;

步骤105、根据所述权重矩阵,进行兴趣点分析。

由图1所示可以得知,本发明实施例通过获得出行轨迹记录数据;对所述出行轨迹记录数据进行次数压缩处理;将次数压缩处理后的出行轨迹记录数据进行编码,得到对应的数字序列;将所述数字序列输入预先建立的word2vec神经网络模型进行训练,确定训练好的所述word2vec神经网络模型的权重矩阵;根据所述权重矩阵,进行兴趣点分析。本发明实施例通过对出行轨迹记录数据进行次数压缩处理实现了重复地点的平滑,进而根据处理后的数据进行编码和模型训练,从而有效缩减了数据量,解决了现有兴趣点分析方法存在数据量过大,时间复杂度过高的问题。

实施例中,获得出行轨迹记录数据。

本实施例中,出行轨迹记录数据包括:地点经纬度信息。

具体实施时,地点以经纬度表示,得到地点经纬度信息,由于用户以经纬度显示的位置会有一定误差,因此保留经纬度三位小数点,百米的范围。

实施例中,对所述出行轨迹记录数据进行次数压缩处理。

本实施例中,对所述出行轨迹记录数据进行次数压缩处理,包括:

利用shrink函数对所述出行轨迹记录数据中重复的部分进行次数压缩处理。

本实施例中,所述shrink函数为:对数函数向下取整。

具体实施时,利用shrink函数对所述出行轨迹记录数据中重复的部分进行次数压缩处理,其中shrink函数为对数函数向下取整,其中log向下取整,即

需要说明的是,数据中可能出现连续多次办公楼这样的信息,我们想获得去过办公楼的人可能还会去办公楼这样的信息,因此需要保留一定的重复地点;因此本发明实施例加入shrink压缩重复词的方式,平滑了A地点相对于C地点在模型训练时对B的影响程度。

实施例中,将次数压缩处理后的出行轨迹记录数据进行编码,得到对应的数字序列。

具体实施时,将次数压缩处理后的出行轨迹记录数据进行编码,按照在全量数据里出现的顺序,从而使得每一出行轨迹记录数据都转化为对应的数字。

实施例中,将所述数字序列输入预先建立的word2vec神经网络模型进行训练,确定训练好的所述word2vec神经网络模型的权重矩阵。

本实施例中,所述的兴趣点分析方法,还包括:

按预设窗口长度对所述数字序列进行取窗口处理;

将所述数字序列输入预先建立的word2vec神经网络模型进行训练,包括:将进行取窗口处理的数字序列输入预先建立的word2vec神经网络模型进行训练。

具体实施时,按预设窗口长度对所述数字序列进行取窗口处理,进行取窗口处理的数字序列包括输入词和目标词,输入预先建立的word2vec神经网络模型进行训练,将目标词加入负采样,按词频随机负采样。word2vec神经网络模型训练完成后,可以得到模型的权重矩阵。

本实施例中,所述word2vec神经网络模型包括:CBOW模型或LSTM模型。

具体实施时,CBOW模型用来判断地点之间关联性,得到的地点为去过一个地点用户前后可能去的地方。LSTM模型用来推导用户未来可能会去的地方。

需要说明的是,CBOW模型是一种利用上下文或周围的单词来预测中心词。输入是某一个特征词的上下文相关对应的词向量(单词的one-hot编码);输出是这特定的一个词的词向量(单词的one-hot编码)。比如在一段话中,我们可以在上下文大小取值为4,特定的这个词是"Learning",也就是我们需要的输出词向量(单词Learning的one-hot编码),上下文对应的词有8个,前后各4个,这8个词是我们模型的输入(8个单词的one-hot编码)。由于CBOW使用的是词袋模型,因此这8个词都是平等的,也就是不考虑他们和我们关注的词之间的距离大小,只要在我们上下文之内即可。这样我们这个CBOW的例子里,我们的输入是8个词向量(8个单词的one-hot编码),输出是所有词的softmax概率(训练的目标是期望训练样本中心词对应的softmax概率最大);对应的CBOW神经网络模型输入层有8个神经元,输出层有词汇表大小个神经元。隐藏层的神经元个数我们可以自己指定。通过DNN的反向传播算法,我们可以求出DNN模型的参数,同时得到所有的词对应的词向量。这样当我们有新的需求,要求出某8个词对应的最可能的输出中心词时,我们可以通过一次DNN前向传播算法并通过softmax激活函数找到概率最大的词对应的神经元即可。

需要说明的是,LSTM(Long Short-Term Memory)算法作为深度学习方法的一种,在介绍LSTM算法之前,有必要介绍一下深度学习(Deep Learning)的一些基本背景。目前在机器学习领域,最大的热点毫无疑问是深度学习,从谷歌大脑(Google Brain)的猫脸识别,到ImageNet比赛中深度卷积神经网络的获胜,再到Alphago大胜李世石,深度学习受到媒体、学者以及相关研究人员越来越多的热捧。这背后的原因无非是深度学习方法的效果确实超越了传统机器学习方法许多。从2012年Geoffrey E.Hinton的团队在ImageNet比赛(图像识别中规模最大影响最大的比赛之一)中使用深度学习方法获胜之后,关于深度学习的研究就呈井喷之势;在2012年以前,该比赛结果的准确率一直处于缓慢提升的状态,这一年突然有质的飞越,而从此之后深度学习方法也成为了ImageNet比赛中的不二选择。同时,深度学习的影响却不仅局限于图像识别比赛,也深刻影响了学术界和工业界,顶级的学术会议中关于深度学习的研究越来越多,如CVPR、ICML等等,而工业级也为深度学习立下了汗马功劳,贡献了越来越多的计算支持或者框架,如Nivdia的cuda、cuDnn,Google的tensorflow,Facebook的torch和微软的DMTK等等。

深度学习技术发展的背后是广大研究人员的付出,目前该领域内最著名的研究人员莫过于Yoshua Bengio,Geoffrey E.Hinton,Yann LeCun以及Andrew Ng。最近YoshuaBengio等出版了《Deep Learning》一书,其中对深度学习的历史发展以及该领域内的主要技术做了很系统的论述,其关于深度学习历史发展趋势的总结非常精辟,书中总结的深度学习历史发展趋势的几个关键点分别:

LSTM算法全称为Long short-term memory,最早由Sepp Hochreiter和JürgenSchmidhuber于1997年提出,是一种特定形式的RNN(Recurrent neural network,循环神经网络),而RNN是一系列能够处理序列数据的神经网络的总称。这里要注意循环神经网络和递归神经网络(Recursive neural network)的区别。一般地,RNN包含如下三个特性:a)循环神经网络能够在每个时间节点产生一个输出,且隐单元间的连接是循环的;b)循环神经网络能够在每个时间节点产生一个输出,且该时间节点上的输出仅与下一时间节点的隐单元有循环连接;c)循环神经网络包含带有循环连接的隐单元,且能够处理序列数据并输出单一的预测。RNN还有许多变形,例如双向RNN(Bidirectional RNN)等。然而,RNN在处理长期依赖(时间序列上距离较远的节点)时会遇到巨大的困难,因为计算距离较远的节点之间的联系时会涉及雅可比矩阵的多次相乘,这会带来梯度消失(经常发生)或者梯度膨胀(较少发生)的问题,这样的现象被许多学者观察到并独立研究。为了解决该问题,研究人员提出了许多解决办法,例如ESN(Echo State Network),增加有漏单元(Leaky Units)等等。其中最成功应用最广泛的就是门限RNN(Gated RNN),而LSTM就是门限RNN中最著名的一种。有漏单元通过设计连接间的权重系数,从而允许RNN累积距离较远节点间的长期联系;而门限RNN则泛化了这样的思想,允许在不同时刻改变该系数,且允许网络忘记当前已经累积的信息。

实施例中,根据所述权重矩阵,进行兴趣点分析。

本实施例中,根据所述权重矩阵,进行兴趣点分析,包括:

根据所述权重矩阵,确定每个地点对应的向量;

根据所述向量,确定向量夹角数据;

根据所述向量夹角数据,进行兴趣点分析。

具体实施时,根据CBOW模型特点,根据权重矩阵确定每个地点对应的向量,例如目标词为50,则取权重矩阵的第50维对应的向量。进而,通过不同地点的向量之间的向量夹角数据可以决定一个地点的相关联地点,从而实现兴趣点分析。对于LSTM模型,先将一个用户转化成对应的数字序列,地点通过初始化权重矩阵转成向量,输入函数每个节点由上个节点的输出和本节点的输入作为输入。

需要说明的是,如果直接使用CBOW模型与LSTM模型处理,连续重复的地点将导致训练结果不佳,比如一用户工作日只去过工作地点,周末去了医院和药店,但{公司,公司,公司,公司,公司,医院,药店}这个序列被模型训练后,模型将认为公司和医院的相关性远大于药店和医院。因此,我们需要结合shrink函数平滑重复地点的影响。对于超过一次的地点,通过压缩函数预处理时降低改地点次数。

下面给出一个具体实施例,说明本发明实施例中兴趣点分析方法的具体应用。在本具体实施例中,我们基于一个市的市民的出行轨迹记录数据,约130万人一个月的出行轨迹记录数据,共48000个地点。地点以经纬度表示,由于用户以经纬度显示的位置会有一定误差,这里我们保留经纬度三位小数点,为百米的范围。首先先对地点进行次数压缩处理,用shrink函数为log n向下取整,如图2所示。之后,将压缩后的数据进行编码,化为数字,得到结果为[40267,23104,22248,23104,22248,23104,22248],每个地点对应不同且唯一的数,将其按window大小取窗口,目标词加入负采样,作为CBOW模型的输入和目标,如图3所示。模型训练完数据后,得到权重矩阵,每个地点都可通过权重矩阵转化为向量,此时,我们可通过向量夹角大小决定一个地点的相关联地点。对于LSTM模型,先将一个用户转化成id的地点通过初始化权重矩阵转成向量V,输入函数,每个节点由上个节点的输出和本节点的输入作为输入。通过训练好的LSTM模型,可以做到输入一个序列,输出一个id。从而可以将结果通过地图软件进行展现。

基于同一发明构思,本发明实施例中还提供了一种兴趣点分析装置,如下面的实施例所述。由于该装置解决问题的原理与兴趣点分析方法相似,因此该装置的实施可以参见方法的实施,重复之处不再赘述。

图4为本发明实施例中提供一种兴趣点分析装置示意图,如图5所示,本发明实施例中提供的兴趣点分析装置可包括:

数据获得模块401,用于获得出行轨迹记录数据;

数据压缩模块402,用于对所述出行轨迹记录数据进行次数压缩处理;

数据编码模块403,用于将次数压缩处理后的出行轨迹记录数据进行编码,得到对应的数字序列;

模型训练模块404,用于将所述数字序列输入预先建立的word2vec神经网络模型进行训练,确定训练好的所述word2vec神经网络模型的权重矩阵;

兴趣点分析模块405,用于根据所述权重矩阵,进行兴趣点分析。

在一个实施例中,出行轨迹记录数据包括:地点经纬度信息。

在一个实施例中,所述数据压缩模块402进一步用于:

利用shrink函数对所述出行轨迹记录数据中重复的部分进行次数压缩处理。

在一个实施例中,所述shrink函数为:对数函数向下取整。

在一个实施例中,所述的兴趣点分析装置,还包括:

取窗口处理模块,用于按预设窗口长度对所述数字序列进行取窗口处理;

所述模型训练模块404进一步用于:将进行取窗口处理的数字序列输入预先建立的word2vec神经网络模型进行训练。

在一个实施例中,所述word2vec神经网络模型包括:CBOW模型或LSTM模型。

在一个实施例中,所述兴趣点分析模块405进一步用于:

根据所述权重矩阵,确定每个地点对应的向量;

根据所述向量,确定向量夹角数据;

根据所述向量夹角数据,进行兴趣点分析。

综上所述,本发明实施例通过获得出行轨迹记录数据;对所述出行轨迹记录数据进行次数压缩处理;将次数压缩处理后的出行轨迹记录数据进行编码,得到对应的数字序列;将所述数字序列输入预先建立的word2vec神经网络模型进行训练,确定训练好的所述word2vec神经网络模型的权重矩阵;根据所述权重矩阵,进行兴趣点分析。本发明实施例通过对出行轨迹记录数据进行次数压缩处理实现了重复地点的平滑,进而根据处理后的数据进行编码和模型训练,从而有效缩减了数据量,解决了现有兴趣点分析方法存在数据量过大,时间复杂度过高的问题。

基于同一发明构思,本发明实施例中还提供了一种用于实现上述兴趣点分析方法中的全部或部分内容的电子设备实施例。该电子设备具体包含有如下内容:

处理器(processor)、存储器(memory)、通信接口(Communications Interface)和总线;其中,所述处理器、存储器、通信接口通过所述总线完成相互间的通信;所述通信接口用于实现相关设备之间的信息传输;该电子设备可以是台式计算机、平板电脑及移动终端等,本实施例不限于此。在本实施例中,该电子设备可以参照实施例用于实现上述兴趣点分析方法的实施例及用于实现上述兴趣点分析装置的实施例进行实施,其内容被合并于此,重复之处不再赘述。

图5为本发明实施例中提供的一种电子设备的系统组成结构示意图。如图5所示,该电子设备50可以包括处理器501和存储器502;存储器502耦合到处理器501。值得注意的是,该图5是示例性的;还可以使用其他类型的结构,来补充或代替该结构,以实现电信功能或其他功能。

在一个实施例中,兴趣点分析方法实现的功能可以被集成到处理器501中。其中,处理器501可以被配置为进行如下控制:获得出行轨迹记录数据;对所述出行轨迹记录数据进行次数压缩处理;将次数压缩处理后的出行轨迹记录数据进行编码,得到对应的数字序列;将所述数字序列输入预先建立的word2vec神经网络模型进行训练,确定训练好的所述word2vec神经网络模型的权重矩阵;根据所述权重矩阵,进行兴趣点分析。

由上可知,本发明的实施例中提供的电子设备,通过获得出行轨迹记录数据;对所述出行轨迹记录数据进行次数压缩处理;将次数压缩处理后的出行轨迹记录数据进行编码,得到对应的数字序列;将所述数字序列输入预先建立的word2vec神经网络模型进行训练,确定训练好的所述word2vec神经网络模型的权重矩阵;根据所述权重矩阵,进行兴趣点分析。

通过本发明实施例中提供的电子设备,能够解决现有兴趣点分析方法存在数据量过大,时间复杂度过高的问题。

在另一个实施例中,兴趣点分析装置可以与处理器501分开配置,例如可以将兴趣点分析装置配置为与处理器501连接的芯片,通过处理器的控制来实现兴趣点分析方法的功能。

如图5所示,该电子设备50还可以包括:通信模块506、输入单元504、音频处理单元505、显示器506、电源503。值得注意的是,电子设备50也并不是必须要包括图5中所示的所有部件;此外,电子设备50还可以包括图5中没有示出的部件,可以参考现有技术。

如图5所示,处理器501有时也称为控制器或操作控件,可以包括微处理器或其他处理器装置和/或逻辑装置,该处理器501接收输入并控制电子设备50的各个部件的操作。

其中,存储器502,例如可以是缓存器、闪存、硬驱、可移动介质、易失性存储器、非易失性存储器或其它合适装置中的一种或更多种。可储存上述与失败有关的信息,此外还可存储执行有关信息的程序。并且处理器501可执行该存储器502存储的该程序,以实现信息存储或处理等。

输入单元504向处理器501提供输入。该输入单元504例如为按键或触摸输入装置。电源503用于向电子设备50提供电力。显示器506用于进行图像和文字等显示对象的显示。该显示器例如可为LCD显示器,但并不限于此。

该存储器502可以是固态存储器,例如,只读存储器(ROM)、随机存取存储器(RAM)、SIM卡等。还可以是这样的存储器,其即使在断电时也保存信息,可被选择性地擦除且设有更多数据,该存储器的示例有时被称为EPROM等。存储器502还可以是某种其它类型的装置。存储器502包括缓冲存储器5021(有时被称为缓冲器)。存储器502可以包括应用/功能存储部5022,该应用/功能存储部5022用于存储应用程序和功能程序或用于通过处理器501执行电子设备50的操作的流程。

存储器502还可以包括数据存储部5023,该数据存储部5023用于存储数据,例如联系人、数字数据、图片、声音和/或任何其他由电子设备使用的数据。存储器502的驱动程序存储部5024可以包括电子设备的用于通信功能和/或用于执行电子设备的其他功能(如消息传送应用、通讯录应用等)的各种驱动程序。

通信模块503即为经由天线508发送和接收信号的发送机/接收机。通信模块(发送机/接收机)503耦合到处理器501,以提供输入信号和接收输出信号,这可以和常规移动通信终端的情况相同。

基于不同的通信技术,在同一电子设备中,可以设置有多个通信模块503,如蜂窝网络模块、蓝牙模块和/或无线局域网模块等。通信模块(发送机/接收机)503还经由音频处理单元505耦合到扬声器509和麦克风510,以经由扬声器509提供音频输出,并接收来自麦克风510的音频输入,从而实现通常的电信功能。音频处理单元505可以包括任何合适的缓冲器、解码器、放大器等。另外,音频处理单元505还耦合到处理器501,从而使得可以通过麦克风510能够在本机上录音,且使得可以通过扬声器509来播放本机上存储的声音。

本发明的实施例中还提供了一种用于实现上述实施例中兴趣点分析方法中全部步骤的一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器执行时实现上述实施例中的兴趣点分析方法的全部步骤,例如,该处理器执行该计算机程序时实现下述步骤:获得出行轨迹记录数据;对所述出行轨迹记录数据进行次数压缩处理;将次数压缩处理后的出行轨迹记录数据进行编码,得到对应的数字序列;将所述数字序列输入预先建立的word2vec神经网络模型进行训练,确定训练好的所述word2vec神经网络模型的权重矩阵;根据所述权重矩阵,进行兴趣点分析。

由上可知,本发明的实施例中提供的计算机可读存储介质,通过获得出行轨迹记录数据;对所述出行轨迹记录数据进行次数压缩处理;将次数压缩处理后的出行轨迹记录数据进行编码,得到对应的数字序列;将所述数字序列输入预先建立的word2vec神经网络模型进行训练,确定训练好的所述word2vec神经网络模型的权重矩阵;根据所述权重矩阵,进行兴趣点分析。

通过本发明实施例中提供的计算机可读存储介质,能够解决现有兴趣点分析方法存在数据量过大,时间复杂度过高的问题。

虽然本发明提供了如实施例或流程图所述的方法操作步骤,但基于常规或者无创造性的劳动可以包括更多或者更少的操作步骤。实施例中列举的步骤顺序仅仅为众多步骤执行顺序中的一种方式,不代表唯一的执行顺序。在实际中的装置或客户端产品执行时,可以按照实施例或者附图所示的方法顺序执行或者并行执行(例如并行处理器或者多线程处理的环境)。

本领域技术人员应明白,本说明书的实施例可提供为方法、装置(系统)或计算机程序产品。因此,本说明书实施例可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。

本发明是参照根据本发明实施例的方法、装置(系统)和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。

这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。

这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。

本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。术语“上”、“下”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。除非另有明确的规定和限定,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本发明中的具体含义。需要说明的是,在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。本发明并不局限于任何单一的方面,也不局限于任何单一的实施例,也不局限于这些方面和/或实施例的任意组合和/或置换。可单独使用本发明的每个方面和/或实施例,或者与一个或更多其他方面和/或其他实施例结合使用。

以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例中所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围,其均应涵盖在本发明的权利要求和说明书的范围当中。

相关技术
  • 兴趣点POI与检索关键字的相关性分析方法和装置
  • 兴趣点POI与检索关键字的相关性分析方法和装置
技术分类

06120112985169