掌桥专利:专业的专利平台
掌桥专利
首页

一种基于大数据的可视化模型建立分析系统和方法

文献发布时间:2023-06-19 10:38:35


一种基于大数据的可视化模型建立分析系统和方法

技术领域

本发明涉及数据处理领域,特别涉及一种基于大数据的可视化模型建立分析系统和方法。

背景技术

随着互联网的快速发展,每天产生的数据量非常庞大。在大数据技术问世之前,传统的数据处理遇到了很多的瓶颈。首先,对于传统的数据库当数据量非常大的情况下就会导致存储到达上限,解决办法是换容量更大的硬盘,但是这么做的成本非常高。其次就是计算机无法快速的处理大数据量,在数据处理速度上也会遇到瓶颈。

数据建模是一种用于定义和分析数据的要求和其需要的相应支持的信息系统的过程。因此,数据建模的过程中,涉及到的专业数据建模工作,与企业的利益和用户的信息系统密切相关。从需求到实际的数据库,有三种不同的类型。用于信息系统的数据模型作为一个概念数据模型,本质上是一组记录数据要求的最初的规范技术。数据首先用于讨论适合企业的最初要求,然后被转变为一个逻辑数据模型,该模型可以在数据库中的数据结构概念模型中实现。一个概念数据模型的实现可能需要多个逻辑数据模型。数据建模中的最后一步是确定逻辑数据模型到物理数据模型中到对数据访问性能和存储的具体要求。数据建模定义的不只是数据元素,也包括它们的结构和它们之间的关系。

目前,利用大数据技术可以解决传统的信息技术架构存在的扩展性差、容错性差、性能低、安装部署及维护困难等诸多瓶颈。利用Hadoop的HDFS分布式文件系统对数据进行存储,扩展性好、容错性高。利用Hadoop的MapReduce对大规模数据集(大于1TB)进行并行计算,提高计算速度,性能高。但是现有的大数据技术对于非技术人员使用大数据技术是不太容易的,对数据库的了解没有专业人员深入,使用SQL语句实现与数据库的交互存在困难,但是相对普通用户而言,他们直接与数据库进行交互,并且需求不固定,无法进行服务的提前封装,灵活度低,无法满足业务技术用户需要。

发明内容

鉴于上述问题,提出了本发明以便提供一种克服上述问题或者至少部分地解决上述问题的一种基于大数据的可视化模型建立分析系统和方法。

为了解决上述技术问题,本申请实施例公开了如下技术方案:

一种基于大数据的可视化模型建立分析系统,包括:

数据资产模块、数据运算模块、算法模型模块和前端展现模块;其中

数据资产模块,用于数据源的设置,数据资源的创建,采用手动创建或资源绑定的方式将用户数据更新到系统,用户通过拖拽手工建模的方式,处理用户数据;

数据运算模块,用于对数据源进行数据的ETL处理,发现并纠正数据文件中可识别的错误;

算法模型模块,用于利用机器学习中经典算法对大量数据进行建模,然后利用模型进行预测;

前端展现模块,用于对已经处理过的数据或者未曾处理的数据进行图形化展现。

进一步地,数据资产模块的上传数据方式至少包括:本地文件上传、接口数据上传、数据库上传。

进一步地,数据库上传支持的数据库至少包括:ORACLE、MYSQL、HIVE。

进一步地,通过检查数据一致性、处理无效值和缺失值,实现发现并纠正数据文件中可识别的错误。

进一步地,数据运算模块至少包括:Sql处理子模块、抽样子模块、分类汇总子模块、合并数据子模块、删除重复子模块、数据分区子模块、排序子模块、数据离散化子模块、数据标准化子模块、过滤变量子模块、转置子模块、字段重排子模块、缺失值处理子模块、离群值处理子模块、查找转换子模块、插入变量子模块、加权子模块、样本均衡子模块、分词解析子模块。

进一步地,算法模型模块至少包括:Apriori算法子模块、Kmeans算法子模块、朴素贝叶斯算法子模块、逻辑回归算法子模块、岭回归算法子模块、LASSO算法子模块、线性回归算法子模块。

进一步地,前端展现模块画布的实现使用以下相关前端组件:jsPlumb、vue、elementui、draggable、axios;通过拖拉拽的方式可视化的操作组件来进行试验,依据已建立好的业务模型进行数据运算与算法分析,将结果数据集通过连接好的前端展现模块中的图表进行可视化多维度的展现。

进一步地,可视化多维度的展现包括:以不同的数据结构以不同的图表类型进行直观的展现;以下钻的形式进行多维度数据的展示;以节点定制化展示形式来对特殊数据进行定制化的展现;以多图联动展示的形式对数据进行展现。

本发明还公开了一种基于大数据的可视化模型建立分析方法,包括:

将需要处理的数据源利用数据资产中添加数据源节点将数据上传到系统上以备后续使用;

根据业务场景的需要,利用数据运算模块中的功能节点对数据进行过滤,如利用缺失值处理将数据中字段为空的一行数据删除,利用过滤变量将业务需要的字段进行保留,其他字段删除处理等一系列处理,获取想要的特定格式的数据;

如果业务场景中没有对算法的需求,就可以利用前端展现模块的图形化进行最终的数据的展现;在前端展现功能节点的选择上图形种类繁多,根据需求来选择不同的图形进行数据表现;如果需要用到算法,就需要加入算法节点;

选择完相应节点,将数据源节点、数据运算节点、算法模型节点或者无、前端展现节点进行连接保存,点击运行就可以跑通整个流程,将最终数据以血缘分析图形化展现出来。

本发明实施例提供的上述技术方案的有益效果至少包括:

本发明公开的一种基于大数据的可视化模型建立分析系统和方法,在整个数据处理流程方面非常的灵活,用户可以根据不同的需求完成相应的工作流;在数据源上传阶段,有多种上传方式提供选择;在数据运算阶段,有多种处理方式提供选择;算法阶段,也同样包含多种算法;数据展现阶段,包含多种图形;本发明支持多种核心主流算法库开箱即用,使得大数据分析简单化和平民化,使用者了解极少统计学与数据挖掘领域知识,便可轻松使用该系统对大数据进行数据挖掘与建模分析。

下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。

附图说明

附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。在附图中:

附图1是本发明实施例1中,一种基于大数据的可视化模型建立分析系统的结构示意图;

附图2是本发明实施例1中,自定义SQL配置窗口的结构图;

附图3是本发明实施例1中,可视化组件及最终连接效果图。

具体实施方式

下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。

为了解决现有技术中存在现有的大数据技术对于非技术人员使用大数据技术是不太容易的的问题,本发明实施例提供一种基于大数据的可视化模型建立分析系统和方法。

实施例1

一种基于大数据的可视化模型建立分析系统,如图1,包括:

数据资产模块1、数据运算模块2、算法模型模块3和前端展现模块4;其中

数据资产模块1,用于数据源的设置,数据资源的创建,采用手动创建或资源绑定的方式将用户数据更新到系统,用户通过拖拽手工建模的方式,处理用户数据。

在本实施例中,数据资产模块1包括三种上传数据方式,本地文件上传、消息数据上传、数据库上传,其中数据库上传支持ORACLE、MYSQL、HIVE等不同类型数据库:

ORACLE由甲骨文公司开发的关系型数据库管理系统。

MYSQL MYSQL是一个关系型数据库管理系统。

HIVE是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供简单的sql查询功能,可以将sql语句转换为MapReduce任务进行运行。

同时利用了Impala的开源组件;通过Sqoop将数据从mysql、oracle、mongodb数据库中导入Hive;通过Zookeeper提供数据同步服务,Impala是对hive对一个补充,可以实现高效的sql查询。

具体的,对于数据资产模块1,由于本系统数据来源不统一,需要将不同的数据源转换成统一的数据源,可以将关系型数据库,例如Oracle,Mysql,Sqlserver等,文件格式的数据,比如txt,csv等,也可以在现有的数据源基础上进行处理形成新的数据源,转换成统一的HIVE数据源,为本系统流程处理提供数据源。

(1)针对关系型数据库,采用Sqoop技术处理,Sqoop是通过一个MapReduce作业从数据库中导入一个表,这个作业从表中抽取一行行记录,然后写入到HDFS。

在导入开始之前,Sqoop使用JDBC来检查将要导入的表。检索出表中所有的列以及列的SQL数据类型。这些SQL类型(VARCHAR、INTEGER)被映射到Java数据类型(String、Integer等),在MapReduce应用中将使用这些对应的Java类型来保存字段的值。Sqoop的代码生成器使用这些信息来创建对应表的类,用于保存从表中抽取的记录。

(2)针对文件格式的数据,采用数据流的形式进行上传文件,使用Hadoop技术进行处理,本地文件通过MapReduce,将文件上传到HDFS上,再将文件通过指定的表名和字段名,存入Hive中。

(3)针对现有的数据源,采用Hive技术进行处理,在原有数据源的基础上采用Hive的select语句创建新的Hive表,产生新的数据源,也可以直接使用已经存在的数据源。

数据运算模块2,用于对数据源进行数据的ETL处理,发现并纠正数据文件中可识别的错误。在本实施例中,通过检查数据一致性、处理无效值和缺失值,实现发现并纠正数据文件中可识别的错误。

具体的,数据运算模块2至少包括:Sql处理子模块、抽样子模块、分类汇总子模块、合并数据子模块、删除重复子模块、数据分区子模块、排序子模块、数据离散化子模块、数据标准化子模块、过滤变量子模块、转置子模块、字段重排子模块、缺失值处理子模块、离群值处理子模块、查找转换子模块、插入变量子模块、加权子模块、样本均衡子模块、分词解析子模块。通过上述子模块实现SQL处理、抽样、分类汇总、合并数据集、数据分区、排序、数据离散、数据标准、过滤标量、转置、字段重排、加权、样本均衡等处理过程。

具体的,本实施例中:

(1)SQL处理是使用Hive的select语句根据原有的数据源创建新的数据源,SQL配置窗口的结构图如图2。

(2)抽样是使用Hive对原有的数据源进行抽样,产生新的数据源。

(3)分类汇总依据汇总变量进行分组,使用计算变量来计算均值、汇总、总计。

(4)合并数据集分为行记录追加和列变量追加,列变量追加需要选择合并变量,使用Hive处理产生数据集。

(5)删除重复项使用Hive根据去重变量过滤去除重复的数据。

(6)数据分区依据指定训练样本进行数据分区。

(7)排序依据处理变量对数据源进行排序。

(8)数据离散化依据处理变量产生离散数据形成结果集。

(9)数据标准化依据处理变量,选择标准化方法,产生数据集。

(10)过滤变量依据删除变量将其从结果集中删除,产生新的数据源。

(11)转置将所有的行和列转置,转置后,新生成的列名命名规则为transposition_1,transposition_2,……,transposition_15。

(12)字段重排指定字段的顺序。

(13)缺失值处理依据处理变量除去数据,产生新的结果集。

(14)查找转化依据处理变量,如果处理变量满足条件,将其替换。

(15)离群值处理,依据处理变量采用排除模式和识别规则对其处理。

(16)插入变量依据原有的列插入新的变量。

(17)加权依据处理变量对其添加加权因子。

(18)样本均衡依据处理变量,对其添加条件,如果满足条件,则根据因子对其进行转换。

数据运算主要采用Hive Sql技术进行处理,去除不符合要求的数据主要是有不完整的数据、错误的数据、重复的数据,也可以在原有数据基础上进行处理。

算法模型模块3,用于利用机器学习中经典算法对大量数据进行建模,然后利用模型进行预测。本实施例中,算法模型模块3至少包括:Apriori算法子模块、Kmeans算法子模块、朴素贝叶斯算法子模块、逻辑回归算法子模块、岭回归算法子模块、LASSO算法子模块、线性回归算法子模块。本系统的算法模型是基于分布式计算引擎的一款机器学习算法系统。用户通过拖拉拽的方式可视化的操作组件来进行试验,使得没有机器学习背景的工程师也可以轻易上手玩转数据挖掘。系统提供了Apriori、K_means、朴素贝叶斯、逻辑回归、岭回归、LASSO、线性回归等丰富的机器语言。

具体的,算法模型模块3中的算法模型主要采用Spark技术实现,将准备的数据集和训练数据提交到Spark集群高效处理并获取结果集。算法使用Java语音实现,首先将实现的算法程序打成jar包与系统分别部署,进而降低建模系统与算法的耦合度,在部署算法时,不会影响系统的使用。算法的具体实现是将任务提交给Spark集群处理,通过集群的分布式计算,可以快速有效的迭代计算。

本系统的算法模型模块3主要利用了spark mllib api进行编程实现,spark基于内存的计算引擎运算速度快,而且sparkmllib库中包含很多机器学习算法:Apriori、kmeans、朴素贝叶斯、逻辑回归、岭回归、lasso等算法,这些算法主要分成两类:分类和聚类。在这些算法里面kmeans算法属于聚类,而上面列举的算法属于分类算法,在代码实现上,两类问题存在不同的逻辑,下面将从这两个方面来阐述算法模型模块3涉及到的技术问题。

聚类算法

聚类,Cluster analysis,有时也被翻译为簇类,其核心任务是:将一组目标object划分为若干个簇,每个簇之间的object尽可能的相似,簇与簇之间的object尽可能的相异。所谓聚类问题,就是给定一个元素集合D,其中每个元素具有n个可观察属性,使用某种算法将D划分成k个子集,要求每个子集内部的元素之间相异度尽可能低,而不同子集的元素相异度尽可能高。其中每个子集叫做一个簇。

Kmeans属于基于平方误差的迭代重分配聚类算法,其核心思想十分简单:

(1)随机选择K个中心点。

(2)计算所有点到这K个中心点的距离,选择距离最近的中心点为其所在的簇。

(3)简单的采用算术平均数(mean)来重新计算K个簇的中心。

(4)重复步骤2和3,直至簇类不在发生变化或者达到最大迭代值。

(5)输出结果。

Kmeans算法的结果好坏依赖于对初始聚类中心的选择,容易陷入局部最优解,对K值的选择没有准则可依循,对异常数据较为敏感,只能处理数值属性的数据,聚类结构可能不平衡。

下面介绍Kmeans算法流程与技术细节。获取数据源,在数据资产中添加数据源并将数据源拖入画布中。然后连接数据运算的节点对数据源进行必要的ETL处理使得数据源能够满足算法部分的调用。在数据运算节点运行之后,会在集群的数据仓库hive中存一张本节点处理过后的数据,用于算法部分调用。

在算法部分进行详细说明。数据源节点与数据运算节点完成之后需要连接kmeans算法节点,将kmeans算法节点拖入画布中,双击次节点,会弹出配置页面,在配置页面中包含:1.选取哪些列来运行kmeans算法,因为在实际的业务需求中,不一定会用到所有的列;2.需要配置聚类类数,是指当前数据源想最终聚成多少个类;3.最大迭代次数,算法执行需要迭代多少次;4.随机次数;配置好之后点击保存,然后点击运行开始执行程序。

在后台代码中,当程序判断nodeType(节点类型)为K_Means时,会进入到KmeansServiceImpl的stepKmeans方法中。在这个方法里面,首先获取在配置界面等参数,利用KmeansInfo的实例化对象对这些参数执行set方法,将kmeans算法需要的参数都保存在KmeansInfo实例化对象中。接着执行toKmeansString方法,得到用空格分隔的参数字符串。

随后,执行DataRevert中的formatTableData方法,这个方法的作用是进行特征转换,因为数据源中难免会有字符串,而spark的kmeans算法要求数据为double类型,所以次方法对于算法是否执行成功非常重要。

执行算法jar包此处利用的是spark的yarn-client提交模式,这种模式的好处是不需要编写脚本,可以直接运行jar包。之后会执行Co-Insight-mllib.jar中的KMeansInfo,其中的参数在web端传入,主要的思路是,从hive指定表中获取已选字段数据,对数据进行相应格式转换,转化成要求的向量格式。利用Kmeans.train的api训练数据生成KmeansModel模型,次步骤是整个算法最重要的一步,只有生成了模型才能利用模型的predic方法来确定数据的聚类情况。最后将结果存入hdfs中,然后hive建表并读取hdfs数据。最终展现数据,将结果hive表与预测数据进行合并展示,到此基本kmeans算法(聚类算法)完成。

分类算法

简单来说,就是将具有某些特性的物体归类对应到一个已知的类别集合中的某个类别上。从数学角度来说,可以做如下定义:

已知集合:C={y1,y2,..,yn}和I={x1,x2,..,xm,..},确定映射规则y=f(x),使得任意xi∈I有且仅有一个yj∈C使得yj=f(xi)成立。

其中,C为类别集合,I为待分类的物体,f则为分类器,分类算法的主要任务就是构造分类器f。

分类算法的构造通常需要一个已知类别的集合来进行训练,通常来说训练出来的分类算法不可能达到100%的准确率。分类器的质量往往与训练数据、验证数据、训练数据样本大小等因素相关。

在分类算法中,不同算法之间不同之处是spark mllib底层的实现不同,在调用api情况下,只是训练数据的方法参数会有些不同,其他的程序逻辑大体相似,这里以朴素贝叶斯算法为例进行详细介绍。

朴素贝叶斯分类,Naive Bayes,你也可以叫它NB算法。其核心思想非常简单:对于某一预测项,分别计算该预测项为各个分类的概率,然后选择概率最大的分类为其预测分类。就好像你预测一个娘炮是女人的可能性是40%,是男人的可能性是41%,那么就可以判断他是男人。

下面介绍朴素贝叶斯算法流程和技术细节。分类算法与聚类算法流程不同,一次流程需要获取两个数据源,一个数据源带有标签列作为训练数据,而另一个数据源标签列为空作为预测数据。两个数据源要求字段名与类型要相同,接下来就要利用数据运算中的合并数据集,将两个数据源在hive中合并在一个表中作为后续的处理,此处正常直接利用行记录追加。

合并完数据集可以进行ETL操作,对数据进行运算处理,然后拖入算法模型中的朴素贝叶斯的算法节点连接,在朴素贝叶斯节点的配置页面中,可以选择标签列,哪些列作为执行算法使用,alpha属性,训练数据比例。配置好后保存运行,web端执行逻辑基本与kmeans算法web端的执行逻辑相似。

算法代码在Co-Insight-mllib.jar的NativeBayes中,选取训练数据的时候,要对之前合并的hive表以标签列是否为空来选取训练数据集与需要预测的数据集。然后利用NaiveBayes.train方法训练出NaiveBayesModel模型,同样利用模型的predict对预测集进行分类预测,最终将结果保存于hive的表中,用于之后的前端展现。

算法模块主要利用的技术是spark的mllib的api调用,在算法实现上重用性强,开发速度快,训练模型效率高,能够很好的利用集群资源,基本满足了算法的通用型。

前端展现模块4,用于对已经处理过的数据或者未曾处理的数据进行图形化展现。在本实施例中,前端展现模块4画布的实现使用以下相关前端组件:jsPlumb、vue、elementui、draggable、axios;通过拖拉拽的方式可视化的操作组件来进行试验,依据已建立好的业务模型进行数据运算与算法分析,将结果数据集通过连接好的前端展现模块4中的图表进行可视化多维度的展现。可视化多维度的展现包括:以不同的数据结构以不同的图表类型进行直观的展现;以下钻的形式进行多维度数据的展示;以节点定制化展示形式来对特殊数据进行定制化的展现;以多图联动展示的形式对数据进行展现。

具体的,前端展现模块4提供丰富的仪表展现,系统使用更生动、有好的形式,及时呈现出隐藏在瞬息万变且庞杂数据背后的业务洞察。无论在交通、通信等领域,通过交互式实时数据可视化来帮助业务人员发现、诊断业务问题,越来越成为大数据解决方案中至关重要的一环。优选的,前端展现模块4工作过程为:

(1)以表格或卡片的形式展现数据。

(2)将组件库中的可视化组件拖拽添加至画布中,在画布中生成可视化组件节点;由于可视化组件之间低耦合,因此该系统可支持ORACLE、MYSQL、HIVE等不同类型数据库。组件与画布的实现使用以下相关前端组件:jsPlumb、vue、elementui、draggable、axios;

(3)可视化组件节点右键弹出自定义SQL配置窗口绑定配置SQL;

(4)SQL配置窗口包括配置基本信息、配置字段信息、SQL预览三部分,配置基本信息包括create类型、创建表类型、库名、表名及高级配置。

(5)鼠标悬浮在可视化组件节点上会出现拖拽箭头,通过拖拽实现SQL表间关联并确定执行次序逻辑;

(6)通过添加组件与连线配置后,将可视化组件节点关系解析为图结构进行保存。可视化组件及最终连接效果图如图3。

与上述的方法实施例相对应,本实施例还公开了一种基于大数据的可视化模型建立分析方法,包括:

将需要处理的数据源利用数据资产中添加数据源节点将数据上传到系统上以备后续使用;

根据业务场景的需要,利用数据运算模块2中的功能节点对数据进行过滤,如利用缺失值处理将数据中字段为空的一行数据删除,利用过滤变量将业务需要的字段进行保留,其他字段删除处理等一系列处理,获取想要的特定格式的数据;

如果业务场景中没有对算法的需求,就可以利用前端展现模块4的图形化进行最终的数据的展现;在前端展现功能节点的选择上图形种类繁多,根据需求来选择不同的图形进行数据表现;如果需要用到算法,就需要加入算法节点;

选择完相应节点,将数据源节点、数据运算节点、算法模型节点或者无、前端展现节点进行连接保存,点击运行就可以跑通整个流程,将最终数据以血缘分析图形化展现出来。

本实施例公开的一种基于大数据的可视化模型建立分析方法和系统,可以让非技术人员不需要知道底层大数据技术的情况下可以很容易的使用。系统利用Flowable流程化技术,只需进行对数据源、数据处理、算法、数据展现等节点的拖拽连接就可以实现大数据处理过程。本系统主要利用Hive数据仓库来储存数据,数据处理部分直接利用Hive sql语句实现。当数据量巨大情况也可以很好的应对,性能优异。本系统算法部分利用Spark的millib进行实现。Spark的优点是job中间输出结果可以保存在内存中,从而不再需要读写HDFS,基于内存计算,运行效率高。Spark的机器学习库包含算法种类多样,分类、聚类等算法能够满足用户的需求。创建数据源、数据处理、算法、数据展现节点连接实现一站式数据分析流程,完成业务需求。

应该明白,公开的过程中的步骤的特定顺序或层次是示例性方法的实例。基于设计偏好,应该理解,过程中的步骤的特定顺序或层次可以在不脱离本公开的保护范围的情况下得到重新安排。所附的方法权利要求以示例性的顺序给出了各种步骤的要素,并且不是要限于所述的特定顺序或层次。

在上述的详细描述中,各种特征一起组合在单个的实施方案中,以简化本公开。不应该将这种公开方法解释为反映了这样的意图,即,所要求保护的主题的实施方案需要清楚地在每个权利要求中所陈述的特征更多的特征。相反,如所附的权利要求书所反映的那样,本发明处于比所公开的单个实施方案的全部特征少的状态。因此,所附的权利要求书特此清楚地被并入详细描述中,其中每项权利要求独自作为本发明单独的优选实施方案。

本领域技术人员还应当理解,结合本文的实施例描述的各种说明性的逻辑框、模块、电路和算法步骤均可以实现成电子硬件、计算机软件或其组合。为了清楚地说明硬件和软件之间的可交换性,上面对各种说明性的部件、框、模块、电路和步骤均围绕其功能进行了一般地描述。至于这种功能是实现成硬件还是实现成软件,取决于特定的应用和对整个系统所施加的设计约束条件。熟练的技术人员可以针对每个特定应用,以变通的方式实现所描述的功能,但是,这种实现决策不应解释为背离本公开的保护范围。

结合本文的实施例所描述的方法或者算法的步骤可直接体现为硬件、由处理器执行的软件模块或其组合。软件模块可以位于RAM存储器、闪存、ROM存储器、EPROM存储器、EEPROM存储器、寄存器、硬盘、移动磁盘、CD-ROM或者本领域熟知的任何其它形式的存储介质中。一种示例性的存储介质连接至处理器,从而使处理器能够从该存储介质读取信息,且可向该存储介质写入信息。当然,存储介质也可以是处理器的组成部分。处理器和存储介质可以位于ASIC中。该ASIC可以位于用户终端中。当然,处理器和存储介质也可以作为分立组件存在于用户终端中。

对于软件实现,本申请中描述的技术可用执行本申请所述功能的模块(例如,过程、函数等)来实现。这些软件代码可以存储在存储器单元并由处理器执行。存储器单元可以实现在处理器内,也可以实现在处理器外,在后一种情况下,它经由各种手段以通信方式耦合到处理器,这些都是本领域中所公知的。

上文的描述包括一个或多个实施例的举例。当然,为了描述上述实施例而描述部件或方法的所有可能的结合是不可能的,但是本领域普通技术人员应该认识到,各个实施例可以做进一步的组合和排列。因此,本文中描述的实施例旨在涵盖落入所附权利要求书的保护范围内的所有这样的改变、修改和变型。此外,就说明书或权利要求书中使用的术语“包含”,该词的涵盖方式类似于术语“包括”,就如同“包括,”在权利要求中用作衔接词所解释的那样。此外,使用在权利要求书的说明书中的任何一个术语“或者”是要表示“非排它性的或者”。

相关技术
  • 一种基于大数据的可视化模型建立分析系统和方法
  • 基于大数据分析技术的微博转发可视化分析方法及系统
技术分类

06120112623864