掌桥专利:专业的专利平台
掌桥专利
首页

一种数据迁移的方法和装置

文献发布时间:2023-06-19 11:02:01


一种数据迁移的方法和装置

技术领域

本发明涉及计算机技术领域,尤其涉及一种数据迁移的方法和装置。

背景技术

目前,多数企业的发展是以数据分析驱动的,利用大数据分析实现洞察的能力,充分释放企业潜能。但大量的数据存储、分析以及迁移等问题一直是一个挑战,随着数据量爆炸式的增长,对于大数据的快速分析处理的的时间也越来越严格,现有的数据迁移方法是通过最原始的手段,从Hive中导出的数据以.csv的格式存储,然后将文件的数据通过ClickHouse Client端的命令行方式导入ClickHouse。

在实现本发明过程中,发明人发现现有技术中至少存在如下问题:

迁移效率低,需要大量精力;以及迁移的数据还需要二次加工以满足需求。

发明内容

有鉴于此,本发明实施例提供一种数据迁移的方法和装置,能够高效地迁移海量数据;并在进行海量数据迁移的过程中,对海量数据在进行二次加工,处理为满足分析或查找等需求的数据。

为实现上述目的,根据本发明实施例的一个方面,提供了一种数据迁移的方法。

本发明实施例的一种数据迁移的方法包括:

根据数据源名称从源数据库获取待迁移数据表;

基于表字段从所述待迁移数据表中提取目标数据;

将所述表字段映射为目标字段,并将所述目标数据的类型转换为目标类型,以生成迁移数据;

将所述迁移数据存储到目标数据库。

可选地,基于表字段从所述待迁移数据表中提取目标数据,包括:

基于表字段从所述待迁移数据表中提取中间数据;

利用所述表字段的值从所述中间数据中筛选出目标数据。

可选地,将所述迁移数据存储到目标数据库,包括:

基于所述数据源名称查询所述目标数据库中是否存在存储所述迁移数据的存储数据表;其中,所述存储数据表与所述数据源名称对应;

若不存在,则基于所述目标字段创建所述存储数据表;并将所述迁移数据插入所述目标数据库的子集群的所述存储数据表中;其中,所述存储数据表分布存储于所述目标数据库的各个子集群;

若存在,则将所述迁移数据插入所述目标数据库的子集群的所述存储数据表中。

可选地,将所述迁移数据插入所述目标数据库的子集群的所述存储数据表中,包括:

对所述数据源名称的哈希值与所述迁移数据的日期进行取模运算,得到模余;

基于所述模余从所述目标数据库的子集群中匹配目标子集群;

将所述迁移数据插入所述目标子集群。

可选地,所述源数据库是Hive数据仓,所述目标数据库是ClickHouse,以及

根据数据源名称从源数据库获取待迁移数据表,包括:

利用Spark根据至少一个数据库名和/或数据表名从Hive数据仓获取待迁移数据表;其中,所述待迁移数据表是矩阵数据表,具有行索引和列索引。

为实现上述目的,根据本发明实施例的又一方面,提供了一种迁移数据的装置。

本发明实施例的一种数据迁移的装置包括:

获取模块,用于根据数据源名称从源数据库获取待迁移数据表;

提取模块,用于基于表字段从所述待迁移数据表中提取目标数据;

生成模块,用于将所述表字段映射为目标字段,并将所述目标数据的类型转换为目标类型,以生成迁移数据;

存储模块,用于将所述迁移数据存储到目标数据库。

可选地,所述提取模块还用于:

基于表字段从所述待迁移数据表中提取中间数据;

利用所述表字段的值从所述中间数据中筛选出目标数据。

可选地,所述存储模块还用于:

基于所述数据源名称查询所述目标数据库中是否存在存储所述迁移数据的存储数据表;其中,所述存储数据表与所述数据源名称对应;

若不存在,则基于所述目标字段创建所述存储数据表;并将所述迁移数据插入所述目标数据库的子集群的所述存储数据表中;其中,所述存储数据表分布存储于所述目标数据库的各个子集群;

若存在,则将所述迁移数据插入所述目标数据库的子集群的所述存储数据表中。

可选地,所述存储模块进一步用于:

对所述数据源名称的哈希值与所述迁移数据的日期进行取模运算,得到模余;

基于所述模余从所述目标数据库的子集群中匹配目标子集群;

将所述迁移数据插入所述目标子集群。

可选地,所述源数据库是Hive数据仓,所述目标数据库是ClickHouse,以及

所述获取模块还用于:

利用Spark根据至少一个数据库名和/或数据表名从Hive数据仓获取待迁移数据表;其中,所述待迁移数据表是矩阵数据表,具有行索引和列索引。

为实现上述目的,根据本发明实施例的又一方面,提供了一种数据迁移的电子设备。

本发明实施例的一种数据迁移的电子设备包括:一个或多个处理器;存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现本发明实施例的一种数据迁移的方法。

为实现上述目的,根据本发明实施例的再一方面,提供了一种计算机可读存储介质。

本发明实施例的一种计算机可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现本发明实施例的一种数据迁移的方法。

上述发明中的一个实施例具有如下优点或有益效果:因为采用根据数据源名称从源数据库获取待迁移数据表;基于表字段从待迁移数据表中提取目标数据;将表字段映射为目标字段,并将目标数据的类型转换为目标类型,以生成迁移数据;将迁移数据存储到目标数据库的技术手段,所以克服了迁移效率低,需要大量精力;以及迁移的数据还需要二次加工以满足需求的技术问题,进而达到能够高效地迁移海量数据;并在进行海量数据迁移的过程中,对海量数据在进行二次加工,处理为满足分析或查找等需求的数据的技术效果。

上述的非惯用的可选方式所具有的进一步效果将在下文中结合具体实施方式加以说明。

附图说明

附图用于更好地理解本发明,不构成对本发明的不当限定。其中:

图1是根据本发明实施例的数据迁移的方法的主要步骤的示意图;

图2是根据本发明一个可参考实施例的数据迁移的方法的实现流程的示意图;

图3是根据本发明实施例的数据迁移的方法的实现框架的示意图;

图4是根据本发明实施例的数据迁移的方法的应用示意图一;

图5是根据本发明实施例的数据迁移的方法的应用示意图二;

图6是根据本发明实施例的数据迁移的方法的主要模块的示意图;

图7是本发明实施例可以应用于其中的示例性系统架构图;

图8是适于用来实现本发明实施例的终端设备或服务器的计算机系统的结构示意图。

具体实施方式

以下结合附图对本发明的示范性实施例做出说明,其中包括本发明实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本发明的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。

需要指出的是,在不冲突的情况下,本发明的实施例以及实施例中的技术特征可以相互结合。

目前,对于海量数据的情况,基于Hadoop生态圈的数据查询分析的效率已不能满足业务的需求。Hadoop是一种分布式系统基础架构,实现分布式文件系统(HDFS),用户可以在不了解分布式底层细节的情况下,开发分布式程序,充分利用集群的威力进行高速运算和存储。

但对于不同存储介质之间的数据迁移需要一个高效的方案。为此,本发明实施例提出一种数据迁移的方法,能够在进行海量数据迁移的过程中,对海量数据在进行二次加工,处理为满足分析或查找等需求的数据。

图1是根据本发明实施例的数据迁移的方法的主要步骤的示意图。

如图1所示,本发明实施例的数据迁移的方法主要包括以下步骤:

步骤S101:根据数据源名称从源数据库获取待迁移数据表。

目前,体量较大的数据多存储于数据仓库中,在迁移这类数据时,可以根据数据源名称确定需要迁移的数据的位置,并且通过数据源名称能够对源数据库的数据进行初步筛选,从而得到需要迁移的待迁移数据表。

作为一种优选的实施方式,源数据库是Hive数据仓,目标数据库是ClickHouse。

Hive是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供类SQL查询功能。Hive数据仓是一种基于Hive做查询分析的数据仓库。Clickhouse是一个用于联机分析处理(OLAP)的列式数据库管理系统(columnar DBMS),其上的数据表分布于各个子集群。通过ClickHouse可以满足业务中对数据高效的插入和读取分析需求。

在本发明实施例中,步骤S101可以采用以下方式实现:利用Spark根据至少一个数据库名和/或数据表名从Hive数据仓获取待迁移数据表。

其中,待迁移数据表是矩阵数据表,具有行索引和列索引,利用行索引或列索引可以对其中的数据进行筛选。

Spark是一种基于内存的大数据分布式计算框架,专为大规模数据处理而设计的快速通用的计算引擎。利用Spark的解析器(Spark SQL)可以通过数据库连接接口(JDBCAPI)读取Hive数据仓中需要迁移的数据,形成矩阵数据表(DateFrame)。

步骤S102:基于表字段从待迁移数据表中提取目标数据。

利用行索引或列索引可以对待迁移数据表中的数据进行筛选,即利用表字段对待迁移数据表的行索引或列索引进行筛选,该表字段可以是表示目标数据所具备的属性、维度或特征等字段。

在本发明实施例中,步骤S102可以采用以下方式实现:基于表字段从待迁移数据表中提取中间数据;利用表字段的值从中间数据中筛选出目标数据。

为实现在迁移数据的过程中,对数据在进行二次加工,处理为满足分析或查找等需求的数据,可以从待迁移数据表中提取出具备表字段的中间数据,再从中间数据中筛选出具备特定值(即表字段的值)的目标数据,该目标数据即最终需要迁移的数据。

此外,步骤S101和步骤S102可以通过Python脚本的配置自动实现,Python是一种面向对象的动态程序设计语言,多被用于编写自动化脚本。标准的配置化脚本可以控制数据定向的迁移到任何一个ClickHouse,数据在迁移的过程中具有极高的效率,保障了迁移数据的时效性要求。同时在迁移数据的过程中可以对数据进行再次的加工,更好的让数据服务于业务。

步骤S103:将表字段映射为目标字段,并将目标数据的类型转换为目标类型,以生成迁移数据。

由于同一属性、维度或特征等表字段,在源数据库和目标数据库的表达可能完全不同,例如同一数据中的字段“70KG”在两个数据库分别属于体重和重量,所以在迁移时可以将表字段与对应的目标字段进行映射。以及通过步骤S102所筛选出的目标数据是来自源数据库的数据,其数据类型可能是不满足目标数据库的存储要求或计算需求等,因此在迁移时可以对目标数据的类型进行转换。目标数据的类型可以是字节(byte)、短整型(short)、整型(int)、长整型(long)、单精度浮点型(float)或双精度浮点型(double)等等,目标类型同样可以是可以是字节(byte)、短整型(short)、整型(int)、长整型(long)、单精度浮点型(float)或双精度浮点型(double)等等。

步骤S104:将迁移数据存储到目标数据库。

得到迁移数据后,便可以存储到目标数据库,用于分析、查询或计算等等。

在本发明实施例中,步骤S104可以采用以下方式实现:基于数据源名称查询目标数据库中是否存在存储迁移数据的存储数据表;若不存在,则基于目标字段创建存储数据表;并将迁移数据插入目标数据库的子集群的存储数据表中;若存在,则将迁移数据插入目标数据库的子集群的存储数据表中。

其中,存储数据表与数据源名称对应,即来源于同一源数据库的迁移数据会被存储到同一存储数据表。在目标数据库中,迁移数据以存储数据表的形式分布存储于目标数据库的各个子集群,通过前述步骤得到迁移数据后,查询目标数据库是否存在该存储数据表,如果不存在则先创建表再插入迁移数据,如果存在则直接插入迁移数据。

在本发明实施例中,将迁移数据插入目标数据库的子集群的存储数据表中的步骤,可以采用以下方式实现:对数据源名称的哈希值与迁移数据的日期进行取模运算,得到模余;基于模余从目标数据库的子集群中匹配目标子集群;将迁移数据插入目标子集群。

为保证数据查询的速率,在存储迁移数据时,可以使迁移数据按日期均匀地分布在目标数据库的各个子集群上,例如同一天的迁移数据均匀地分布在各个子集群上。具体地,对于每条迁移数据,利用数据源名称的哈希值与该迁移数据的日期进行取模运算,基于得到的模余从所有子集群中匹配对应的目标子集群,将该迁移数据插入对应的目标子集群。取模运算是指模除(又称模数、取模操作、取模运算等),得到的是一个数除以另一个数的余数。

根据本发明实施例的数据迁移的方法可以看出,因为采用根据数据源名称从源数据库获取待迁移数据表;基于表字段从待迁移数据表中提取目标数据;将表字段映射为目标字段,并将目标数据的类型转换为目标类型,以生成迁移数据;将迁移数据存储到目标数据库的技术手段,所以克服了迁移效率低,需要大量精力;以及迁移的数据还需要二次加工以满足需求的技术问题,进而达到能够高效地迁移海量数据;并在进行海量数据迁移的过程中,对海量数据在进行二次加工,处理为满足分析或查找等需求的数据的技术效果。

如图2所示,本发明实施例的数据迁移的方法,可以参考的实施流程为:

步骤S201:利用Spark根据至少一个数据库名和/或数据表名从Hive数据仓获取待迁移数据表;

步骤S202:基于表字段和表字段的值从待迁移数据表中提取目标数据;

步骤S203:将表字段映射为目标字段,并将目标数据的类型转换为目标类型,生成迁移数据;

步骤S204:查询目标数据库中是否存在存储迁移数据的存储数据表;

若不存在,则执行步骤S205;若存在,执行步骤S206。

步骤S205:基于目标字段创建存储数据表;

步骤S206:对数据源名称的哈希值与迁移数据的日期进行取模运算,得到模余;基于模余从目标数据库的子集群中匹配目标子集群;将迁移数据插入目标子集群。

如图3所示,基于图中所示架构,本发明实施例的数据迁移的方法的实施主要分为以下几部分:利用Spark从hive中读取数据、过滤数据、数据字段的重新映射及类型的转换、以及利用ClickHouse提供的JDBC API进行数据的批量插入。

如图4所示,在应用本发明实施例的数据迁移的方法时,可以按照如下流程:

首先,数据的读取及写入依赖于Spark,利用Spark的SparkSQL可以通过JDBC API读取Hive数据仓中的数据,形成DateFrame:

此处可以通过脚本的配置自动读取数据,具体地,指定数据源和目标源中需要映射的数据库名(DataBase Name)和/或表名(TableName);

其次,通过Spark SQL对读取到的数据集(即待迁移数据表)进行操作,在业务中,需要提取业务所需要的字段(即表字段),需要过滤掉一些Hive数据仓中无用的字段,同时可以将Hive数据仓中的字段名称进行一个映射,例如:业务中需要方便理解计算独立访客(UV),在ClickHouse中字段名称是UV,但在Hive仓中是使用浏览器唯一标识browseUniqId来标识,但是通过字段的映射,可以解决这一问题:

此处同样可以通过脚本的配置自动筛选过滤数据,具体地,进行字段映射及类型转化配置,指定需要的Hive表字段名称以及对应到ClickHouse中的字段名称,并设置条件过滤的字段,例如:只需要经营方式为自营的数据,而不需要经营方式为POP的数据;

然后,通过对数据集进行操作,包括对字段的映射、过滤和类型转化形成一个新的数据集(包括所有迁移数据),即业务所需的数据;

最后根据映射后的目标字段在ClickHouse中创建数据库和表(即创建存储数据表),之后通过取ClickHouse中表名的哈希值与每一条数据中的日期运算,然后将得到的值模余ClickHouse中的shard数,根据这个shard编号就决定了同一天的数据都落在了同一个shard上,这样做的目的是保证数据查询的速率。

在ClickHouse中,MergeTree是ClickHouse数据库提供的最理想的存储引擎。根据使用中的经验,MergeTree配合分布引擎(Distributed)是最合理的。Distributed并不存储真实数据,而是来做分布式写入和查询,与其他引擎配合使用。因此有了一种合理的集群拓扑如图6所示:

如果按照原来的数据分布,在写入ClickHouse集群的数据是按照轮询的方式写入的,例如每天的数据有一亿条,每次批量分别去写入ClickHouse的每个shard分片上,把同一天的数据分布到集群的各个shard上,基于业务对每天的数据进行统计分析,这样不同shard上的数据在进行聚合后,会把各个shard上的数据在请求客户端进行二次聚合。为了使得数据能够一次性聚合,缩减查询响应时间,在进行数据往ClickHouse写入的时候,采用相应的算法使得同一天的数据全部写入同一个shard分片。

为了进一步阐述本发明的技术思想,现结合具体的应用场景,对本发明的技术方案进行说明。

假设基于业务的需求,数据需要每天从Hive中迁移到ClickHouse中,某大数据平台提供了一个任务定时执行的功能。将迁移数据的程序打包发布到该大数据平台,然后将调度迁移程序的脚本也发布到该大数据平台。在进行任务部署时,可以设定调度脚本每天执行的时间及规则。让数据往ClickHouse的迁移形成标准化,实现每天定时的去进行数据迁移。

图6是根据本发明实施例的数据迁移的装置的主要模块的示意图。

如图6所示,本发明实施例的数据迁移的装置600包括:获取模块601、提取模块602、生成模块603和存储模块604。

其中,

获取模块601,用于根据数据源名称从源数据库获取待迁移数据表;

提取模块602,用于基于表字段从所述待迁移数据表中提取目标数据;

生成模块603,用于将所述表字段映射为目标字段,并将所述目标数据的类型转换为目标类型,以生成迁移数据;

存储模块604,用于将所述迁移数据存储到目标数据库。

在本发明实施例中,所述提取模块602还用于:

基于表字段从所述待迁移数据表中提取中间数据;

利用所述表字段的值从所述中间数据中筛选出目标数据。

在本发明实施例中,所述存储模块604还用于:

基于所述数据源名称查询所述目标数据库中是否存在存储所述迁移数据的存储数据表;其中,所述存储数据表与所述数据源名称对应;

若不存在,则基于所述目标字段创建所述存储数据表;并将所述迁移数据插入所述目标数据库的子集群的所述存储数据表中;其中,所述存储数据表分布存储于所述目标数据库的各个子集群;

若存在,则将所述迁移数据插入所述目标数据库的子集群的所述存储数据表中。

在本发明实施例中,所述存储模块604进一步用于:

对所述数据源名称的哈希值与所述迁移数据的日期进行取模运算,得到模余;

基于所述模余从所述目标数据库的子集群中匹配目标子集群;

将所述迁移数据插入所述目标子集群。

此外,所述源数据库是Hive数据仓,所述目标数据库是ClickHouse。

在本发明实施例中,所述获取模块601还用于:

利用Spark根据至少一个数据库名和/或数据表名从Hive数据仓获取待迁移数据表;其中,所述待迁移数据表是矩阵数据表,具有行索引和列索引。

根据本发明实施例的数据迁移的装置可以看出,因为采用根据数据源名称从源数据库获取待迁移数据表;基于表字段从待迁移数据表中提取目标数据;将表字段映射为目标字段,并将目标数据的类型转换为目标类型,以生成迁移数据;将迁移数据存储到目标数据库的技术手段,所以克服了迁移效率低,需要大量精力;以及迁移的数据还需要二次加工以满足需求的技术问题,进而达到能够高效地迁移海量数据;并在进行海量数据迁移的过程中,对海量数据在进行二次加工,处理为满足分析或查找等需求的数据的技术效果。

图7示出了可以应用本发明实施例的数据迁移的方法或数据迁移的装置的示例性系统架构700。

如图7所示,系统架构700可以包括终端设备701、702、703,网络704和服务器705。网络704用以在终端设备701、702、703和服务器705之间提供通信链路的介质。网络704可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。

用户可以使用终端设备701、702、703通过网络704与服务器705交互,以接收或发送消息等。终端设备701、702、703上可以安装有各种通讯客户端应用,例如购物类应用、网页浏览器应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等。

终端设备701、702、703可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。

服务器705可以是提供各种服务的服务器,例如对用户利用终端设备701、702、703所浏览的购物类网站提供支持的后台管理服务器。后台管理服务器可以对接收到的产品信息查询请求等数据进行分析等处理,并将处理结果(例如目标推送信息、产品信息)反馈给终端设备。

需要说明的是,本发明实施例所提供的数据迁移的方法一般由服务器705执行,相应地,数据迁移的装置一般设置于服务器705中。

应该理解,图7中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。

下面参考图8,其示出了适于用来实现本发明实施例的终端设备的计算机系统800的结构示意图。图8示出的终端设备仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。

如图8所示,计算机系统800包括中央处理单元(CPU)801,其可以根据存储在只读存储器(ROM)802中的程序或者从存储部分808加载到随机访问存储器(RAM)803中的程序而执行各种适当的动作和处理。在RAM 803中,还存储有系统800操作所需的各种程序和数据。CPU 801、ROM 802以及RAM 803通过总线804彼此相连。输入/输出(I/O)接口805也连接至总线804。

以下部件连接至I/O接口805:包括键盘、鼠标等的输入部分806;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分807;包括硬盘等的存储部分808;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分809。通信部分809经由诸如因特网的网络执行通信处理。驱动器810也根据需要连接至I/O接口805。可拆卸介质811,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器810上,以便于从其上读出的计算机程序根据需要被安装入存储部分808。

特别地,根据本发明公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本发明公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分809从网络上被下载和安装,和/或从可拆卸介质811被安装。在该计算机程序被中央处理单元(CPU)801执行时,执行本发明的系统中限定的上述功能。

需要说明的是,本发明所示的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本发明中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本发明中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。

附图中的流程图和框图,图示了按照本发明各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。

描述于本发明实施例中所涉及到的模块可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的模块也可以设置在处理器中,例如,可以描述为:一种处理器包括获取模块、提取模块、生成模块和存储模块。其中,这些模块的名称在某种情况下并不构成对该模块本身的限定,例如,获取模块还可以被描述为“根据数据源名称从源数据库获取待迁移数据表的模块”。

作为另一方面,本发明还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的设备中所包含的;也可以是单独存在,而未装配入该设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被一个该设备执行时,使得该设备包括:步骤S101:根据数据源名称从源数据库获取待迁移数据表;步骤S102:基于表字段从待迁移数据表中提取目标数据;步骤S103:将表字段映射为目标字段,并将目标数据的类型转换为目标类型,以生成迁移数据;步骤S104:将迁移数据存储到目标数据库。

根据本发明实施例的技术方案,因为采用根据数据源名称从源数据库获取待迁移数据表;基于表字段从待迁移数据表中提取目标数据;将表字段映射为目标字段,并将目标数据的类型转换为目标类型,以生成迁移数据;将迁移数据存储到目标数据库的技术手段,所以克服了迁移效率低,需要大量精力;以及迁移的数据还需要二次加工以满足需求的技术问题,进而达到能够高效地迁移海量数据;并在进行海量数据迁移的过程中,对海量数据在进行二次加工,处理为满足分析或查找等需求的数据的技术效果。

上述具体实施方式,并不构成对本发明保护范围的限制。本领域技术人员应该明白的是,取决于设计要求和其他因素,可以发生各种各样的修改、组合、子组合和替代。任何在本发明的精神和原则之内所作的修改、等同替换和改进等,均应包含在本发明保护范围之内。

相关技术
  • 一种数据迁移方法、数据迁移装置及数据迁移系统
  • 一种数据迁移控制方法、数据迁移方法及装置
技术分类

06120112774367