掌桥专利:专业的专利平台
掌桥专利
首页

一种云桌面共享GPU的实现方法及系统、宿主机、虚拟机

文献发布时间:2024-04-18 19:58:53


一种云桌面共享GPU的实现方法及系统、宿主机、虚拟机

技术领域

本发明涉及云计算技术技术领域,具体涉及一种云桌面共享GPU的实现方法及系统、宿主机、虚拟机。

背景技术

一直以来,如何提升云桌面的图形处理性能成为各大云桌面厂商努力攻克的技术难点,也制约着企业设计研发上云的脚步。虚拟桌面通过云技术将计算资源复用,从而极大的降低了单桌面成本,同时又通过集中的方式简化了运维,成为现在IT基础设施建设的首选方案。然而,虚拟化技术支持最好的是CPU、内存和存储资源,对其他类型的硬件和外设进行虚拟化或远程调用都存在很大困难。比如设计研发软件的运行都需要一定的GPU图形处理能力,也就是需要专业显卡的支持,基础的虚拟化技术无法提供这种能力。

目前,得到广泛应用的云桌面添加GPU的技术主要是英伟达的vGPU切分和显卡透传。VMware率先与英伟达公司合作,推出了vGPU切分技术,在专用的显卡和软件授权下,可以将一块高参数规格的显卡,切分成多个中低参数的vGPU,分配给多个虚拟桌面,使这些虚拟桌面拥有了图形处理能力。然而,这种能力是打折的图形处理能力,要想满足设计需求,必须成倍的投入。

针对vGPU切分带来的性能不足问题,虚拟化技术又推出了显卡透传,可以将完整的GPU性能透传给虚拟桌面,让软件运行的更加流畅。缺点是,一块显卡只能透传给一个桌面,需要给多个虚拟桌面安装显卡的话,宿主机必须是多显卡服务器,这显然增加了服务器的成本。显而易见,这样的做法并没有将显卡资源复用,未能体现出云桌面本应具有的价格优势。

发明内容

为此,本发明提供一种云桌面共享GPU的实现方法及系统、宿主机、虚拟机,旨在解决现有技术中了vGPU切分导致的性能不足以及透传技术无法复用显卡资源的问题。

为实现以上目的,本发明采用如下技术方案:

依据本发明第一方面,本发明提供了一种云桌面共享GPU的实现方法,应用于部署有显卡透传服务组件的宿主机,所述方法包括:

针对针对所述宿主机生成的多个虚拟机建立虚拟机透传序列;

根据所述虚拟机透传序列,响应于来自各所述虚拟机的图形数据处理请求依次执行显卡透传处理,以将所述图形数据处理请求转发至目标显卡;

利用所述目标显卡依次针对各所述虚拟机的图形数据处理请求,执行预设时间片内的数据处理,并将处理结果和/或中断数据回传至所述虚拟机。

进一步地,所述针对所述宿主机生成的多个虚拟机建立虚拟机透传序列,包括:

利用所述显卡透传服务组件对所述宿主机生成的每个虚拟机执行至少一次显卡透传开启和至少一次显卡透传卸载,以使所述显卡透传服务组件记录所述虚拟机的对应标识;

基于各所述虚拟机的对应标识建立所述虚拟机透传序列。

进一步地,所述根据所述虚拟机透传序列,响应于来自各所述虚拟机的图形数据处理请求依次执行显卡透传处理,包括:

按照来自各所述虚拟机的图形数据处理请求的先后顺序,将各所述图形数据处理请求存入所述虚拟机透传序列,得到数据处理队列;

利用所述显卡透传服务组件顺位读取所述数据处理队列,依次对与所述虚拟机标识相对应的虚拟机执行显卡透传处理。

进一步地,所述对与所述虚拟机标识相对应的虚拟机执行显卡透传处理,包括:

对与所述虚拟机标识相对应的虚拟机执行显卡透传开启;

在预设时间片后,对所述虚拟机执行显卡透传卸载。

进一步地,所述利用所述目标显卡依次针对各所述虚拟机的图形数据处理请求,执行预设时间片内的数据处理,并将处理结果和/或中断数据回传至所述虚拟机,包括:

步骤S1:利用所述目标显卡针对处于显卡透传开启的虚拟机的图形数据处理请求,执行预设时间片内的数据处理;

步骤S2:在预设时间片结束后,将处理结果和/或中断数据回传至所述虚拟机,并对所述虚拟机执行显卡透传卸载;

步骤S3:按照所述数据处理队列顺序向下个图形数据处理请求对应的虚拟机执行显卡透传处理;

步骤S4:重复步骤S1~S3,直到所述数据处理队列中不存在未处理的图形数据处理请求。

依据本发明第二方面,本发明提供一种云桌面共享GPU的实现方法,应用于部署有专用虚拟显示适配器的虚拟机,所述虚拟机通过虚拟显示适配器驱动接口与如本发明第一方面任一项所述的云桌面共享GPU的实现方法中的宿主机通讯连接,所述方法包括:

所述虚拟机内的应用程序向所述虚拟显示适配器发出图形数据处理请求时,通过所述虚拟显示适配器驱动接口向所述宿主机转发所述图形数据处理请求;

当针对所述图形数据处理请求的显卡透传开启时,保存显存地址;

当针对所述图形数据处理请求的显卡透传卸载时,接收通过所述虚拟显示适配器驱动接口接收所述宿主机发送的处理结果和/或中断数据。

进一步地,所述方法还包括:

判断针对所述图形数据处理请求的数据处理是否完成;

若针对所述图形数据处理请求的数据处理未完成,将携带有中断数据的图形数据处理请求再次通过所述虚拟显示适配器驱动接口转发至所述虚拟机透传序列,以更新数据处理队列。

依据本发明第三方面,本发明提供一种宿主机,所述宿主机部署有显卡透传服务组件,所述宿主机还包括:

序列建立模块,用于针对宿主机生成的多个虚拟机建立虚拟机透传序列;

请求转发模块,用于根据所述虚拟机透传序列,响应于来自各所述虚拟机的图形数据处理请求依次执行显卡透传处理,以将所述图形数据处理请求转发至目标显卡;

数据处理模块,用于利用所述目标显卡依次针对各所述虚拟机的图形数据处理请求,执行预设时间片内的数据处理,并将处理结果和/或中断数据回传至所述虚拟机。

依据本发明第四方面,本发明提供一种虚拟机,所述虚拟机运行于物理主机上,所述虚拟机部署有专用虚拟显示适配器,所述虚拟机通过虚拟显示适配器驱动接口与如本发明第一方面任一项所述的云桌面共享GPU的实现方法中的宿主机通讯连接,所述虚拟机还包括:

请求发送模块,用于当所述虚拟机内的应用程序向所述虚拟显示适配器发出图形数据处理请求时,通过所述虚拟显示适配器驱动接口向所述宿主机转发所述图形数据处理请求;

透传开启反应模块,用于当针对图形数据处理请求的显卡透传开启时,保存显存地址;

透传卸载反应模块,用于当针对所述图形数据处理请求的显卡透传卸载时,接收通过所述虚拟显示适配器驱动接口接收所述宿主机发送的处理结果和/或中断数据。

依据本发明第五方面,本发明提供一种云桌面共享GPU的实现系统,包括如本发明第三方面所述的宿主机和至少一个如本发明第四方面所述的虚拟机。

本发明采用以上技术方案,至少具备以下有益效果:

通过本发明方案,在宿主机上部署显卡透传服务组件,宿主机针对宿主机生成的多个虚拟机建立虚拟机透传序列;根据虚拟机透传序列,响应于来自各虚拟机的图形数据处理请求依次执行显卡透传处理,以将图形数据处理请求转发至目标显卡;利用目标显卡依次针对各虚拟机的图形数据处理请求,执行预设时间片内的数据处理,并将处理结果和/或中断数据回传至虚拟机。由此,本发明将GPU处理运算进行基于预设时间片的显卡透传,形象上可以看作是一块显卡在多个虚拟桌面之间的浮动运算,通过足够快的浮动切换,使用户使用云应用时既能使用显卡的整体性能,又不会造成卡顿等不良影响,提高了用户的使用体验。

应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本发明。

附图说明

为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。

图1示出了本发明一实施例提供的应用于宿主机的云桌面共享GPU的实现方法的流程示意图;

图2示出了本发明一实施例提供的应用于虚拟机的云桌面共享GPU的实现方法的流程示意图;

图3示出了本发明另一实施例提供的云桌面共享GPU的实现方法的流程示意图;

图4示出了本发明一实施例提供的宿主机的结构示意图;

图5示出了本发明另一实施例提供的虚拟机的结构示意图;

图6示出了本发明一实施例提供的云桌面共享GPU的实现系统的结构示意图。

具体实施方式

下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。

需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。

本发明实施例提供了一种云桌面共享GPU的实现方法,应用于部署有显卡透传服务组件的宿主机,如图1所示,至少可以包括以下步骤S101~S103:

步骤S101,针对所述宿主机生成的多个虚拟机建立虚拟机透传序列。

首先需要说明的是,本发明实施例中的显卡透传服务组件为支持显卡透传服务的功能组件。显卡透传技术是一种可以在虚拟机中直接使用GPU的技术,其依赖IOMMU功能,将虚拟内存地址映射为物理内存地址,让实体设备可以在虚拟的内存环境中工作;并将借助Hypervisor虚拟化层在宿主机和虚拟机之间完成指令传递。在宿主机上通过部署显卡透传服务组件运行显卡透传管理服务,以实现物理显卡主动响应虚拟机的请求完成透传。本发明实施例中的宿主机中设置有支持虚拟化的物理显卡;宿主机可以生成多个虚拟机,并与多个虚拟机通过虚拟显示适配器驱动接口通讯连接。本发明实施例在部署针对虚拟机和宿主机的首次通讯连接时,宿主机可以利用显卡透传服务组件对虚拟机执行至少一次显卡透传开启和至少一次显卡透传卸载,以使显卡透传服务组件记录虚拟机的对应标识;基于各虚拟机的对应标识建立虚拟机透传序列。

也就是说,在宿主机检测到与新虚拟机建立连接时,可以先对新虚拟机执行一次显卡透传开启和一次显卡透传卸载。通过该操作,显卡透传服务组件成功记录新虚拟机的对应标识,将该虚拟机标识加入虚拟机透传序列。虚拟机透传序列中包含具有显卡资源权限的多个虚拟机的对应标识。在用户需要增加新虚拟机时,可以通过以上操作对虚拟机透传序列进行更新。

步骤S102,根据虚拟机透传序列,响应于来自各虚拟机的图形数据处理请求依次执行显卡透传处理,以将图形数据处理请求转发至目标显卡。

本发明实施例中的虚拟机部署虚拟显示组件以及至少一个云应用。当用户使用云应用时,云应用通过虚拟机向宿主机发送图形数据处理请求。由于宿主机通讯连接多个虚拟机,在同一时间段内可能有多个虚拟机向宿主机发送图形数据处理请求。具体地,可以按照来自各虚拟机的图形数据处理请求的先后顺序,将各图形数据处理请求存入虚拟机透传序列,得到数据处理队列;利用显卡透传服务组件顺位读取数据处理队列,依次对与虚拟机标识相对应的虚拟机执行显卡透传处理。

其中,数据处理队列包含按照先后顺序排列的图形数据处理请求以及各图形数据处理请求对应的虚拟机标识。宿主机中的显卡透传服务组件按照先后顺序顺位读取数据处理队列,读取间隔时间可以为预设时间片。每读取一个图形数据处理请求及对应的虚拟机标识,即对该虚拟机标识对应的虚拟机执行显卡透传处理。具体地,显卡透传处理包括显卡透传开启以及在显卡透传开启后预设时间片结束时的显卡透传卸载。在预设时间片内,目标显卡即可接收处于显卡透传开启的虚拟机发送的图形数据处理请求,并执行数据处理。

步骤S103,利用目标显卡依次针对各虚拟机的图形数据处理请求,执行预设时间片内的数据处理,并将处理结果和/或中断数据回传至虚拟机。

具体地,目标显卡针对同一时间段内多个虚拟机发送的多个图形数据处理请求的数据处理,可以通过以下步骤实现:

步骤a:利用目标显卡针对处于显卡透传开启的虚拟机的图形数据处理请求,执行预设时间片内的数据处理;

步骤b:在预设时间片结束后,将处理结果和/或中断数据回传至虚拟机,并对虚拟机执行显卡透传卸载;

步骤c:按照数据处理队列顺序向下个图形数据处理请求对应的虚拟机执行显卡透传处理;

步骤d:重复步骤a~c,直到数据处理队列中不存在未处理的图形数据处理请求。

也就是说,目标显卡针对每一图形数据处理请求单次持续一预设时间片的数据处理。在预设时间片结束时,需要对该图形数据处理请求对应虚拟机执行显卡透传卸载,以使目标显卡可以继续对下一图形数据处理请求的虚拟机执行显卡透传处理,直到数据处理队列的全部图形数据处理请求都已处理完毕。

可以理解的是,在目标显卡针对图形数据处理请求执行预设时间片的数据处理时,往往可能无法处理完成该图形数据处理请求。因此,在目标显卡针对处于显卡透传开启的虚拟机的图形数据处理请求,执行预设时间片内的数据处理之后,本发明实施例还可以判断针对图形数据处理请求的数据处理是否完成;若针对图形数据处理请求的数据处理未完成,将携带有中断数据的图形数据处理请求再次存入虚拟机透传序列,以更新数据处理队列。即,对于未处理完成的图形数据处理请求,虚拟机在显卡透传卸载时,会挂起并记录包含有中断数据的图形数据处理请求,并将包含有中断数据的图形数据处理请求重新发送至宿主机,以更新数据处理队列。显卡透传服务组件实时基于最新的数据处理队列进行显卡透传处理。

需要说明的是,为了保证用户云桌面的画面连贯且应用程序不发生异常报错,透传显卡从卸载到再次恢复的时间间隔不宜过长,这于预设时间片的设置有关。一般地,预设时间片的设置与目标显卡的时钟频率决定的。因此,可共享的云桌面数量理论上存在最大值,在本发明实施例的实际应用测试中,单块高端性能的显卡(nvidia A2000以上)可支持到10个云桌面。

进一步地,为了更加全面地了解本发明,本发明实施例还提供了一种应用于部署虚拟显示组件的虚拟机的云桌面共享GPU的实现方法,如图2所示,至少可以包括以下步骤S201~S203:

步骤S201,虚拟机内的应用程序向虚拟显示适配器发出图形数据处理请求时,通过虚拟显示适配器驱动接口向宿主机转发图形数据处理请求。

本发明实施例中的虚拟机部署有IDD虚拟显示设备,并配备有UMDD(User-ModeDisplay Driver)驱动接口及虚拟显示适配器驱动接口。虚拟机通过虚拟显示适配器驱动接口与宿主机通讯连接,以通过显卡透传服务组件将图形数据处理指令透传至目标显卡。在用户使用云桌面时,通过云应用向虚拟机发送图形数据处理指令,虚拟机响应于该图形数据处理指令向宿主机发送对应的图形数据处理请求。由此,宿主机根据图形数据处理请求更新数据处理队列,显卡透传服务组件顺位读取数据处理队列,依次对数据处理队列中的图形数据处理请求执行对应虚拟机的显卡透传处理和基于目标显卡的数据处理。

步骤S202,当针对图形数据处理请求的显卡透传开启时,保存显存地址。

当显卡透传服务组件读取到该图形数据处理请求时,针对该图形数据处理请求的虚拟机标识,对对应的虚拟机执行显卡透传开启,此时,显卡透传服务组件可通知虚拟机透传开始,虚拟机即可保存预设时间片内使用的显存地址。

步骤S203,当针对图形数据处理请求的显卡透传卸载时,接收通过虚拟显示适配器驱动接口接收宿主机发送的处理结果和/或中断数据。

当预设时间片结束,显卡透传服务组件可通知虚拟机透传结束。另外,本发明实施例还可以判断针对图形数据处理请求的数据处理是否完成;若针对图形数据处理请求的数据处理未完成,将携带有中断数据的图形数据处理请求再次通过虚拟显示适配器驱动接口转发至虚拟机透传序列,以更新数据处理队列。也就是说,若该图形数据处理请求还未处理完成,虚拟机即可挂起图形数据处理请求,并保存包含有中断数据的图形数据处理请求,以重新将图形数据处理请求发送至宿主机,更新数据处理队列,等待显卡透传恢复,继续进行针对图形数据处理请求的数据处理,直到该图形数据处理请求处理完成。

进一步地,本发明实施例还提供了一种云桌面共享GPU的实现方法,应用于部署有显卡透传服务组件的宿主机和至少一个部署有虚拟显示组件的虚拟机;虚拟机通过虚拟显示适配器驱动接口与宿主机通讯连接,如图3所示,至少可以包括以下步骤S301~S309:

步骤S301,宿主机针对所述宿主机生成的多个虚拟机建立虚拟机透传序列;

步骤S302,虚拟机内的应用程序向虚拟显示适配器发出图形数据处理请求时,通过虚拟显示适配器驱动接口向宿主机转发图形数据处理请求;

步骤S303,根据虚拟机透传序列,响应于来自各虚拟机的图形数据处理请求依次执行显卡透传处理,以将图形数据处理请求转发至目标显卡;

步骤S304,利用目标显卡针对处于显卡透传开启的虚拟机的图形数据处理请求,执行预设时间片内的数据处理;

步骤S305,当针对图形数据处理请求的显卡透传开启时,虚拟机保存显存地址;

步骤S306,在预设时间片结束后,将处理结果和/或中断数据回传至虚拟机,并对虚拟机执行显卡透传卸载;

步骤S307,若针对图形数据处理请求的数据处理未完成,将携带有中断数据的图形数据处理请求再次通过虚拟显示适配器驱动接口转发至虚拟机透传序列,以更新数据处理队列;

步骤S308,宿主机按照数据处理队列顺序向下个图形数据处理请求对应的虚拟机执行显卡透传处理;

步骤S309,重复步骤S304~S308,直到数据处理队列中不存在未处理的图形数据处理请求。

针对本发明实施例提供的一种云桌面共享GPU的实现方法的详细说明,可以参考图1~图2所示方法的对应描述,在此不再赘述。由此,完成了一套完整的云桌面共享GPU的操作流程。本发明将GPU处理运算进行基于预设时间片的显卡透传,形象上可以看作是一块显卡在多个虚拟桌面之间的浮动运算,通过足够快的浮动切换,使用户使用云应用时既能使用显卡的整体性能,又不会造成卡顿等不良影响,提高了用户的使用体验。

进一步地,作为图1的具体实现,本发明实施例提供了一种宿主机,如图4所示,该宿主机400部署有显卡透传服务组件,该宿主机400包括:序列建立模块410、请求转发模块420以及数据处理模块430。

序列建立模块410,可以用于针对宿主机生成的多个虚拟机建立虚拟机透传序列;

请求转发模块420,可以用于根据虚拟机透传序列,响应于来自各虚拟机的图形数据处理请求依次执行显卡透传处理,以将图形数据处理请求转发至目标显卡;

数据处理模块430,可以用于利用目标显卡依次针对各虚拟机的图形数据处理请求,执行预设时间片内的数据处理,并将处理结果和/或中断数据回传至虚拟机。

可选地,序列建立模块410,还可以用于利用显卡透传服务组件对宿主机生成的每个虚拟机执行至少一次显卡透传开启和至少一次显卡透传卸载,以使显卡透传服务组件记录虚拟机的对应标识;

基于各虚拟机的对应标识建立虚拟机透传序列。

可选地,请求转发模块420,还可以用于按照来自各虚拟机的图形数据处理请求的先后顺序,将各图形数据处理请求存入虚拟机透传序列,得到数据处理队列;

利用显卡透传服务组件顺位读取数据处理队列,依次对与虚拟机标识相对应的虚拟机执行显卡透传处理。

可选地,请求转发模块420,还可以用于对与虚拟机标识相对应的虚拟机执行显卡透传开启;

在预设时间片后,对虚拟机执行显卡透传卸载。

可选地,数据处理模块430,还可以用于利用目标显卡针对处于显卡透传开启的虚拟机的图形数据处理请求,执行预设时间片内的数据处理;

在预设时间片结束后,将处理结果和/或中断数据回传至虚拟机,并对虚拟机执行显卡透传卸载;

按照数据处理队列顺序向下个图形数据处理请求对应的虚拟机执行显卡透传处理;

重复执行上述步骤,直到数据处理队列中不存在未处理的图形数据处理请求。

需要说明的是,本发明实施例提供的一种宿主机所涉及各功能模块的其他相应描述,可以参考图1所示方法的对应描述,在此不再赘述。

进一步地,作为图2的具体实现,本发明实施例提供了一种虚拟机,虚拟机运行于物理主机上,如图5所示,该虚拟机500部署有虚拟显示组件,通过虚拟显示适配器驱动接口与图4所示的宿主机400通讯连接,该虚拟机包括:请求发送模块510、透传开启反应模块520以及透传卸载反应模块530。

请求发送模块510,可以用于当虚拟机内的应用程序向虚拟显示适配器发出图形数据处理请求时,通过虚拟显示适配器驱动接口向宿主机转发图形数据处理请求;

透传开启反应模块520,可以用于当针对图形数据处理请求的显卡透传开启时,保存显存地址;

透传卸载反应模块530,可以用于当针对图形数据处理请求的显卡透传卸载时,接收通过虚拟显示适配器驱动接口接收宿主机发送的处理结果和/或中断数据。

可选地,透传卸载反应模块530,还可以用于判断针对图形数据处理请求的数据处理是否完成;

若针对图形数据处理请求的数据处理未完成,将携带有中断数据的图形数据处理请求再次通过虚拟显示适配器驱动接口转发至虚拟机透传序列,以更新数据处理队列。

需要说明的是,本发明实施例提供的一种虚拟机所涉及各功能模块的其他相应描述,可以参考图2所示方法的对应描述,在此不再赘述。

进一步地,作为图3的具体实现,本发明实施例提供了一种云桌面共享GPU的实现系统,如图6所示,该系统包括如图4所示的宿主机400和至少一个如图5所示的虚拟机500。

需要说明的是,本发明实施例提供的一种云桌面共享GPU的实现系统所涉及各功能模块的其他相应描述,可以参考图1~3所示方法的对应描述,在此不再赘述。

所属领域的技术人员可以清楚地了解到,上述描述的系统、装置、模块和单元的具体工作过程,可以参考前述方法实施例中的对应过程,为简洁起见,在此不另赘述。

另外,在本发明各个实施例中的各功能单元可以物理上相互独立,也可以两个或两个以上功能单元集成在一起,还可以全部功能单元都集成在一个处理单元中。上述集成的功能单元既可以采用硬件的形式实现,也可以采用软件或者固件的形式实现。

本领域普通技术人员可以理解:所述集成的功能单元如果以软件的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,其包括若干指令,用以使得一台计算设备(例如个人计算机,服务器,或者网络设备等)在运行所述指令时执行本发明各实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM)、随机存取存储器(RAM),磁碟或者光盘等各种可以存储程序代码的介质。

或者,实现前述方法实施例的全部或部分步骤可以通过程序指令相关的硬件(诸如个人计算机,服务器,或者网络设备等的计算设备)来完成,所述程序指令可以存储于一计算机可读取存储介质中,当所述程序指令被计算设备的处理器执行时,所述计算设备执行本发明各实施例所述方法的全部或部分步骤。

最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:在本发明的精神和原则之内,其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案脱离本发明的保护范围。

相关技术
  • 基于kvm桌面云设置的配置和恢复方法及虚拟机、系统
  • 一种虚拟机快照的实现方法及系统
  • 一种基于GPU容器技术的云桌面显卡共享方法及系统
  • 一种基于GPU容器技术的云桌面显卡共享方法及系统
技术分类

06120116510273