掌桥专利:专业的专利平台
掌桥专利
首页

一种缓存控制方法、装置、设备及介质

文献发布时间:2024-01-17 01:18:42


一种缓存控制方法、装置、设备及介质

技术领域

本发明涉及计算机技术领域,特别涉及一种缓存控制方法、装置、设备及介质。

背景技术

当前,常见的缓存控制方式为在CDN(Content Delivery Network,即内容分发网络)中使用HTTP(Hyper Text Transfer Protocol,即超文本传输协议)的响应头Cache-Control(即缓存控制)来控制缓存行为,具体可参见图1中所示。为了使数据能更快的传递到用户浏览器进行消费,当前的CDN一般都部署多层级缓存。例如在源数据的基础上自建CDN或使用云厂商CDN作为源数据的缓存层,并且接入多个第三方CDN厂商把数据部署到更接近用户的边缘数据中心中。

然而通过自建CDN或使用第三方CDN边缘数据中心,会导致存储维护成本较高;并且当前为了总的存储大小并节省成本,缓存会设定较短的TTL(即生存时间),TTL时间到后会自动清除该资源的缓存,用户访问时可能不命中缓存并回源,下载性能下降;此外,当前采用多种文件类型匹配、访问路径匹配等缓存策略,会造成策略粒度大并且管理复杂。可见,随着访问数据量的增长,若采用当前的部署方式,会导致成本和性能都面临很大的挑战。

综上,如何在低成本、高性能的条件下对资源缓存进行控制是目前有待解决的问题。

发明内容

有鉴于此,本发明的目的在于提供一种缓存控制方法、装置、设备及介质,能够在低成本、高性能的条件下对资源缓存进行控制。其具体方案如下:

第一方面,本申请公开了一种缓存控制方法,包括:

获取历史时间段内用户端针对目标资源的下载需求量;

将所述下载需求量输入预先构建的热度预测模型以获取所述目标资源在当前时间点至未来时间点内的请求热度值;

基于所述请求热度值确定出所述目标资源当前需要部署的缓存大小,并根据所述缓存大小在PCDN节点上对所述目标资源进行部署。

可选的,所述获取历史时间段内用户端针对目标资源的下载需求量,包括:

获取下载需求评估系统在历史时间段内记录的各用户端针对目标资源的请求行为数据;

对所述请求行为数据中的用户标识进行冗余消除处理,以得到处理后的请求行为数据,并基于处理后的请求行为数据确定出所述目标资源的下载需求量。

可选的,所述缓存控制方法,还包括:

在PCDN控制系统获取到用户端针对所述目标资源的查询请求时,则在所述下载需求评估系统中记录包括所述用户端的用户标识的请求行为数据,并通过所述下载需求评估系统对所述请求行为数据进行存储。

可选的,所述在PCDN控制系统获取到用户端针对所述目标资源的查询请求之后,还包括:

通过所述PCDN控制系统确定当前的PCDN节点中是否部署有所述目标资源;

若当前的PCDN节点中部署有所述目标资源,则通过所述PCDN控制系统响应所述查询请求,并将相应的PCDN节点信息发送给所述用户端,以便所述用户端利用点对点技术从与所述PCDN节点信息对应的PCDN节点中下载所述目标资源;

若当前的PCDN节点中未部署所述目标资源,则通过所述PCDN控制系统响应所述查询请求,并向所述用户端发送用于表征资源未部署的提示消息,以便所述用户端利用点对服务器技术从源CDN节点中下载所述目标资源。

可选的,所述基于所述请求热度值确定出所述目标资源需要部署的缓存大小,包括:

基于所述请求热度值确定出与所述目标资源对应的上传带宽需求,并基于所述上传带宽需求和PCDN节点的上传带宽确定出所述目标资源需要部署的缓存大小。

可选的,所述根据所述缓存大小在相应的PCDN节点上对所述目标资源进行部署之后,还包括:

监测所述PCDN节点上实际部署所述目标资源的数据量,并确定预先设置的与所述目标资源相适配的目标缓存大小;

将所述数据量与所述目标缓存大小进行比较得到比较结果,并基于所述比较结果对所述PCDN节点上的已部署资源进行调整。

可选的,所述基于所述比较结果对所述PCDN节点上的已部署资源进行调整,包括:

若所述比较结果为所述数据量小于所述目标缓存大小,则在所述PCDN节点上增加用于部署所述目标资源的部署任务,以使得所述数据量达到所述目标缓存大小;

若所述比较结果为所述数据量大于所述目标缓存大小,则通过自动回收机制从所述PCDN节点上回收已部署的所述目标资源,以使得所述数据量不超过所述目标缓存大小。

第二方面,本申请公开了一种缓存控制装置,包括:

需求量获取模块,用于获取历史时间段内用户端针对目标资源的下载需求量;

热度值获取模块,用于将所述下载需求量输入预先构建的热度预测模型以获取所述目标资源在当前时间点至未来时间点内的请求热度值;

资源部署模块,用于基于所述请求热度值确定出所述目标资源当前需要部署的缓存大小,并根据所述缓存大小在PCDN节点上对所述目标资源进行部署。

第三方面,本申请公开了一种电子设备,包括:

存储器,用于保存计算机程序;

处理器,用于执行所述计算机程序,以实现前述公开的缓存控制方法的步骤。

第四方面,本申请公开了一种计算机可读存储介质,用于存储计算机程序;其中,所述计算机程序被处理器执行时实现前述公开的缓存控制方法的步骤。

可见,本申请通过获取历史时间段内用户端针对目标资源的下载需求量;将所述下载需求量输入预先构建的热度预测模型以获取所述目标资源在当前时间点至未来时间点内的请求热度值;基于所述请求热度值确定出所述目标资源当前需要部署的缓存大小,并根据所述缓存大小在PCDN节点上对所述目标资源进行部署。由此可见,鉴于当前的缓存控制会导致高成本和低性能的问题,本申请是将目标资源在历史时间段内的下载需求量输入至构建好的热度预测模型,以通过热度预测模型实时、准确的输出该目标资源在未来一段时间内的请求热度值,进而根据该请求热度值确定出的缓存大小在PCDN节点上部署与缓存大小相匹配的目标资源数量。也即,本申请是根据热度预测模型输出的请求热度值确定出当前时间点至未来时间点内目标资源需要部署的缓存大小,实现了按照资源粒度实时对缓存进行控制,提高了缓存控制的性能,也无需再部署多层级缓存,降低了CDN的搭建成本。

附图说明

为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。

图1为本申请公开的一种传统的CDN数据缓存结构示意图;

图2为本申请公开的一种缓存控制方法流程图;

图3为本申请公开的一种具体的缓存控制方法流程图;

图4为本申请公开的一种PCDN缓存结构示意图;

图5为本申请公开的另一种具体的缓存控制方法流程图;

图6为本申请公开的一种缓存控制装置结构示意图;

图7为本申请公开的一种电子设备结构图。

具体实施方式

下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。

当前的CDN一般都部署多层级缓存,会导致存储维护成本较高;并且当前为了总的存储大小并节省成本,缓存会设定较短的TTL,TTL时间到后会自动清除该资源的缓存,用户访问时可能不命中缓存并回源,下载性能下降;此外,当前采用多种文件类型匹配、访问路径匹配等缓存策略,会造成策略粒度大并且管理复杂。可见,随着访问数据量的增长,若采用当前的部署方式,会导致成本和性能都面临很大的挑战。为此,本申请实施例公开了一种缓存控制方法、装置、设备及介质,能够在低成本、高性能的条件下对资源缓存进行控制。

参见图2所示,本申请实施例公开了一种缓存控制方法,该方法包括:

步骤S11:获取历史时间段内用户端针对目标资源的下载需求量。

本实施例中,历史时间即为当前时间点之前的时间,也即本实施例需要获取过去一段时间内用户端针对同一目标资源的下载需求量。其中,下载需求量可以简单理解为该目标资源被下载的次数,通常情况下,目标资源被下载的次数越多,下载需求量也越大。

步骤S12:将下载需求量输入预先构建的热度预测模型以获取目标资源在当前时间点至未来时间点内的请求热度值。

本实施例中,在获取到下载需求量后,则将下载需求量输入至预先构建好的热度预测模型中,以获取热度预测模型输出的目标资源在当前时间点至未来时间点内的请求热度值。需要指出的是,热度预测模型为根据下载需求量按照时间维度构建的,在具体实施方式中,热度预测模型可以基于指数加权滑动平均模型(Exponentially Weighted MovingAverage,即EWMA)、自回归滑动平均模型(Auto-Regressive Moving Average,即ARMA)和自回归条件异方差模型(AutoRegressive Conditional Heteroscedasticity,即ARCH)共同构建得到。其中,指数加权滑动平均模型用于平滑历史数据,自回归滑动平均模型用于预测未来时间,自回归条件异方差模型用于使得预测结果更准确,更符合实际。因此,通过使用热度预测模型能够实时、准确的预测出目标资源的请求热度值。

步骤S13:基于请求热度值确定出目标资源当前需要部署的缓存大小,并根据缓存大小在PCDN节点上对目标资源进行部署。

本实施例中,缓存控制系统会持续性的监测热度预测模型输出的目标资源的请求热度值,并根据请求热度值计算出目标资源当前需要部署的缓存大小,然后根据该缓存大小在PCDN节点上对目标资源进行部署,即在PCDN节点上部署与缓存大小相匹配的目标资源数量。其中,在部署目标资源时,需要利用源CDN作为下载源进行部署,并可以考虑只使用源CDN一级部署方式,以降低成本。其中,PCDN指的是P2P内容分发网络,P2P(即Peer to Peer)即为点对点技术。需要指出的是,在实际部署目标资源的时候,还需增加一定的冗余资源,例如,若根据缓存大小确定出需要在PCDN节点上部署100份目标资源,则可以在此基础上,额外再增加部署10份目标资源,以避免因请求热度值突增导致目标资源不足的情况。并且在PCDN节点上部署目标资源的方式可以是分块部署,也可以是完整部署,即可以将目标资源分块部署在不同的PCDN节点上,也可以将目标资源部署到同一个PCDN节点上。

另外,需要指出的是,上述PCDN节点可以部署在家庭消费级的设备上,因此降低了CDN的搭建成本,PCDN节点之间互相连接。

可见,本申请通过获取历史时间段内用户端针对目标资源的下载需求量;将下载需求量输入预先构建的热度预测模型以获取目标资源在当前时间点至未来时间点内的请求热度值;基于请求热度值确定出目标资源当前需要部署的缓存大小,并根据缓存大小在PCDN节点上对目标资源进行部署。由此可见,鉴于当前的缓存控制会导致高成本和低性能的问题,本申请是将目标资源在历史时间段内的下载需求量输入至构建好的热度预测模型,以通过热度预测模型实时、准确的输出该目标资源在未来一段时间内的请求热度值,进而根据该请求热度值确定出的缓存大小在PCDN节点上部署与缓存大小相匹配的目标资源数量。也即,本申请是根据热度预测模型输出的请求热度值确定出当前时间点至未来时间点内目标资源需要部署的缓存大小,实现了按照资源粒度实时对缓存进行控制,提高了缓存控制的性能,也无需再部署多层级缓存,降低了CDN的搭建成本。

参见图3和图4所示,本申请实施例公开了一种具体的缓存控制方法,相对于上一实施例,本实施例对技术方案作了进一步的说明和优化。具体包括:

步骤S21:获取下载需求评估系统在历史时间段内记录的各用户端针对目标资源的请求行为数据。

本实施例中,如图4中所示,用户端可以通过查询索引系统以获取当前PCDN节点中存储的目标资源,并且查询索引时的请求行为会通过图4中的下载需求评估系统进行记录。具体的,缓存控制方法还包括:在PCDN控制系统获取到用户端针对目标资源的查询请求时,则在下载需求评估系统中记录包括用户端的用户标识的请求行为数据,并通过下载需求评估系统对请求行为数据进行存储。可以理解的是,用户端可以通过查询PCDN控制系统获取当前已部署目标资源的PCDN节点,PCDN控制系统在获取到用户端针对目标资源的查询请求时,会在下载需求评估系统中记录并存储包括用户端的用户标识(即用户ID)的请求行为数据。在具体实施方式中,可以为以时间序列的方式存储请求行为数据,也即将具体的时间点、用户ID、查询的目标资源等信息按照时间先后进行存储。

进一步的,上述在PCDN控制系统获取到用户端针对目标资源的查询请求之后,还包括:通过PCDN控制系统确定当前的PCDN节点中是否部署有目标资源;若当前的PCDN节点中部署有目标资源,则通过PCDN控制系统响应查询请求,并将相应的PCDN节点信息发送给用户端,以便用户端利用点对点技术从与PCDN节点信息对应的PCDN节点中下载目标资源;若当前的PCDN节点中未部署目标资源,则通过PCDN控制系统响应查询请求,并向用户端发送用于表征资源未部署的提示消息,以便用户端利用点对服务器技术从源CDN节点中下载目标资源。也即,PCDN控制系统在获取到用户端针对目标资源的查询请求后,则判断当前的PCDN节点中是否部署有该目标资源。

在一种具体实施方式中,若当前的PCDN节点中部署有目标资源,则响应用户端的查询请求,并将相应的PCDN节点信息发送给用户端,以便用户端利用点对点技术(即P2P)从PCDN节点中下载目标资源。

在另一种具体实施方式中,若当前的PCDN节点中未部署有目标资源,则相应查询请求后,将用于表征资源未部署的提示消息发送给用户端,以便用户端利用点对服务器技术(即P2S)从源CDN节点中下载该目标资源。

也即,本实施例在PCDN节点未部署目标资源的情况下,通过使用点对服务器技术从源CDN中下载目标资源,以通过传统的源CDN下载进行兜底,避免用户无法查询到目标资源的情况。也就是说,本申请实施例中,用户端下载资源的方式由传统的CDN下载更改为P2SP(即Peer to Server&Peer)下载,实现了将服务器资源和P2P资源整合到了一起,能够提高资源下载的稳定性和速度,也降低了上传方的稳定性和硬件规格要求,从而降低了CDN的搭建成本。在此过程中,通过使用P2P技术尽可能的使用数据多源下载能力,并且使用P2S技术走传统CDN兜底。另外,由于CND带宽成本较高,因此可以根据不同的成本和性能要求把所有用户端的需求带宽拆分为PCDN带宽和传统CDN带宽,两个带宽的取值范围都是[0,100],单位为百分比,即本申请可以支持不同场景的成本拆分方式,以精确控制成本。例如,在一种具体实施方式中,假设用户端的总需求带宽为100M,可以将其中的80%设置为PCDN带宽,即为80M,而将其中的20%设置为传统CDN带宽,即为20M。

步骤S22:对请求行为数据中的用户标识进行冗余消除处理,以得到处理后的请求行为数据,并基于处理后的请求行为数据确定出目标资源的下载需求量。

本实施例中,首先需要指出的是,用户端针对目标资源的请求行为与该目标资源的请求热度值是正相关的,也就是说,用户对目标资源的请求次数越多,请求热度也就越高。并且,本实施例在获取到请求行为数据后,还需进一步对请求行为数据中的用户标识进行冗余消除处理,具体可以为对用户标识进行去重处理,以得到处理后的请求行为数据。也即,考虑到用户端可能存在故意重复下载同一目标资源造成的非正常情况,本实施例需要对用户ID进行去重处理,从而获取到真实的请求行为数据,然后再基于处理后的请求行为数据确定出目标资源的下载需求量。可见,本申请并非是直接利用请求行为数据确定出下载需求量,还需要进一步对其进行冗余消除,以去除不真实的部分数据。

此外,冗余消除的步骤也可以直接发生在下载需求评估系统中,也即下载需求评估系统会持续性的对请求行为数据进行统计分析,并进行冗余消除,那么从下载需求评估系统获取到的请求行为数据便已经是真实的数据了,即为真实的下载需求量。

步骤S23:将下载需求量输入预先构建的热度预测模型以获取目标资源在当前时间点至未来时间点内的请求热度值。

本实施例中,热度预测模型可以是在下载需求评估系统中构建的,下载需求评估系统构建好热度预测模型后,则可直接利用记录的请求行为数据和该热度预测模型输出目标资源在当前时间点至未来时间点内的请求热度值。

步骤S24:基于请求热度值确定出与目标资源对应的上传带宽需求,并基于上传带宽需求和PCDN节点的上传带宽确定出目标资源需要部署的缓存大小,以及根据缓存大小在PCDN节点上对目标资源进行部署。

本实施例中,在获取到热度预测模型输出的请求热度值后,即可通过该请求热度值计算出该目标资源的上传带宽需求,并且假设每个PCDN节点可以为每次下载提供的上传带宽固定,那么则可根据上传带宽需求和PCDN节点的上传带宽确定出目标资源需要部署的缓存大小,即实际需要部署的资源量。其中,上述提到的PCDN节点的上传带宽具体可以为PCDN节点为每次下载提供的平均上传带宽,其中,平均上传带宽为PCDN节点一天的上传数据量除以总时长24小时所得到的。

其中,关于上述步骤S23更加具体的处理过程可以参考前述实施例中公开的相应内容,在此不再进行赘述。

可见,本申请实施例中,用户端可以通过查询PCDN控制系统获取当前已部署目标资源的PCDN节点,并利用点对点技术从PCDN节点中下载目标资源。若PCDN节点中未部署有目标资源,用户端则可使用点对服务器技术从源CDN中下载目标资源,以通过传统的源CDN下载进行兜底,避免用户无法查询到目标资源的情况。也即,本申请使用源CDN一级部署方式,将用户端下载资源的方式由传统的CDN下载更改为P2SP下载,实现了将服务器资源和P2P资源整合到了一起,能够提高资源下载的稳定性和速度,也降低了上传方的稳定性和硬件规格要求,从而降低了CDN的搭建成本。并且用户端查询目标资源的请求行为会在下载需求评估系统中记录并存储,以便在对请求行为数据进行用户ID去重后,根据真实的请求行为数据确定出目标资源的下载需求量。此外,在计算缓存大小时,先根据请求热度值计算出该目标资源的上传带宽需求,再根据上传带宽需求和PCDN节点的上传带宽确定出目标资源需要部署的缓存大小。

参见图5所示,本申请实施例公开了一种具体的缓存控制方法,相对于上一实施例,本实施例对技术方案作了进一步的说明和优化。具体包括:

步骤S31:获取历史时间段内用户端针对目标资源的下载需求量。

步骤S32:将下载需求量输入预先构建的热度预测模型以获取目标资源在当前时间点至未来时间点内的请求热度值。

步骤S33:基于请求热度值确定出目标资源当前需要部署的缓存大小,并根据缓存大小在PCDN节点上对目标资源进行部署。

步骤S34:监测PCDN节点上实际部署目标资源的数据量,并确定预先设置的与目标资源相适配的目标缓存大小。

本实施例中,可以理解的是,实际部署的资源可能由于设备离线,自动回收机制,网络原因等外部原因下降,因此在PCDN节点上部署目标资源后,还需持续监测PCDN节点上实际部署目标资源的数据量,并确定预先设置的与目标资源相适配的目标缓存大小,即与目标资源对应的缓存理想状态。

步骤S35:将数据量与目标缓存大小进行比较得到比较结果,并基于比较结果对PCDN节点上的已部署资源进行调整。

本实施例中,需要将数据量与目标缓存大小进行比较,并基于比较结果对PCDN节点上的已部署资源进行调整。具体的,上述基于比较结果对PCDN节点上的已部署资源进行调整,包括:若比较结果为数据量小于目标缓存大小,则在PCDN节点上增加用于部署目标资源的部署任务,以使得数据量达到目标缓存大小;若比较结果为数据量大于目标缓存大小,则通过自动回收机制从PCDN节点上回收已部署的目标资源,以使得数据量不超过目标缓存大小。

也即,如果实际部署的数据量小于理想状态时对应的目标缓存大小,可说明目标资源比较热门,因此则主动增加用于部署目标资源部署任务,以让资源往理想状态靠近,即达到目标缓存大小;相反,如果实际部署的数据量大于理想状态时对应的目标缓存大小,可说明目标资源属于过期资源,则依赖自动回收机制回收PCDN节点上已部署的目标资源。自动回收机制具体可以使用LRU(Least Recently Used,即最近最少使用)算法进行,以确保有足够的空闲存储空间可以使用。如此一来,缓存控制系统则可根据请求热度值的变化往PCDN节点中部署热门资源或删除过期资源,并更新索引系统,也即PCDN节点上面部署的资源可以是缓存控制系统主动进行部署的,整个部署过程完全受控于总的PCDN控制系统,它拥有完整的P2P节点能力。

其中,关于上述步骤S31、S32和S33更加具体的处理过程可以参考前述实施例中公开的相应内容,在此不再进行赘述。

可见,本申请实施例在PCDN节点上部署目标资源后,还需持续监测PCDN节点上实际部署目标资源的数据量,并将数据量与目标资源相适配的目标缓存大小进行比较,如果实际部署的数据量小于理想状态时对应的目标缓存大小,则主动增加用于部署目标资源部署任务,以让资源往理想状态靠近,如果实际部署的数据量大于理想状态时对应的目标缓存大小,则依赖自动回收机制回收PCDN节点上已部署的目标资源,以实现对部署资源缓存的实时控制,降低成本。

参见图6所示,本申请实施例公开了一种缓存控制装置,该装置包括:

需求量获取模块11,用于获取历史时间段内用户端针对目标资源的下载需求量;

热度值获取模块12,用于将下载需求量输入预先构建的热度预测模型以获取目标资源在当前时间点至未来时间点内的请求热度值;

资源部署模块13,用于基于请求热度值确定出目标资源当前需要部署的缓存大小,并根据缓存大小在PCDN节点上对目标资源进行部署。

可见,本申请通过获取历史时间段内用户端针对目标资源的下载需求量;将下载需求量输入预先构建的热度预测模型以获取目标资源在当前时间点至未来时间点内的请求热度值;基于请求热度值确定出目标资源当前需要部署的缓存大小,并根据缓存大小在PCDN节点上对目标资源进行部署。由此可见,鉴于当前的缓存控制会导致高成本和低性能的问题,本申请是将目标资源在历史时间段内的下载需求量输入至构建好的热度预测模型,以通过热度预测模型实时、准确的输出该目标资源在未来一段时间内的请求热度值,进而根据该请求热度值确定出的缓存大小在PCDN节点上部署与缓存大小相匹配的目标资源数量。也即,本申请是根据热度预测模型输出的请求热度值确定出当前时间点至未来时间点内目标资源需要部署的缓存大小,实现了按照资源粒度实时对缓存进行控制,提高了缓存控制的性能,也无需再部署多层级缓存,降低了CDN的搭建成本。

图7为本申请实施例提供的一种电子设备的结构示意图。具体可以包括:至少一个处理器21、至少一个存储器22、电源23、通信接口24、输入输出接口25和通信总线26。其中,存储器22用于存储计算机程序,计算机程序由处理器21加载并执行,以实现前述任一实施例公开的由电子设备执行的缓存控制方法中的相关步骤。

本实施例中,电源23用于为电子设备20上的各硬件设备提供工作电压;通信接口24能够为电子设备20创建与外界设备之间的数据传输通道,其所遵循的通信协议是能够适用于本申请技术方案的任意通信协议,在此不对其进行具体限定;输入输出接口25,用于获取外界输入数据或向外界输出数据,其具体的接口类型可以根据具体应用需要进行选取,在此不进行具体限定。

其中,处理器21可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器21可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器21也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central ProcessingUnit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器21可以在集成有GPU(Graphics Processing Unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器21还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。

另外,存储器22作为资源存储的载体,可以是只读存储器、随机存储器、磁盘或者光盘等,其上所存储的资源包括操作系统221、计算机程序222及数据223等,存储方式可以是短暂存储或者永久存储。

其中,操作系统221用于管理与控制电子设备20上的各硬件设备以及计算机程序222,以实现处理器21对存储器22中海量数据223的运算与处理,其可以是Windows、Unix、Linux等。计算机程序222除了包括能够用于完成前述任一实施例公开的由电子设备20执行的缓存控制方法的计算机程序之外,还可以进一步包括能够用于完成其他特定工作的计算机程序。数据223除了可以包括电子设备接收到的由外部设备传输进来的数据,也可以包括由自身输入输出接口25采集到的数据等。

进一步的,本申请实施例还公开了一种计算机可读存储介质,存储介质中存储有计算机程序,计算机程序被处理器加载并执行时,实现前述任一实施例公开的由缓存控制过程中执行的方法步骤。

本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其它实施例的不同之处,各个实施例之间相同或相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。

专业人员还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。

结合本文中所公开的实施例描述的方法或算法的步骤可以直接用硬件、处理器执行的软件模块,或者二者的结合来实施。软件模块可以置于随机存储器(RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM、或技术领域内所公知的任意其它形式的存储介质中。

最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。

以上对本发明所提供的一种缓存控制方法、装置、设备及存储介质进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。

相关技术
  • 一种多控制器缓存备份方法、装置、设备及可读存储介质
  • 一种缓存写入方法、装置、设备及可读存储介质
  • 一种视频缓存分析方法、装置、设备及介质
  • 一种缓存方法、装置、设备及介质
  • 一种数据缓存方法、装置、设备及存储介质
  • 缓存控制方法、装置、缓存行结构、电子设备和存储介质
  • 数据访问控制、数据缓存控制方法及其装置、设备与介质
技术分类

06120116122912