掌桥专利:专业的专利平台
掌桥专利
首页

基于云边协同的车间安全风险智能识别系统及方法

文献发布时间:2024-04-18 19:58:53


基于云边协同的车间安全风险智能识别系统及方法

技术领域

本发明涉及车间安全风险识别技术领域,更具体地说涉及一种基于云边协同的车间安全风险智能识别系统及方法。

背景技术

安全生产是企业生产经营活动的重要组成。当前,随着企业数字化转型进程不断深化,建立智慧安防系统,推动风险预警精准化,提升安全生产管理可预测、可管控的水平是企业实现提质增效和消患固本的关键环节。

对于制造业企业而言,车间现场往往是安全事故高发场景。车间旧有安防模式多采用人工、探测器检测等方式,隐患检出效率低,危险隐患难以及时处理,安防数据价值难以充分释放。

安全风险技防指通过视频监控、身份识别、生物识别等现代科学技术开展安全防范的技术手段。相较于旧有依靠人工检测的安防模式存在隐患检出效率低、危险隐患难以第一时间发现并处理等痛点,安全风险技防能够基于先进算法、安全风险智慧检测模型等实现对安全风险场景实时监测和告警,有效弥补人力防范与物理防范的局限,从而显著提升企业风险防控、消患固本的工作效率。

对于制造业企业而言,开展车间安全风险智能识别的研究十分必要。受制于车间现场硬件资源条件的限制,制造业企业往往存在云、边资源(硬件、计算、网络等)不平衡的问题,因此难以在边缘侧直接进行安全风险智能识别模型的开发工作;而车间现场通常存在边缘平台、工控机、边缘盒子等多种用于车间风险智能识别的边缘设备,此类设备的层级多、架构杂、数量多且分布广,统一管控和运维的工作量大且效率不高;此外,对于边缘侧的海量安防风险相关数据,由于缺少有效的数据回传机制进行云端安全风险智能识别模型迭代,导致云端模型难以更新、边端数据价值难以释放。

深度学习作为近年来人工智能领域的热点方向,可通过搭建深度学习网络自主学习样本数据的内在规律,训练出能够对同类型样本进行准确分析和判断的AI模型,已成为工业场景下安全监测的主流方式之一。然而,AI模型的训练依赖于高性能服务器和大量计算资源,而资源密集的云计算平台往往与车间现场存在较远的物理距离,增加了AI模型在车间现场训练与部署的难度。此外,边缘侧的车间现场往往具有边缘平台、工控机、边缘盒子等多种终端设备,数量众多且物理距离相隔较远,对于已部署的AI模型难以进行统一的管理和迭代更新。

因此,针对车间现场安全风险智能识别场景,现有痛点如下:

1、边缘设备的层级多、数量多、架构杂,难以统一、高效地开展车间安全风险智能识别模型部署应用与迭代更新;

2、车间现场硬件资源差,难以支撑车间风险智能识别模型的在线训练;

3、高精度的车间安全风险智能识别AI模型推理服务内存占用大、计算资源需求高,导致边缘侧推理效率较低,难以满足车间现场安全检测低时延要求。

发明内容

为了克服上述现有技术中存在的缺陷,本发明公开了一种基于云边协同的车间安全风险智能识别系统及方法。本发明云边协同是云计算与边缘计算的互补协同。通过在云端搭建统一的全局管理平台,实现对边缘节点的统一纳管,从而将 AI、大数据等应用能力便捷地部署到边缘节点,并对边缘计算资源进行远程管控、数据处理、分析决策、智能部署等操作。当前,虽然基于云边协同思想打造的系统已在驾驶安全、无损检测等场景落地应用,然而在边缘设备层级多、数量多且时延要求高的车间生产安全场景下尚未成熟应用。本发明针对车间生产现场安全风险识别智能化程度不高,硬件资源差,边缘设备类型杂、分布广、数量多等风险防控痛点,结合深度学习、机器视觉等先进人工智能算法和云边协同的设计思想,在云端提供车间生产安全风险检测模型的训练、压缩和管理服务,并提供模型推理、模型服务和模型镜像三种方式供云端和边端用户根据工作需要自行选择并开展车间生产安全风险检测工作,从而有效降低模型开发门槛、提升模型推理效率、拓展模型应用场景。

为了实现以上目的,本发明采用的技术方案:

第一方面,本发明提供了一种基于云边协同的车间安全风险智能识别系统,包括:

位于云端的模型开发模块,所述模型开发模块用于车间安全风险智能识别模型的开发及训练;

位于云端的模型管理模块,所述模型管理模块与所述模型开发模块通信连接,以构建模型仓库及版本的方式,对模型开发模块训练出的车间安全风险智能识别模型进行统一归档及管理;

位于云端的模型压缩模块,所述模型压缩模块与所述模型管理模块通信连接,对模型管理模块管理的车间安全风险智能识别模型进行压缩;

位于云端的模型应用模块,所述模型应用模块分别与所述模型管理模块和模型压缩模块通信连接,以模型推理、模型服务和模型镜像方式开展车间安全风险智能识别模型的应用;

云边协同模块,所述云边协同模块分别与所述模型应用模块和边缘设备通信连接,将边缘设备注册为边缘节点进行统一纳管,将模型应用模块中的模型以docker镜像方式在边缘设备上进行快速部署及更新迭代;

资源调度模块,所述资源调度模块分别与所述模型开发模块、模型压缩模块、模型应用模块和云边协同模块通信连接,对模型开发模块、模型压缩模块、模型应用模块和云边协同模块进行资源调度和状态监控。

上述六大功能模块具体如下:

1、模型开发模块

优选的,所述模型开发模块以Notebook、可视化和任务式方式创建模型训练任务,基于PyTorch、TensorFlowAI框架进行车间安全风险智能识别模型的开发及训练。

本发明中,对于模型开发模块,支持以Notebook、可视化、任务式三种方式创建模型训练任务,基于PyTorch、TensorFlow等主流AI框架进行车间安全风险智能识别模型的开发及训练。

2、模型管理模块

优选的,所述模型管理模块管理的模型包括线上获取的所述通过模型开发模块训练完成的模型,以及线下上传的开发者未依赖云平台能力、自行开发完成并上传的模型。

本发明中,对于模型管理模块,支持以构建模型仓库及版本的方式,实现对基于PyTorch、TensorFlow等主流AI框架训练出的AI模型的统一归档及管理。模型来源包含线上获取和线下上传,线上获取是指将通过模型开发模块训练完成的模型进行归档;线下上传是指将开发者未依赖云平台能力,自行开发完成的模型依据云平台模型归档要求进行上传。

3、模型压缩模块

优选的,所述模型压缩模块以编辑式和交互式开展剪枝、量化、蒸馏模型压缩操作。

本发明中,对于模型压缩模块,支持以编辑式和交互式两种模式开展剪枝、量化、蒸馏等模型压缩操作,在保证模型推理效果的同时降低模型内存需求,提升模型的边缘推理效果。

4、模型应用模块

优选的,所述模型应用模块中:

所述模型推理方式为:在云平台内,选定已入库的特定版本的模型并配置CPU、GPU资源,实现对受检图像的在线推理;

所述模型服务方式为:在云平台内,选定已入库的特定版本的模型并配置CPU、GPU资源,发布模型并提供模型Api,供外部用户以Api调用的方式远程获取模型推理能力,开展推理工作;

所述模型镜像方式为:在云平台内,选定已入库的特定版本的模型并配置CPU、GPU资源,通过配置仓库信息将模型打包成docker镜像后推送至harbor仓库进行统一纳管。

本发明中,对于模型应用模块,支持模型推理、模型服务和模型镜像三种方式开展智慧安全监测模型的应用。模型推理方式是指在云平台内,选定已入库的特定版本的模型并配置CPU、GPU等资源,实现对受检图像的在线推理;模型服务方式是指在云平台内,选定已入库的特定版本的模型并配置CPU、GPU等资源,发布模型并提供模型Api,从而供外部用户以Api调用的方式远程获取模型推理能力,开展推理工作;模型镜像方式是指在云平台内,选定已入库的特定版本的模型并配置CPU、GPU等资源,首先通过配置仓库信息将模型打包成docker镜像后推送至harbor仓库进行统一纳管。

5、云边协同模块

优选的,所述云边协同模块将已推送至harbor仓库的模型镜像下发至已注册的边缘节点,实现车间安全风险智能识别模型在边缘设备上的快速部署及更新迭代。

本发明中,对于云边协同模块,支持将边缘设备注册为边缘节点进行统一纳管;支持将已推送至harbor仓库的模型镜像下发至已注册的边缘节点,从而实现智慧安全监测模型在边缘设备上的快速部署及更新迭代。

6、资源调度模块

优选的,所述资源调度模块以容器化方式对模型训练、模型推理、模型服务和模型镜像任务进行动态调度,并实时监测任务所消耗的CPU、GPU、内存以及网络情况,查看任务的日志与操作记录。

本发明中,对于资源调度模块,支持以容器化方式对模型训练、模型推理、模型服务和模型镜像任务进行动态调度,可实时监测任务所消耗的CPU、GPU、内存以及网络情况,并可查看任务的日志与操作记录。

第二方面,本发明提供了一种基于云边协同的车间安全风险智能识别方法,包括以下步骤:

S1、利用模型开发模块创建模型开发任务;

优选的,所述S1步骤中,选择Notebook、可视化、任务式三种方式创建模型开发任务,其中:

Notebook开发为纯代码模式,供算法开发者使用;

可视化开发为低代码模式,通过在开发画布上拖拉拽云平台内置的算法组件完成模型的开发与训练,供一般业务人员使用;

任务式开发为供第三方开发人员依托云平台资源完成既有算法开发的方式,开发人员离线完成算法开发并按照云平台规范打包并上传算法训练所需的文件。

S1步骤中,创建模型训练任务,可选择Notebook、可视化、任务式三种方式创建。Notebook开发是一种纯代码模式,可供算法开发者使用,具有在线开发、灵活编译的特点。可视化开发是一种低代码模式,通过在开发画布上拖拉拽云平台内置的算法组件即可完成模型的开发与训练,具有操作便捷、开发门槛低的特点,可供一般业务人员使用。任务式开发是供第三方开发人员依托云平台资源完成既有算法开发的方式,开发人员离线完成算法开发并按照云平台规范打包并上传算法训练所需的文件,具有离线开发、操作简便的特点。

S2、根据模型开发任务配置训练资源并进行模型训练;

S2步骤中,配置CPU、GPU等训练资源,开展模型训练。

S3、利用模型管理模块创建模型仓库,并在模型仓库中新建版本,将完成训练的模型及其参数配置和标签文件导入新建版本模型仓库中进行归档;

S3步骤中,模型训练完成后,获取训练结果并创建模型仓库,新建版本导入已完成训练的模型及其参数配置和标签文件。

S4、利用模型压缩模块创建模型压缩任务,对S3步骤归档的模型进行模型压缩;

优选的,所述S4步骤中,选择编辑式模型压缩策略和交互式模型压缩策略对模型进行模型压缩;

所述编辑式模型压缩策略,以纯代码方式对模型结构与参数进行优化,配置CPU、GPU训练资源,开展编辑式模型压缩任务;

所述交互式模型压缩策略,选择量化、剪枝、蒸馏三种策略,以低代码方式配置所选压缩策略的参数,配置CPU、GPU训练资源,开展交互式模型压缩任务。

S4步骤中,创建模型压缩任务,可选择交互式和编辑式两种压缩方式。其中,采用编辑式模型压缩策略,以纯代码方式对模型结构与参数进行优化,配置CPU、GPU等训练资源,开展编辑式模型压缩任务。采用交互式模型压缩策略,可选择量化、剪枝、蒸馏三种策略,以低代码方式配置所选压缩策略的参数,配置CPU、GPU等训练资源,开展交互式模型压缩任务。

S5、在模型仓库中新建版本,将压缩后的模型版本及其参数配置和标签文件导入新建版本模型仓库中进行归档;

S5步骤中,模型压缩完成后,获取压缩结果,在S3步骤创建的模型仓库下新建版本,并导入已压缩后的模型版本及其参数配置和标签文件。

S6、模型应用模块利用S5步骤归档的模型,开展模型推理、模型服务和模型镜像模型应用,云端和边端用户根据工作需要自行选择相应模型应用并开展车间生产安全风险检测工作。

优选的,所述S6步骤中,所述模型推理模型应用为:在云平台内选定已入库的模型,通过配置CPU、GPU计算资源,以拖拉拽的方式对单张受检图像的在线推理,供一般业务人员使用以测试模型推理的效果及性能;

所述模型服务模型应用为:在云平台内选定已入库的模型,创建模型服务任务并配置CPU、GPU计算资源,以API方式对外发布模型,供外部用户以脚本方式调用模型执行推理任务;

所述模型镜像模型应用为:在云平台内选定已入库的模型,通过配置harbor仓库信息将模型的docker镜像推送至仓库;依托云边协同模块,将模型下发至已纳管的边缘节点,实现边缘侧推理模型的实时运行。

S6步骤中,开展模型应用,包括模型推理、模型服务和模型镜像下发三种方式。在线推理是指在云平台内选定已入库的模型,通过配置CPU、GPU等计算资源,以拖拉拽的方式对单张受检图像的在线推理,可供一般业务人员使用以测试模型推理的效果及性能。模型服务是指在云平台内选定已入库的模型,创建模型服务任务并配置CPU、GPU等计算资源,从而以API方式对外发布模型,供外部用户以脚本方式调用模型执行推理任务。模型镜像是指在云平台内选定已入库的模型,通过配置harbor仓库信息将模型的docker镜像推送至仓库;进一步,依托云边协同模块,将模型下发至已纳管的边缘节点(边缘平台、工控机、边缘盒子等),实现边缘侧推理模型的实时运行。

优选的,所述S6步骤中,模型镜像下发操作包括以下步骤:

(1)创建模型镜像任务

S61、在模型应用模块的模型镜像子模块内,创建模型镜像推送任务;

S61步骤中,在基于云边协同的车间安全风险智能识别系统内的模型镜像子模块内,创建模型镜像推送任务。

(2)仓库及模型信息配置

S62、在创建的模型镜像推送任务下配置仓库及待推送模型信息;

优选的,所述S62步骤中,配置待接收模型的harbor仓库信息,包括任务名称、仓库地址、仓库账号及密码内容;再配置待推送的模型信息,包括模型版本、镜像名称、镜像版本及采用的推理框架,模型选择车间安全模型仓库下的车间生产火灾检测模型1.0版本,镜像名称edge_fire,镜像版本1.0,采用Triton推理框架。

上述S62步骤中,在S61步骤创建的模型镜像推送任务下配置仓库及待推送模型信息。首先配置待接收模型的harbor仓库信息,包括任务名称、仓库地址、仓库账号及密码等内容;然后配置待推送的模型信息,包括模型版本、镜像名称、镜像版本及采用的推理框架,模型选择车间安全模型仓库下的车间生产火灾检测模型1.0版本,镜像名称edge_fire,镜像版本1.0,采用Triton推理框架。

(3)镜像推送任务执行

S63、配置CPU、GPU资源启动镜像推送任务, 推送任务完成后登录仓库内查看推送成功的模型镜像文件;

上述S63步骤中,镜像推送任务信息填写完成后,配置CPU、GPU等资源启动镜像推送任务。推送任务完成后可登录步骤S62中配置的harbor仓库内查看推送成功的模型镜像文件。

(4)模型推理应用创建

S64、在云边协同模块内进行应用的创建及配置,并关联已推送至仓库内的模型镜像;

优选的,所述S64步骤中,配置内容包括名称、模型镜像地址、容器规格、网络类型信息。

上述S64步骤中,在云边协同模块内进行应用的创建及配置,配置内容包括名称、模型镜像地址、容器规格(CPU及内存配额)、网络类型等信息。

(5)模型下发及部署

S65、在云边协同模块已纳入管理的边缘节点内,选定目标边缘节点,执行部署任务;

上述步骤中,在模型推理应用创建后,在云边协同模块已纳入管理的边缘节点内,选定目标边缘节点,执行部署任务,实现车间生产火灾检测模型推理服务在边缘节点的部署。

(6)模型执行

S66、边缘节点实时运行应用,执行模型推理服务;

(7)模型验证

S67、模型部署完成后,采用平台提供的模型服务测试脚本调用步骤S65中部署在边缘节点的车间安全风险智能识别模型进行性能测试。

上述步骤中,在模型部署完成后,可采用平台提供的模型服务测试脚本调用步骤S65中部署在边缘节点的车间生产火灾检测模型进行性能测试。

本发明的有益效果:

本发明面向车间生产安全风险检测场景,提出了一种基于云边协同的车间安全风险智能识别系统及方法。针对车间生产现场安全风险识别智能化程度不高,硬件资源差,边缘设备类型杂、分布广、数量多等风险防控痛点,结合深度学习、机器视觉等先进人工智能算法和云边协同的设计思想,在云端提供车间生产安全风险检测模型的训练、压缩和管理服务,并提供模型推理、模型服务和模型镜像三种方式供云端和边端用户根据工作需要自行选择并开展车间生产安全风险检测工作,从而有效降低模型开发门槛、提升模型推理效率、拓展模型应用场景,具有优点如下:

云边协同:云端训练车间安全风险智能识别模型,统一下发至已纳管的边缘节点,快速实现模型的部署与更新迭代;边缘侧实时运行模型,基于摄像头等采集设备传输的车间图像数据开展推理,实现车间生产安全风险的实时检出与告警。

适应性广:支持将ARM、AMD等多架构的边缘平台、工控机、边缘盒子等多层级边缘设备注册为边缘节点纳管,并统一进行模型下发、部署、管理、更新等操作。

低时延:支持在云端进行剪枝、量化、蒸馏等模型压缩操作,在保证模型性能的同时,减小模型占用内存,提升边缘侧的推理效率,对边缘设备硬件资源要求低。

智能化:结合深度学习、机器视觉方法,训练高精度车间安全风险智能识别模型,推动风险预警精准化。

附图说明

图1为本发明基于云边协同的车间安全风险智能识别系统框架;

图2为本发明基于云边协同的车间安全风险智能识别系统的工作过程;

图3为本发明模型镜像下发操作过程。

具体实施方式

以下将结合实施例和附图对本发明的构思、具体结构及产生的技术效果进行清楚、完整的描述,以充分地理解本发明的目的、特征和效果。

实施例1

一种基于云边协同的车间安全风险智能识别系统,如图1所示,包括:

位于云端的模型开发模块,所述模型开发模块用于车间安全风险智能识别模型的开发及训练;

位于云端的模型管理模块,所述模型管理模块与所述模型开发模块通信连接,以构建模型仓库及版本的方式,对模型开发模块训练出的车间安全风险智能识别模型进行统一归档及管理;

位于云端的模型压缩模块,所述模型压缩模块与所述模型管理模块通信连接,对模型管理模块管理的车间安全风险智能识别模型进行压缩;

位于云端的模型应用模块,所述模型应用模块分别与所述模型管理模块和模型压缩模块通信连接,以模型推理、模型服务和模型镜像方式开展车间安全风险智能识别模型的应用;

云边协同模块,所述云边协同模块分别与所述模型应用模块和边缘设备通信连接,将边缘设备注册为边缘节点进行统一纳管,将模型应用模块中的模型以镜像方式在边缘设备上进行快速部署及更新迭代;

资源调度模块,所述资源调度模块分别与所述模型开发模块、模型压缩模块、模型应用模块和云边协同模块通信连接,对模型开发模块、模型压缩模块、模型应用模块和云边协同模块进行资源调度和状态监控。

实施例2

本实施例在实施例1的基础上作进一步的阐述,如图1所示,上述六大功能模块具体如下:

1、模型开发模块

本实施例中,对于模型开发模块,支持以Notebook、可视化、任务式三种方式创建模型训练任务,基于PyTorch、TensorFlow等主流AI框架进行车间安全风险智能识别模型的开发及训练。

2、模型管理模块

本实施例中,对于模型管理模块,支持以构建模型仓库及版本的方式,实现对基于PyTorch、TensorFlow等主流AI框架训练出的AI模型的统一归档及管理。模型来源包含线上获取和线下上传,线上获取是指将通过模型开发模块训练完成的模型进行归档;线下上传是指将开发者未依赖云平台能力,自行开发完成的模型依据云平台模型归档要求进行上传。

3、模型压缩模块

本实施例中,对于模型压缩模块,支持以编辑式和交互式两种模式开展剪枝、量化、蒸馏等模型压缩操作,在保证模型推理效果的同时降低模型内存需求,提升模型的边缘推理效果。

4、模型应用模块

本实施例中,对于模型应用模块,支持模型推理、模型服务和模型镜像三种方式开展智慧安全监测模型的应用。模型推理方式是指在云平台内,选定已入库的特定版本的模型并配置CPU、GPU等资源,实现对受检图像的在线推理;模型服务方式是指在云平台内,选定已入库的特定版本的模型并配置CPU、GPU等资源,发布模型并提供模型Api,从而供外部用户以Api调用的方式远程获取模型推理能力,开展推理工作;模型镜像方式是指在云平台内,选定已入库的特定版本的模型并配置CPU、GPU等资源,首先通过配置仓库信息将模型打包成docker镜像后推送至harbor仓库进行统一纳管。

5、云边协同模块

本实施例中,对于云边协同模块,支持将边缘设备注册为边缘节点进行统一纳管;支持将已推送至harbor仓库的模型镜像下发至已注册的边缘节点,从而实现智慧安全监测模型在边缘设备上的快速部署及更新迭代。

6、资源调度模块

本实施例中,对于资源调度模块,支持以容器化方式对模型训练、模型推理、模型服务和模型镜像任务进行动态调度,可实时监测任务所消耗的CPU、GPU、内存以及网络情况,并可查看任务的日志与操作记录。

实施例3

一种基于云边协同的车间安全风险智能识别方法,如图2所示,包括以下步骤:

S1、利用模型开发模块创建模型开发任务;

S1步骤中,创建模型训练任务,可选择Notebook、可视化、任务式三种方式创建。Notebook开发是一种纯代码模式,可供算法开发者使用,具有在线开发、灵活编译的特点。可视化开发是一种低代码模式,通过在开发画布上拖拉拽云平台内置的算法组件即可完成模型的开发与训练,具有操作便捷、开发门槛低的特点,可供一般业务人员使用。任务式开发是供第三方开发人员依托云平台资源完成既有算法开发的方式,开发人员离线完成算法开发并按照云平台规范打包并上传算法训练所需的文件,具有离线开发、操作简便的特点。

S2、根据模型开发任务配置训练资源并进行模型训练;

S2步骤中,配置CPU、GPU等训练资源,开展模型训练。

S3、利用模型管理模块创建模型仓库,并在模型仓库中新建版本,将完成训练的模型及其参数配置和标签文件导入新建版本模型仓库中进行归档;

S3步骤中,模型训练完成后,获取训练结果并创建模型仓库,新建版本导入已完成训练的模型及其参数配置和标签文件。

S4、利用模型压缩模块创建模型压缩任务,对S3步骤归档的模型进行模型压缩;

S4步骤中,创建模型压缩任务,可选择交互式和编辑式两种压缩方式。其中,采用编辑式模型压缩策略,以纯代码方式对模型结构与参数进行优化,配置CPU、GPU等训练资源,开展编辑式模型压缩任务。采用交互式模型压缩策略,可选择量化、剪枝、蒸馏三种策略,以低代码方式配置所选压缩策略的参数,配置CPU、GPU等训练资源,开展交互式模型压缩任务。

S5、在模型仓库中新建版本,将压缩后的模型版本及其参数配置和标签文件导入新建版本模型仓库中进行归档;

S5步骤中,模型压缩完成后,获取压缩结果,在S3步骤创建的模型仓库下新建版本,并导入已压缩后的模型版本及其参数配置和标签文件。

S6、模型应用模块利用S5步骤归档的模型,开展模型推理、模型服务和模型镜像模型应用,云端和边端用户根据工作需要自行选择相应模型应用并开展车间生产安全风险检测工作。

S6步骤中,开展模型应用,包括模型推理、模型服务和模型镜像下发三种方式。在线推理是指在云平台内选定已入库的模型,通过配置CPU、GPU等计算资源,以拖拉拽的方式对单张受检图像的在线推理,可供一般业务人员使用以测试模型推理的效果及性能。模型服务是指在云平台内选定已入库的模型,创建模型服务任务并配置CPU、GPU等计算资源,从而以API方式对外发布模型,供外部用户以脚本方式调用模型执行推理任务。模型镜像是指在云平台内选定已入库的模型,通过配置harbor仓库信息将模型的docker镜像推送至仓库;进一步,依托云边协同模块,将模型下发至已纳管的边缘节点(边缘平台、工控机、边缘盒子等),实现边缘侧推理模型的实时运行。

实施例4

本实施例在实施例3的基础上作进一步的阐述,如图3所示,所述S6步骤中,模型镜像下发操作包括以下步骤:

S61、在模型应用模块的模型镜像子模块内,创建模型镜像推送任务;

S61步骤中,在基于云边协同的车间安全风险智能识别系统内的模型镜像子模块内,创建模型镜像推送任务。

S62、在创建的模型镜像推送任务下配置仓库及待推送模型信息;

上述S62步骤中,在S61步骤创建的模型镜像推送任务下配置仓库及待推送模型信息。首先配置待接收模型的harbor仓库信息,包括任务名称、仓库地址、仓库账号及密码等内容;然后配置待推送的模型信息,包括模型版本、镜像名称、镜像版本及采用的推理框架,模型选择车间安全模型仓库下的车间生产火灾检测模型1.0版本,镜像名称edge_fire,镜像版本1.0,采用Triton推理框架。

S63、配置CPU、GPU资源启动镜像推送任务, 推送任务完成后登录仓库内查看推送成功的模型镜像文件;

上述S63步骤中,镜像推送任务信息填写完成后,配置CPU、GPU等资源启动镜像推送任务。推送任务完成后可登录步骤S62中配置的harbor仓库内查看推送成功的模型镜像文件。

S64、在云边协同模块内进行应用的创建及配置,并关联已推送至仓库内的模型镜像;

上述S64步骤中,在云边协同模块内进行应用的创建及配置,配置内容包括名称、模型镜像地址、容器规格(CPU及内存配额)、网络类型等信息。

S65、在云边协同模块已纳入管理的边缘节点内,选定目标边缘节点,执行部署任务;

上述步骤中,在模型推理应用创建后,在云边协同模块已纳入管理的边缘节点内,选定目标边缘节点,执行部署任务,实现车间生产火灾检测模型推理服务在边缘节点的部署。

S66、边缘节点实时运行应用,执行模型推理服务。

以上对本发明的实施方式进行了具体说明,但本发明并不限于所述实施例,熟悉本领域的技术人员在不违背本发明精神的前提下还可作出种种等同变型或替换,这些等同或替换均包含在本发明权利要求所限定的范围内。

相关技术
  • 一种基于云边端协同的电力负荷智能识别系统、方法及设备
  • 一种基于云边端协同的电力负荷智能识别系统、方法及设备
技术分类

06120116509620