掌桥专利:专业的专利平台
掌桥专利
首页

一种用于视频辅助外科手术靶标定位的方法、系统和装置

文献发布时间:2024-04-18 19:58:21


一种用于视频辅助外科手术靶标定位的方法、系统和装置

技术领域

本发明涉及医疗和计算机领域,特别涉及一种用于视频辅助外科手术靶标定位的方法、系统和装置。

技术背景

早期肺癌治疗的金标准是手术切除。在当代外科实践中,这通常是由电视辅助胸腔镜手术(video-assisted thoracic surgery, VATS)完成的,因为它与开放手术相比有不少优势。然而,VATS肺切除术中存在以下几个挑战:在VATS期间,小的、深的或主要为毛玻璃状的实质内病变很难定位,因为这些病变通常在胸膜表面既看不见也不可见。多达63%接受VATS的患者对于<距离胸膜表面10mm,或>5mm的病变需要改为开胸。因此,需要各种侵入性定位技术(如术前CT引导的钩丝定位)来帮助外科医生通过VATS准确地切除这些病变。

识别和解剖叶间肺动脉是解剖性肺切除术中的关键步骤,以避免手术期间的灾难性出血,但对于某些患者,如不完全裂开或严重粘连的患者,使用VATS可能具有挑战性。

进行肺段切除术需要精确了解支气管血管结构到肺段的分支模式和解剖变异,由于VATS的视野有限,VATS的难度也比开放手术更大。

3D建模软件(如Mimics、Hexa3D)可用于术前规划,使外科医生能够更好地了解每个患者的解剖结构,并为每个患者创建个性化的手术计划。电磁导航支气管镜(ENB)、CT引导下的钩丝可用于术前结节的定位。有术者在手术中使用3D建模软件来识别肺结节的位置,但他们的方法在手术过程中利用视觉标志和额外的标尺来关联他们在3D模型上看到的内容,这对于外科医生来说增加了不必要的操作,还有可能引起不必要的手术风险。

同样的问题在腹腔镜手术中也存在,因此有必要开发一项技术来解决上面提到的问题,以促进腔镜手术在临床中的应用。

发明内容

有鉴于此,本发明提供一种用于视频辅助外科手术靶标定位的、系统和装置所要解决的问题是:在尽可能不改变现有手术规范及手术操作流程的基础上实现视频辅助定位目标,快速找到病灶,降低手术风险。

根据本公开的一些实施例,提供的一种用于视频辅助外科手术靶标定位的方法包括以下步骤:接收基础数据,所述基础数据包括腔镜视频、患者三维术前模型、实时相机视频;采用语义分割方法对腔镜视频的感兴趣区域进行分割,得到分割目标,所述分割目标包括手术器械以及目标器官和/或组织的解剖结构;采用姿态追踪方法对实时相机视频中的手术器械及术者姿态进行追踪,得到手术器械位置信息及术者姿态信息,所述手术器械位置信息用于手术器械定位,所述术者姿态信息用于获取术者的手势;初始化设置,将所述语义分割后的分割目标、所述患者三维术前模型以及所述术者姿态信息进行初始化设置,所述初始化设置是将上述信息放置于同一空间系统中;结合所述手术器械位置信息及初始化设置后的数据,对患者三维术前模型的目标器官和/或组织进行大物理变形,以便所述患者三维术前模型更精准的拟合病人腔镜初始视频;术中实时融合匹配,使得所述患者器官和/或组织的术前三维模型拟合跟踪术中实时腔镜视频,从而帮助术者理解视频中的器官及其解剖结构。

根据本公开的一些实施例,所述腔镜视频为胸腔镜视频。

根据本公开的一些实施例,所述腔镜视频为腹腔镜视频。

根据本公开的一些实施例,所述腔镜视频还可以包括关节镜视频或胃镜视频等。

根据本公开的一些实施例,所述患者三维术前模型为通过患者术前CT、MRI或超声图像进行三维重建获得的包含解剖结构的三维模型,更进一步的,所述三维模型为数字三维模型。

根据本公开的一些实施例,所述语义分割方法为常规的深度学习方法如UNet方法,包括以下步骤:

1)准备初始训练数据集,所述初始训练数据集采用深度种子区域生长法来分割腔镜视频的初始数据集,所述初始数据集表示为D1;

2)构建一组三维模型:对每个患者分割一组 CT图像中的目标对象(包括手术相关人体器官,组织等),并为所述这患者构造一个三维模型,所有病人模型集合表示为V1;

3)生成一组模拟标记的2D 腔镜图像,所述2D 腔镜图像的生成方法包括以下步骤:

A、根据所述数据集D1计算每个标记对象的统计信息,如RGB颜色分布;

B、使用3D体积渲染方法生成一组2D标记图像数据集:即,对V1中的每个模型,以不同的腔镜视图进行渲染,生产一系列的2D 图像。所生成的所有图像数据表示为D2;

C、对于D2中的每幅图像,填充数据集D1中相关对象统计信息中的每个标记区域,添加一定的高斯噪声,然后应用随机b样条函数对每个标记图像中的对象进行变形,所得到的数据集表示为D3;

4)利用所述数据集D3学习一个分割模型M1,所述学习方法为Unet方法;

5)使用所述分割模型M1进行语义分割。

根据本公开的一些实施例,所述深度种子区域生长方法为在腔镜视频的关键帧上放置一些相关种子点,根据所述种子点自动进行分割。更进一步的,自动分割不准确时,则可通过增加种子点来优化分割。

根据本公开的一些实施例,所述姿态追踪方法为基于深度学习人工智能的立体定向视觉跟踪方法,采用以下步骤建立一个深度网络,用于自动识别每个器械并从实时相机视频中检测其标记点:

1)创建各器械的三维模型,所述器械的三维模型可以直接调用其三维模型文件,也可以使用3D扫描仪来扫描和创建三维模型文件;

2)使用任何可用的中心线提取方法提取每个三维模型的中心线;

3)确定表面的局部曲率极端点,和中心线的交叉点,作为每个器械的标记点;

4)生成器械训练数据集Di,所述器械训练数据集Di的生成方法包括以下步骤:

A、对于每个器械,附加一个电磁跟踪器来跟踪它的运动;

B、在将器械插入人体之前,以术者各种可能的方式持有器械,捕捉视频和电磁标记的相应运动;

C、将器械模型插入人体,模拟不同位置和视图下的操作,捕捉视频和相应的电磁标记的运动;

D、将上述视频和电磁标记组成一个数据集,记为Di,由每个视频Vid与器械id和标记文件Lid组成, Di={id, Lid, Vid};

5)利用器械数据集Di构建并训练一个器械识别网络YOLOStereo3D ;

6)对于每个器械id,使用具有给定id的Di中的子数据集建立每个器械id标记识别网络LMid,所述识别网络可以是基于点云的,或基于实时相机图像的识别网络。

根据本公开的一些实施例,所述实时相机图像为实时相机所拍摄的视频转换的图像。

根据本公开的一些实施例,所述初始化设置包括以下步骤:

1)建立坐标系,所述坐标系采用腔镜摄像机的坐标系为基准坐标系,并将实时相机及患者三维模型的坐标系初始化到基准坐标系中;

2)根据患者三维解剖模型,确定每个腔镜器械的插入点和方向;

3)将腔镜摄像机插入经规划的粗略位置和方向;

4)调整手术规划中的模拟腔镜的方位和角度,使得模拟生成图像最大限度的拟合真实腔镜所输出的图像。

根据本公开的一些实施例,所述器官和/或组织的大物理变形包括以下步骤:

1)采用所述姿态追踪方法追踪器械尖端;

2)自动分割腔镜视频中所关注的器官和/或组织;

3)将所述器械尖端的位置和所述分割的腔镜视频输入到大变形计算模型中,以计算器官和/或组织变形;

4)将经变形的患者三维解剖模型叠加到腔镜初始视频中。

根据本公开的一些实施例,所述大物理变形的方法为结合了粒子有限元法(PFEM)、人工智能和3D表面插值进行器官和/或组织大变形。

根据本公开的一些实施例,所述腔镜初始视频为腔镜静止时的视频,所述腔镜初始视频包含经分割的已识别和高亮显示的目标。

根据本公开的另一些实施例,所述用于视频辅助外科手术靶标定位的系统包括:

输入模块:用于接收腔镜视频、患者三维术前模型及实时相机视频等数据;

分割模块:用于从腔镜视频中分割手术器械和感兴趣的解剖区域;(例如动脉、静脉、支气管、肺叶裂、节段间边界)

追踪模块:用于用于从腔镜视频中追踪手术器械、术者姿态、患者姿态、感兴趣的解剖区域;

识别模块:用于根据实时相机图像和/或3D点云识别手术器械;

初始化模块:用于将接收到的相关数据进行初始化设置;

变形模块:用于计算三维术前模型的器官和/或组织的大物理变形;

配准模块:用于将患者特定的三维术前模型叠加到手术中的视频图像上,以实现无创定位病变组织。

根据本公开的另一些实施例,所述用于视频辅助外科手术靶标定位的系统的工作流程为:所述输入模块用于接收腔镜视频、患者三维术前模型及实时相机视频等数据;接收到的腔镜视频数据传输到所述分割模块,所述分割模块从腔镜视频中分割手术器械和感兴趣的解剖区域,例如动脉、静脉、支气管、肺叶裂、节段间边界;通过识别模块识别出腔镜视频外的手术器械,并将腔镜视频中分割手术器械与腔镜视频外的手术器械合并还原为完整的手术器械,即可实现腔镜信息与实时相机信息统一;再由初始化模块将患者术前三维模型及实时相机视频的坐标系统统一到腔镜视频系统中;完成初始化后由变形模块将三维术前模型的器官和/或组织进行大物理变形以拟合到腔镜视频图像中对应的器官和/或组织;最后由配准模块将患者特定的三维术前模型叠加到手术中的视频图像上,以实现无创定位病变组织。

根据本公开的又一些实施例,所述用于视频辅助外科手术靶标定位的装置包括:

控制系统:所述控制系统由带有屏幕的控制计算机及用于视频辅助外科手术靶标定位的系统组成;

帧捕获器:所述帧捕获器用于捕获腔镜系统输出的视频,转换为图像;

实时相机组:所述实时相机组由两个或两个以上实时相机组成,其中一个实时相机用于捕捉术者的手势,所述手势用于发出操作所述患者三维术前模型的指令;另一个或多个实时相机用于识别和追踪手术器械,为了避免遮挡可使用不止一个实时相机;

辅助系统:由电磁或光学追踪器以及相关的电磁传感器或标记组成,用于训练所述视频辅助外科手术靶标定位的系统使用实时相机追踪姿态和手术器械。

根据本公开的又一些实施例,所述用于视频辅助外科手术靶标定位的装置的工作流程为所述用于视频辅助外科手术靶标定位的装置的工作流程为:控制系统由带有屏幕的控制计算机及所述用于视频辅助外科手术靶标定位的系统组成,所述屏幕用于显示包括腔镜视频(如VATS视频)、患者三维术前模型、帧捕获器所捕获的图像以及实时相机组拍摄的视频(或图像)等数据,所述用于视频辅助外科手术靶标定位的系统用于处理所述屏幕所显示的数据,所述处理方法依照所述用于视频辅助外科手术靶标定位的方法执行;所述帧捕获器用于捕获腔镜系统输出的视频并转换为图像后输入到所述控制系统;所述实时相机组由两个或两个以上实时相机组成,其中一个实时相机用于捕捉术者的手势,所述手势用于发出操作所述患者三维术前模型的指令;另一个或多个实时相机用于识别和追踪手术器械,为了避免遮挡可使用不止一个实时相机;所述实时相机组拍摄的视频(或图像)输入到所述控制系统;所述辅助系统由电磁或光学追踪器以及相关的电磁传感器或标记组成,用于训练所述视频辅助外科手术靶标定位的系统使用实时相机追踪姿态和手术器械,完成训练后的所述视频辅助外科手术靶标定位的系统可通过实时相机自动追踪术者姿态和手术器械。

根据本公开的又一些实施例,所述用于视频辅助外科手术靶标定位计算机可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现前述用于视频辅助外科手术靶标定位任一项所述方法的步骤。

本公开发明的有益效果在于:

1)没有对现有的操作流程进行干预,就实现了目标定位,可辅助手术医生快速定位目标,提高手术效率;

2)将三维术前模型叠加到腔镜视频上,以获得全局视图,实现术前规划与术中定位相匹配,有助于手术医生准确的找到目标,降低手术风险,提高手术成功率。

附图说明

为了更清楚地说明本公开实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。

图1示出本公开的一些实施例的用于视频辅助外科手术靶标定位的方法的流程示意图。

图2示出本公开的另一些实施例的用于视频辅助外科手术靶标定位的系统的结构示意图。

图3示出本公开的又一些实施例的用于视频辅助外科手术靶标定位的装置的结构示意图。

实施方式

下面将结合本公开实施例中的附图,对本公开实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本公开一部分实施例,而不是全部的实施例。以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本公开及其应用或使用的任何限制。基于本公开中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本公开保护的范围。

本公开提供的一种用于视频辅助外科手术靶标定位的方法,以视频辅助胸腔镜手术(video-assisted thoracic surgery, VATS)为例,结合图1进行描述。

如图1所示的一些实施例的用于视频辅助外科手术靶标定位的方法的流程示意图。包括步骤S101~S106:

S101,接收基础数据:

在一些实施例中,所述基础数据包括胸腔镜视频、患者三维术前模型、实时相机视频;

在一些实施例中,所述基础数据包括腹腔镜视频、患者三维术前模型、实时相机视频;

在一些实施例中,所述基础数据包括关节镜视频、患者三维术前模型、实时相机视频;

在一些实施例中,所述基础数据包括气管镜视频、患者三维术前模型、实时相机视频。

S102,语义分割:

在一些实施例中,采用语义分割方法对腔镜视频的感兴趣区域进行分割,得到分割目标,所述分割目标包括手术器械以及目标器官和/或组织的解剖结构。

在一些实施例中,所述语义分割方法为常规的深度学习方法如UNet方法,包括以下步骤:

1)准备初始训练数据集,所述初始训练数据集采用深度种子区域生长法来分割腔镜视频的初始数据集,所述初始数据集表示为D1;

2)构建一组三维模型:对每个患者分割一组 CT图像中的目标对象(包括手术相关人体器官,组织等),并为所述这患者构造一个三维模型,所有病人模型集合表示为V1;

3)生成一组模拟标记的2D 腔镜图像,所述2D 腔镜图像的生成方法包括以下步骤:

A、根据所述数据集D1计算每个标记对象的统计信息,如RGB颜色分布;

B、使用3D体积渲染方法生成一组2D标记图像数据集:即,对V1中的每个模型,以不同的腔镜视图进行渲染,生产一系列的2D 图像。所生成的所有图像数据表示为D2;

C、对于D2中的每幅图像,填充数据集D1中相关对象统计信息中的每个标记区域,添加一定的高斯噪声,然后应用随机b样条函数对每个标记图像中的对象进行变形,所得到的数据集表示为D3;

4)利用所述数据集D3学习一个分割模型M1,所述学习方法为Unet方法;

5)使用所述分割模型M1进行语义分割。

在一些实施例中,所述深度种子区域生长方法为在腔镜视频的关键帧上放置一些相关种子点,根据所述种子点自动进行分割。更进一步的,自动分割不准确时,则可通过增加种子点来优化分割。

在一些实施例中,所述姿态追踪方法为基于深度学习人工智能的立体定向视觉跟踪方法,采用以下步骤建立一个深度网络,用于自动识别每个器械并从实时相机视频中检测其标记点:

1)创建各器械的三维模型,所述器械的三维模型可以直接调用其三维模型文件,也可以使用3D扫描仪来扫描和创建三维模型文件;

2)使用任何可用的中心线提取方法提取每个三维模型的中心线;

3)确定表面的局部曲率极端点,和中心线的交叉点,作为每个器械的标记点;

4)生成器械训练数据集Di,所述器械训练数据集Di的生成方法包括以下步骤:

A、对于每个器械,附加一个电磁跟踪器来跟踪它的运动;

B、在将器械插入人体之前,以术者各种可能的方式持有器械,捕捉视频和电磁标记的相应运动;

C、将器械模型插入人体,模拟不同位置和视图下的操作,捕捉视频和相应的电磁标记的运动;

D、将上述视频和电磁标记组成一个数据集,记为Di,由每个视频Vid与器械id和标记文件Lid组成, Di={id, Lid, Vid};

5)利用器械数据集Di构建并训练一个器械识别网络YOLOStereo3D;

6)对于每个器械id,使用具有给定id的Di中的子数据集建立每个器械id标记识别网络LMid,所述识别网络可以是基于点云的,或基于实时相机图像的识别网络。

在一些实施例中,所述实时相机图像为实时相机所拍摄的视频转换的图像。

S103,姿态追踪:

在一些实施例中,采用姿态追踪方法对实时相机视频中的手术器械及术者姿态进行追踪,得到手术器械位置信息及术者姿态信息,所述手术器械位置信息用于手术器械定位,所述术者姿态信息用于获取术者的手势。

S104,初始化设置:

在一些实施例中,初始化设置是将所述语义分割后的分割目标、所述患者三维术前模型以及所述术者姿态信息进行初始化设置,所述初始化设置是将上述信息放置于同一空间系统中。

在一些实施例中,所述初始化设置包括以下步骤:

1)建立坐标系,所述坐标系采用腔镜摄像机的坐标系为基准坐标系,并将实时相机及患者三维模型的坐标系初始化到基准坐标系中;

2)根据患者三维解剖模型,确定每个腔镜器械的插入点和方向;

3)将腔镜摄像机插入经规划的粗略位置和方向;

4)调整手术规划中的模拟腔镜的方位和角度,使得模拟生成图像最大限度的拟合真实腔镜所输出的图像。

S105,大物理变形:

在一些实施例中,结合所述手术器械位置信息及初始化设置后的数据,对患者三维术前模型的目标器官和/或组织进行大物理变形,以便所述患者三维术前模型更精准的拟合病人腔镜初始视频。

在一些实施例,所述器官和/或组织的大物理变形包括以下步骤:

1)采用所述姿态追踪方法追踪器械尖端;

2)自动分割腔镜视频中所关注的器官和/或组织;

3)将所述器械尖端的位置和所述分割的腔镜视频输入到大变形计算模型中,以计算器官和/或组织变形;

4)将经变形的患者三维解剖模型叠加到腔镜初始视频中。

根据本公开的一些实施例,所述大物理变形的方法为结合了粒子有限元法(PFEM)、人工智能和3D表面插值进行器官和/或组织大变形。

在一些实施例中,所述腔镜初始视频为腔镜静止时的视频,所述腔镜初始视频包含经分割的已识别和高亮显示的目标。

S106,术中实时融合匹配:

在一些实施例中,术中实时融合匹配使得所述患者器官和/或组织的术前三维模型拟合跟踪术中实时腔镜视频,从而帮助术者理解视频中的器官及其解剖结构。

本公开还提供了一种用于视频辅助外科手术靶标定位的系统,结合图2进行描述说明。

图2为本公开用于视频辅助外科手术靶标定位的系统的一些实施例的结构图,如图2所示,该实施例的用于视频辅助外科手术靶标定位的系统包括:

输入模块:用于接收腔镜视频、患者三维术前模型及实时相机视频等数据;

分割模块:用于从腔镜视频中分割手术器械和感兴趣的解剖区域,例如动脉、静脉、支气管、肺叶裂、节段间边界;

追踪模块:用于追踪腔镜视频中手术器械、术者姿态、患者姿态、感兴趣的解剖区域;

识别模块:用于根据实时相机视频和/或3D点云识别腔镜视频外的手术器械;

初始化模块:用于将接收到的相关数据进行初始化设置;

变形模块:用于计算三维术前模型的器官和/或组织的大物理变形;

配准模块:用于将患者特定的三维术前模型叠加到手术中的视频图像上,以实现无创定位病变组织。

在另一些实施例中,所述用于视频辅助外科手术靶标定位的系统的工作流程为:所述输入模块用于接收腔镜视频、患者三维术前模型及实时相机视频等数据;接收到的腔镜视频数据传输到所述分割模块,所述分割模块从腔镜视频中分割手术器械和感兴趣的解剖区域,例如动脉、静脉、支气管、肺叶裂、节段间边界;通过识别模块识别出腔镜视频外的手术器械,并将腔镜视频中分割手术器械与腔镜视频外的手术器械合并还原为完整的手术器械,即可实现腔镜信息与实时相机信息统一;再由初始化模块将患者术前三维模型及实时相机视频的坐标系统统一到腔镜视频系统中;完成初始化后由变形模块将三维术前模型的器官和/或组织进行大物理变形以拟合到腔镜视频图像中对应的器官和/或组织;最后由配准模块将患者特定的三维术前模型叠加到手术中的视频图像上,以实现无创定位病变组织。

本公开还提供了一种用于视频辅助外科手术靶标定位的装置,结合图3进行描述说明。

图3为本公开用于视频辅助外科手术靶标定位的装置的一些实施例的结构图,如图3所示,该实施例的用于视频辅助外科手术靶标定位的装置包括:

控制系统:所述控制系统由带有屏幕的控制计算机及所述用于视频辅助外科手术靶标定位的系统组成;

帧捕获器:所述帧捕获器用于捕获腔镜系统输出的视频,转换为图像;

实时相机组:所述实时相机组由两个或两个以上实时相机组成,其中一个实时相机用于捕捉术者的手势,所述手势用于发出操作所述患者三维术前模型的指令;另一个或多个实时相机用于识别和追踪手术器械,为了避免遮挡可使用不止一个实时相机;

辅助系统:由电磁或光学追踪器以及相关的电磁传感器或标记组成,用于训练所述视频辅助外科手术靶标定位的系统使用实时相机追踪姿态和手术器械。

在又一些实施例中,所述用于视频辅助外科手术靶标定位的装置的工作流程为:控制系统由带有屏幕的控制计算机及所述用于视频辅助外科手术靶标定位的系统组成,所述屏幕用于显示包括腔镜视频(如VATS视频)、患者三维术前模型、帧捕获器所捕获的图像以及实时相机组拍摄的视频(或图像)等数据,所述用于视频辅助外科手术靶标定位的系统用于处理所述屏幕所显示的数据,所述处理方法依照所述用于视频辅助外科手术靶标定位的方法执行;所述帧捕获器用于捕获腔镜系统输出的视频并转换为图像后输入到所述控制系统;所述实时相机组由两个或两个以上实时相机组成,其中一个实时相机用于捕捉术者的手势,所述手势用于发出操作所述患者三维术前模型的指令;另一个或多个实时相机用于识别和追踪手术器械,为了避免遮挡可使用不止一个实时相机;所述实时相机组拍摄的视频(或图像)输入到所述控制系统;所述辅助系统由电磁或光学追踪器以及相关的电磁传感器或标记组成,用于训练所述视频辅助外科手术靶标定位的系统使用实时相机追踪姿态和手术器械,完成训练后的所述视频辅助外科手术靶标定位的系统可通过实时相机自动追踪术者姿态和手术器械。

在又一些实施例中,一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现前述任一个实施例的用于视频辅助外科手术靶标定位的方法的步骤。

本领域内的技术人员应当明白,本公开的实施例可提供为方法、系统、或计算机程序产品。因此,本公开可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本公开可采用在一个或多个其中包含有计算机可用程序代码的计算机可用非瞬时性存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。

本公开是参照根据本公开实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解为可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。

这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。

这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。

以上仅为本公开的较佳实施例,并不用以限制本公开,凡在本公开的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本公开的保护范围之内。

相关技术
  • 一种用于FAST节点盘及靶标检查的爬升装置及爬升方法
  • 一种用于矩阵视频系统的电视接口装置及连接方法
  • 一种基于iBeacon的室内定位及辅助导航方法、装置及系统
  • 一种用于图像定位的模型训练方法、图像定位方法及装置
  • 一种适用于轨道交通智能检测系统的列车定位方法和装置
  • 用于机器人辅助外科手术的装置和方法以及定位辅助单元
  • 用于微创外科手术的外科手术器械和/或内窥镜的保持和定位装置以及外科手术机器人系统
技术分类

06120116481106