掌桥专利:专业的专利平台
掌桥专利
首页

基于深度学习的大肠癌人工智能辅助病理诊断系统

文献发布时间:2024-04-18 19:54:28


基于深度学习的大肠癌人工智能辅助病理诊断系统

技术领域

本发明涉及人工智能技术领域,特别涉及一种基于深度学习的大肠癌人工智能辅助病理诊断系统。

背景技术

大肠癌是全球发病率第三的恶性肿瘤,在我国更是高居恶性肿瘤死亡率的第五位。但我国病理医师严重短缺,且地域间诊断水平差异较大,肠癌的常规病理诊断不但占用大量病理资源,其精准性亦严重制约患者个体化治疗的选择。随着人工智能的不断发展,在医学领域人工智能逐渐扮演了重要角色;因此,利用人工智能的设备辅助病理诊断并进行预后预测成为解决当前困境的重要契机。更重要的是,由于病理人才分布的不均衡,病理诊断的准确性在地区间差异显著,极大影响患者的治疗及预后。

现有技术一,申请号:CN202080096757.9公开了一种使用AI的病理诊断辅助方法和辅助装置,确定位置而获取显微镜观察图像数据,使用AI将图像数据按组织类型分类,将分类结果整合为病变部位,由此辅助诊断。虽然能够提供通过病理医师通常使用的HE染色来高精度且高效地进行病理诊断的辅助技术;此外,提供病理诊断辅助系统、病理诊断辅助程序和已学习模型;但是机器学习无法做到对大量的医学图像数据的处理,导致在使用时收到数据量的限制。

现有技术二,申请号:CN201710322536.9公开了一种适用于肝癌及消化道癌的病理诊断报告生成系统及方法,病理报告分析平台,输入的病人基本信息,根据病理号从病理图像服务器中读取该病理号相关联的病理图像,然后以网址的形式存储病理号和关联的病理图像;根据网址将图像进行下载;同时,还从病理图像服务器中获取病理诊断报告的巨检信息;病理报告分析平台还接收诊断医师输入的病理诊断分析结果,将分析结果存储到数据库服务器中,病理报告分析平台还根据病理类型,从文件模板服务器中读取对应的病理Word模板信息;从数据库服务器中读取病理诊断分析结果,将诊断医师输入的病理诊断分析结果与病理Word模板中的指标书签进行匹配,虽然能够辅助诊断医师快速生成诊断报告,但是没有对医疗图像作出标注,并标定癌变区域,导致肠癌的诊断效率较低。

现有技术三,申请号:CN202211555262.5公开了一种基于生物标志物增强拉曼光谱数据库的病理诊断方法,基于生物标志物的理论拉曼光谱和实测生物标志物蛋白及组织切片的增强拉曼光谱建立数据库,之后利用数据库数据训练生成病理诊断的深度学习模型,最后利用深度学习模型对待测组织进行病理表达程度判断,并生成标注了生物标志物分布的待测组织切片病理图像。既能实现分子水平的高特异性、灵敏度的定量检测,又能方便医生直观的理解检测结果,帮助临床决策,虽然对于癌症的临床检测具有重要意义,有望发展成为一项极具前景的全自动临床辅助诊断技术,但是缺少对医疗图像的辅助处理,而且生物标志物增强拉曼光谱数据库的病理诊断处理效率较低,智能化水平较低。

目前现有技术一、现有技术二和现有技术三存在处理数量量受限,不能精准的标定癌变区域,导致肠癌的诊断效率较低且智能化水平较低的问题,因而,本发明提供基于深度学习的大肠癌人工智能辅助病理诊断系统,片通过扫描仪进行数字化处理后,深度学习模型在1分钟内完成整张病理影像的分析,精确圈出癌变区域,生成病理诊断报告模版及关键病变区域截图,待医生审核。医生在系统上勾选和补充相关诊断信息,进行确认,提交最终诊断报告。

发明内容

为了解决上述技术问题,本发明提供了一种基于深度学习的大肠癌人工智能辅助病理诊断系统,包括:

数据获取及标注模块,负责利用病理切片扫描仪获取病理切片的数字图像,采用病理图像标注子模块标注感兴趣区域,并存储至服务器;

数据清洗及预处理模块,负责自动校正感兴趣区域,并将分段的标注拼合成闭合的感兴趣区域;通过二值化过滤器,得到有效区域,并将有效的区域切成小图像块,标注图像的对应区域与提取出的图像块组成训练图像对;

诊断模型训练模块,负责采用基于迁移学习以残差网络和密集卷积网络为基本单元的卷积神经网络对训练集进行训练;

结果输出模块,负责将训练图像对输入值诊断模型,输出结果。

可选的,在诊断模型训练过程中,初始化权重、偏置,设置迭代次数、图像块大小及卷积核大小参数,根据训练结果不断优化,并在测试集测试网络性能,统计模型敏感性及特异性。

可选的,数据获取及标注模块,包含:

数字图像预处理子模块,负责对病理切片的数字图像进行去噪、增强及分割,得到分割后数字图像;

病理区域识别子模块,负责识别分割后数字图像中的病理区域,发送病理区域识别的指令至病理图像标注子模块;

病理图像标注子模块,负责接收病理区域识别的指令,获取标注感兴趣区域的指令,标注病理区域的位置并勾勒出病理区域的边缘;

病理图像存储子模块,负责对标注后的病理图像进行加密,并存储至服务器。

可选的,病理图像标注子模块的病理区域的边缘不包含肠腔内气体及肠壁周围脂肪。

可选的,标注感兴趣区域的指令包含:最大横截面的感兴趣区域、整个肿瘤的感兴趣区域及感兴趣体积。

可选的,病理图像标注子模块,包含:

标识获取单元,负责接收分割后包含病理区域的数字图像,获取数字图像的标识,标识包含:病理区域的位置的编号及病理区域的边缘的标号;

识别执行单元,负责依据标识对数字图像的病理区域进行第一次识别、第二次识别和第三次识别;

标识汇集单元,负责将第一次识别、第二次识别和第三次识别的结果汇总,得到汇总的病理区域的位置及病理区域的边缘,进行标注,得到包含标注的病理区域的位置及病理区域的边缘的数字图像。

可选的,依据标识对数字图像的病理区域进行第一次识别,标识出第一次识别的病理区域的位置及病理区域的边缘,在达到第一次识别阈值时间时,停止第一次识别,第一次识别完毕后,进行第二次识别,标识出第二次识别的病理区域的位置及病理区域的边缘,在达到第二次识别阈值时间时,停止第二次识别,第二次识别完毕后,进行第三次识别,标识出第三次识别的病理区域的位置及病理区域的边缘,在达到第三次识别阈值时间时,停止第三次识别。

可选的,数据清洗及预处理模块,包含:

自动校正子模块,负责获取感兴趣区域的数字图像,数字图像包含病理区域的位置及病理区域的边缘及其标注,利用移动模块实现各个标注的移动,并记录标注的数量及像素点坐标,通过像素点坐标和移动模块的移动量计算数字图像的像素点坐标补偿量,并根据补偿量及移动量的转换关系校正感兴趣区域;

标注拼合子模块,负责将校正感兴趣区域的数字图像中分段的标注拼合成闭合的感兴趣区域;

训练图像对子模块,负责通过二值化过滤器,得到有效区域,并将有效的区域切成小图像块,标注图像的对应区域与提取出的图像块组成训练图像对。

可选的,诊断模型训练模块,包含:

训练集构建子模块,负责建立训练集,训练集内容包括正常组织、腺瘤、癌变区域及与预后相关的间质成分标签,预后相关的间质成分包含纤维化、坏死、肉芽组织、浸润淋巴细胞、粘液湖及肌肉在内;

辅助标注构建子模块,负责对数字图像的标注数据进行归类、整理、编辑、纠错、标记及批注;

训练集扩充子模块,负责利用辅助标注构建子模块对T1期肠癌及II期肠癌进行标注,使训练集呈指数扩增;

模型训练子模块,负责用基于迁移学习以残差网络和密集卷积网络为基本单元的卷积神经网络对训练集进行训练,利用扩展的训练集不断优化初始化权重、迭代次数、图像块大小及卷积核大小模型参数;

测试集构建子模块,负责采用免疫组化辅助建立测试集,选择形态具代表性的肠癌原发灶及转移灶标本各10张,对全部肿瘤区域进行勾画,并结合免疫组织化学染色对比验证,对诊断模型进行测试验证,计算敏感性和特异性。

可选的,病理图像标注子模块,包含:

服务器,负责存储待标注的病理图像;

网页登录单元,负责通过浏览器访问服务器提供的网络服务,实现病理图像标注功能;

终端登录单元,负责通过终端访问服务器,实现病理图像标注功能。

本发明的数据获取及标注模块利用病理切片扫描仪获取病理切片的数字图像,采用病理图像标注子模块标注感兴趣区域,并存储至服务器;数据清洗及预处理模块自动校正感兴趣区域,并将分段的标注拼合成闭合的感兴趣区域;通过二值化过滤器,得到有效区域,并将有效的区域切成小图像块,标注图像的对应区域与提取出的图像块组成训练图像对;诊断模型训练模块采用基于迁移学习以残差网络和密集卷积网络为基本单元的卷积神经网络对训练集进行训练;在模型训练过程中,初始化权重、偏置,设置迭代次数、batch大小、卷积核大小等参数,根据训练结果不断优化,并在测试集测试网络性能,统计模型敏感性及特异性;结果输出模块,负责将训练图像对输入值诊断模型,输出结果;上述方案通过病理切片扫描仪获取病理切片的数字图像,实现了全视野病理数字图像的获取,一方面是便于系统对数字图像进行处理,提升数字图像的处理时间,减轻系统的负载;另一方面能够有效提升病理感兴趣区域的标注效率和精度,实现病理区域的自动化标注,提高大肠癌的智能诊断水平;通过自动校正感兴趣区域,实现自动纠正标注的误差和任意性,提高感兴趣区域的标注的像素点的精度,提供更加完整的图像,采用过滤器对图像的空白区域过滤,得到准确的图像边缘点,实现图像边界的查找;通过深度学习对诊断模型进行训练,有效提高诊断模型的参数精度,有助于提高诊断模型结果的准确性;

本实施例基于卷积神经网络的深度学习人工智能技术可将大面积的病理数字图片分解成细小的分区,自动提取图像特征,将抽象的图像信息转化为具象的数字信息并进行分析和识别,有效解决医师间重复性差的问题,使传统病理诊断更加适应精准化医学的发展;在实践中曾利用以ResNet和DenseNet为基本单元的CNN网络训练的850张肠癌诊断模型为基础,对经过精细标注的400张肠癌HE数字病理图像进行迁移学习,使其可智能识别癌变区域,并不断优化初始化权重、迭代次数、图像块大小及卷积核大小等模型参数,提高诊断敏感性及特异性,构建肠癌智能诊断平台,极大优化现有病理诊断流程、提高诊断效率。

本实施例可以提高病理诊断效率,缓解病理医师紧缺医疗压力;该辅助诊断平台可极大优化现有诊断流程及模式,大大提高诊断效率;该系统可以快速复制到各个医院,边际成本较低,且有助于提高边远地区病理诊断水平,改善区域间医疗资源不均现状。

本发明的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过在所写的说明书、权利要求书、以及附图中所特别指出的结构来实现和获得。

下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。

附图说明

附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。在附图中:

图1为本发明实施例1中基于深度学习的大肠癌人工智能辅助病理诊断系统框图;

图2为本发明实施例2中数据获取及标注模块框图;

图3为本发明实施例3中病理图像标注子模块框图;

图4为本发明实施例4中数据清洗及预处理模块框图;

图5为本发明实施例5中诊断模型训练模块框图;

图6为本发明实施例6中病理图像标注子模块框图。

具体实施方式

以下结合附图对本发明的优选实施例进行说明,应当理解,此处所描述的优选实施例仅用于说明和解释本发明,并不用于限定本发明。

在本申请实施例使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本申请实施例。在本申请实施例和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本文中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。

下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本申请相一致的所有实施方式。相反,它们仅是如所附权利要求书中所详述的、本申请的一些方面相一致的装置和方法的例子。在本申请的描述中,需要理解的是,术语“第一”、“第二”、“第三”等仅用于区别类似的对象,而不必用于描述特定的顺序或先后次序,也不能理解为指示或暗示相对重要性。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本申请中的具体含义。

实施例1:如图1所示,本发明实施例提供了一种基于深度学习的大肠癌人工智能辅助病理诊断系统,包括:

数据获取及标注模块,负责利用病理切片扫描仪获取病理切片的数字图像,采用病理图像标注子模块标注感兴趣区域,并存储至服务器;

数据清洗及预处理模块,负责自动校正感兴趣区域,并将分段的标注拼合成闭合的感兴趣区域;通过二值化过滤器,得到有效区域,并将有效的区域切成小图像块,标注图像的对应区域与提取出的图像块组成训练图像对;

诊断模型训练模块,负责采用基于迁移学习以残差网络和密集卷积网络为基本单元的卷积神经网络对训练集进行训练;在模型训练过程中,初始化权重、偏置,设置迭代次数、batch大小、卷积核大小等参数,根据训练结果不断优化,并在测试集测试网络性能,统计模型敏感性及特异性;

结果输出模块,负责将训练图像对输入值诊断模型,输出结果;

上述技术方案的工作原理和有益效果为:本实施例的数据获取及标注模块利用病理切片扫描仪获取病理切片的数字图像,采用病理图像标注子模块标注感兴趣区域,并存储至服务器;数据清洗及预处理模块自动校正感兴趣区域,并将分段的标注拼合成闭合的感兴趣区域;通过二值化过滤器,得到有效区域,并将有效的区域切成小图像块,标注图像的对应区域与提取出的图像块组成训练图像对;诊断模型训练模块采用基于迁移学习以残差网络和密集卷积网络为基本单元的卷积神经网络对训练集进行训练;在模型训练过程中,初始化权重、偏置,设置迭代次数、batch大小、卷积核大小等参数,根据训练结果不断优化,并在测试集测试网络性能,统计模型敏感性及特异性;结果输出模块,负责将训练图像对输入值诊断模型,输出结果;上述方案通过病理切片扫描仪获取病理切片的数字图像,实现了全视野病理数字图像的获取,一方面是便于系统对数字图像进行处理,提升数字图像的处理时间,减轻系统的负载;另一方面能够有效提升病理感兴趣区域的标注效率和精度,实现病理区域的自动化标注,提高大肠癌的智能诊断水平;通过自动校正感兴趣区域,实现自动纠正标注的误差和任意性,提高感兴趣区域的标注的像素点的精度,提供更加完整的图像,采用过滤器对图像的空白区域过滤,得到准确的图像边缘点,实现图像边界的查找;通过深度学习对诊断模型进行训练,有效提高诊断模型的参数精度,有助于提高诊断模型结果的准确性;

本实施例基于卷积神经网络的深度学习人工智能技术可将大面积的病理数字图片分解成细小的分区,自动提取图像特征,将抽象的图像信息转化为具象的数字信息并进行分析和识别,有效解决医师间重复性差的问题,使传统病理诊断更加适应精准化医学的发展;在实践中曾利用以残差网络ResNet和密集卷积网络DenseNet为基本单元的卷积神经CNN网络训练的850张肠癌诊断模型为基础,对经过精细标注的400张肠癌病理切片HE数字病理图像进行迁移学习,使其可智能识别癌变区域,并不断优化初始化权重、迭代次数、图像块大小及卷积核大小等模型参数,提高诊断敏感性及特异性,构建肠癌智能诊断平台,极大优化现有病理诊断流程、提高诊断效率。

本实施例可以提高病理诊断效率,缓解病理医师紧缺医疗压力;该辅助诊断平台可极大优化现有诊断流程及模式,大大提高诊断效率;该系统可以快速复制到各个医院,边际成本较低,且有助于提高边远地区病理诊断水平,改善区域间医疗资源不均现状。

实施例2:如图2所示,在本实施例1的基础上,本发明实施例提供的数据获取及标注模块,包含:

数字图像预处理子模块,负责对病理切片的数字图像进行去噪、增强及分割,得到分割后数字图像;

病理区域识别子模块,负责识别分割后数字图像中的病理区域,发送病理区域识别的指令至病理图像标注子模块;

病理图像标注子模块,负责接收病理区域识别的指令,获取标注感兴趣区域的指令,标注病理区域的位置并勾勒出病理区域的边缘;病理区域的边缘不包含肠腔内气体及肠壁周围脂肪等;标注感兴趣区域的指令包含:最大横截面的感兴趣区域、整个肿瘤的感兴趣区域及感兴趣体积等;

病理图像存储子模块,负责对标注后的病理图像进行加密,并存储至服务器;

上述技术方案的工作原理和有益效果为:本实施例的数字图像预处理子模块对病理切片的数字图像进行去噪、增强及分割,得到分割后数字图像;病理区域识别子模块识别分割后数字图像中的病理区域,发送病理区域识别的指令至病理图像标注子模块;病理图像标注子模块接收病理区域识别的指令,获取标注感兴趣区域的指令,标注病理区域的位置并勾勒出病理区域的边缘;病理区域的边缘不包含肠腔内气体及肠壁周围脂肪等;标注感兴趣区域的指令包含:最大横截面的感兴趣区域、整个肿瘤的感兴趣区域及感兴趣体积等;病理图像存储子模块对标注后的病理图像进行加密,并存储至服务器;上述方案首先对病理切片的数字图像进行去噪、增强及分割,提高了数字图像的清晰度及完整性,确保数字图像能够最大程度的反应肠癌部位病灶的位置,也能得到清晰的病灶的病理图像,有助于提高诊断模型的诊断效率及精度;通过对病理区域进行识别,实现了病理区域的位置的确定,也实现了病理区域边缘的划定,进一步明确了肠癌病灶的区域,提升了肠癌的诊断的准确性,在标注的过程中,对于病灶标注无关的区域进行了删除,避免了无关的数字图像的干扰;通过对标注后的病理图像进行加密存储,不仅保护了病人的隐私,同时保证了病理图像存在的安全性。

实施例3:如图3所示,在实施例2的基础上,本发明实施例提供的病理图像标注子模块,包含:

标识获取单元,负责接收分割后包含病理区域的数字图像,获取数字图像的标识,标识包含:病理区域的位置的编号及病理区域的边缘的标号;

识别执行单元,负责依据标识对数字图像的病理区域进行第一次识别,标识出第一次识别的病理区域的位置及病理区域的边缘,在达到第一次识别阈值时间时,停止第一次识别,第一次识别完毕后,进行第二次识别,标识出第二次识别的病理区域的位置及病理区域的边缘,在达到第二次识别阈值时间时,停止第二次识别,第二次识别完毕后,进行第三次识别,标识出第三次识别的病理区域的位置及病理区域的边缘,在达到第三次识别阈值时间时,停止第三次识别;

标识汇集单元,负责将第一次识别、第二次识别和第三次识别的结果汇总,得到汇总的病理区域的位置及病理区域的边缘,进行标注,得到包含标注的病理区域的位置及病理区域的边缘的数字图像;

上述技术方案的工作原理和有益效果为:本实施例的标识获取单元接收分割后包含病理区域的数字图像,获取数字图像的标识,标识包含:病理区域的位置的编号及病理区域的边缘的标号;识别执行单元依据标识对数字图像的病理区域进行第一次识别,标识出第一次识别的病理区域的位置及病理区域的边缘,在达到第一次识别阈值时间时,停止第一次识别,第一次识别完毕后,进行第二次识别,标识出第二次识别的病理区域的位置及病理区域的边缘,在达到第二次识别阈值时间时,停止第二次识别,第二次识别完毕后,进行第三次识别,标识出第三次识别的病理区域的位置及病理区域的边缘,在达到第三次识别阈值时间时,停止第三次识别;标识汇集单元将第一次识别、第二次识别和第三次识别的结果汇总,得到汇总的病理区域的位置及病理区域的边缘,进行标注,得到包含标注的病理区域的位置及病理区域的边缘的数字图像;上述方案通过三次识别病理区域的位置及病理区域的边缘,得到三次识别的结果,将结果进行汇总,将其重合较多的部位进行标注,能够有效提升病理区域的位置及病理区域的边缘的识别的准确性,避免遗漏病理区域的位置及病理区域的边缘,实现了病理区域的位置及病理区域的边缘的有效标注,并能得到精度较高的带有标注的数字图像。

实施例4:如图4所示,在实施例1的基础上,本发明实施例提供的数据清洗及预处理模块,包含:

自动校正子模块,负责获取感兴趣区域的数字图像,数字图像包含病理区域的位置及病理区域的边缘及其标注,利用移动模块实现各个标注的移动,并记录标注的数量及像素点坐标,通过像素点坐标和移动模块的移动量计算数字图像的像素点坐标补偿量,并根据补偿量及移动量的转换关系校正感兴趣区域;

D

D

Q

Q

Q

Q

其中,D

S

其中,d

标注拼合子模块,负责将校正感兴趣区域的数字图像中分段的标注拼合成闭合的感兴趣区域;

训练图像对子模块,负责通过二值化过滤器,得到有效区域,并将有效的区域切成小图像块,标注图像的对应区域与提取出的图像块组成训练图像对;

上述技术方案的工作原理和有益效果为:本实施例的自动校正子模块,负责获取感兴趣区域的数字图像,数字图像包含病理区域的位置及病理区域的边缘及其标注,利用移动模块实现各个标注的移动,并记录标注的数量及像素点坐标,通过像素点坐标和移动模块的移动量计算数字图像的像素点坐标补偿量,并根据补偿量及移动量的转换关系校正感兴趣区域;标注拼合子模块,负责将校正感兴趣区域的数字图像中分段的标注拼合成闭合的感兴趣区域;训练图像对子模块,负责通过二值化过滤器,得到有效区域,并将有效的区域切成小图像块,标注图像的对应区域与提取出的图像块组成训练图像对;上述方案通过根据补偿量及移动量的转换关系校正感兴趣区域,实现了感兴趣区域的标注的精度,能够得到准确的感兴趣区域的数字图像,进而得到病理区域的位置及病理区域的边缘的数字图像,有效提升病理区域的位置及边缘的勾勒,实现肠癌病理诊断的自动化及智能化;标注图像的对应区域与提取出的图像块组成训练图像对,为诊断模型的训练集的构建提供可靠的数据,能够提升诊断模型的训练效果。

实施例5:如图5所示,在实施例1的基础上,本发明实施例提供的诊断模型训练模块,包含:

训练集构建子模块,负责建立训练集,训练集内容包括正常组织、腺瘤、癌变区域及与预后相关的间质成分标签,预后相关的间质成分包含纤维化、坏死、肉芽组织、浸润淋巴细胞、粘液湖及肌肉在内;

辅助标注构建子模块,负责对数字图像的标注数据进行归类、整理、编辑、纠错、标记及批注;

训练集扩充子模块,负责利用辅助标注构建子模块对T1期肠癌及II期肠癌进行标注,使训练集呈指数扩增;

模型训练子模块,负责用基于迁移学习以残差网络和密集卷积网络为基本单元的卷积神经网络对训练集进行训练,利用扩展的训练集不断优化初始化权重、迭代次数、图像块大小及卷积核大小等模型参数;

测试集构建子模块,负责采用免疫组化辅助建立测试集,选择形态具代表性的肠癌原发灶及转移灶标本各10张,对全部肿瘤区域进行勾画,并结合免疫组织化学染色对比验证,对诊断模型进行测试验证,计算敏感性和特异性;

上述技术方案的工作原理和有益效果为:本实施例的训练集构建子模块建立训练集,训练集内容包括正常组织、腺瘤、癌变区域及与预后相关的间质成分标签,预后相关的间质成分包含纤维化、坏死、肉芽组织、浸润淋巴细胞、粘液湖及肌肉在内;辅助标注构建子模块对数字图像的标注数据进行归类、整理、编辑、纠错、标记及批注;训练集扩充子模块利用辅助标注构建子模块对T1期肠癌及II期肠癌进行标注,使训练集呈指数扩增;模型训练子模块用基于迁移学习以残差网络和密集卷积网络为基本单元的卷积神经网络对训练集进行训练,利用扩展的训练集不断优化初始化权重、迭代次数、图像块大小及卷积核大小等模型参数;测试集构建子模块采用免疫组化辅助建立测试集,选择形态具代表性的肠癌原发灶及转移灶标本各10张,对全部肿瘤区域进行勾画,并结合免疫组织化学染色对比验证,对诊断模型进行测试验证,计算敏感性和特异性;诊断模型训练模块采用基于迁移学习以残差网络和密集卷积网络为基本单元的卷积神经网络对训练集进行训练;在模型训练过程中,初始化权重、偏置,设置迭代次数、图像块大小、卷积核大小等参数,根据训练结果不断优化,并在测试集测试网络性能,统计模型敏感性及特异性;上述方案采用88例直肠癌术前活检标本,具有完整随访资料的251例T1期直肠癌及330例II期大肠癌根治术标本,总计全数字HE病理切片1760张,以及肠癌淋巴结转移切片150张、无转移淋巴结切片100张。总图像大小近3TB,标本量丰富、切片质量达国际化标准,保证足够的训练样本量;此外病理标本从固定、取材、制片、HE染色及免疫组化染色均有严格质控,保证病理图像质量;同时辅助标注构建子模块构建的辅助标注系统能够大大提高标注的效率和准确率,使得构建深度学习的必要条件-大样本量的训练集成为可能;有效地利用图像标注,得到更加准确的像素级诊断结果,可加速病理模型的训练。

实施例6:如图6所示,在实施例1的基础上,本发明实施例提供的病理图像标注子模块,包含:

服务器,负责存储待标注的病理图像;

网页登录单元,负责通过浏览器访问服务器提供的网络服务,实现病理图像标注功能;

终端登录单元,负责通过终端访问服务器,实现病理图像标注功能;

上述技术方案的工作原理和有益效果为:本实施例的服务器存储待标注的病理图像;网页登录单元通过浏览器访问服务器提供的网络服务,实现病理图像标注功能;终端登录单元通过终端访问服务器,实现病理图像标注功能;上述方案通过网页登录和终端登录实现了多方式的病理图像的标注,能够大大提高标注的效率和准确率,终端登录单元可以采用手机或平板都可以登录,有效提高标注的便携性和效率。

显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。

相关技术
  • 一种基于人工智能病理辅助诊断系统的部署监控系统
  • 一种基于多尺度分析的人工智能病理辅助诊断系统
技术分类

06120116373083