掌桥专利:专业的专利平台
掌桥专利
首页

再学习系统、检查系统、提取装置、再学习方法以及存储介质

文献发布时间:2024-07-23 01:35:21


再学习系统、检查系统、提取装置、再学习方法以及存储介质

技术领域

本发明的实施方式涉及再学习系统、检查系统、提取装置、再学习方法以及存储介质。

背景技术

使用神经网络的人工智能(AI)在各种场景下被利用。通过使神经网络学习大量的数据,能够提高神经网络的精度。另一方面,若输入的数据的倾向变化,则神经网络的精度降低。为了改善神经网络的精度,适当执行神经网络的再学习。期望再学习所需的时间较短。

现有技术文献

专利文献

专利文献1:日本特开2019-152948号公报

发明内容

发明所要解决的课题

本发明要解决的课题是提供能够缩短再学习所需的时间的再学习系统、检查系统、提取装置、再学习方法以及存储介质。

用于解决课题的手段

实施方式的再学习系统使使用多个第一学习数据作为输入数据并使用多个第一输出结果作为输出数据而进行学习的神经网络进行再学习。所述再学习系统具备第一提取部、聚类部、第二提取部以及更新部。所述第一提取部将所述多个第一学习数据分别输入到所述神经网络,从所述神经网络的中间层提取多个第一特征量数据。所述第一提取部将新的多个第二学习数据分别输入到所述神经网络,从所述中间层提取多个第二特征量数据。所述聚类部将所述多个第一特征量数据以及所述多个第二特征量数据划分为多个类别(日文:クラス)。所述第二提取部以降低所述多个类别之间的数据数的比率之差的方式,从所述多个类别中提取所述多个第一特征量数据的一部分以及所述多个第二特征量数据的一部分。所述更新部使用与所述多个第一特征量数据的所述一部分对应的所述多个第一学习数据的一部分、以及与所述多个第二特征量数据的所述一部分对应的所述多个第二学习数据的一部分,更新所述神经网络。

附图说明

图1是表示实施方式的再学习系统的构成的示意图。

图2是用于说明学习数据的提取方法的示意图。

图3是表示实施方式的再学习方法的流程图。

图4是表示实施方式的检查系统的构成的示意图。

图5是表示用于分类的神经网络的一例的示意图。

图6是用于说明学习数据的提取方法的示意图。

图7是用于说明学习数据的提取方法的示意图。

图8是表示用于分类的神经网络的另一例的示意图。

图9是示出用于分割(segmentation)的神经网络的一例的示意图。

图10是表示硬件构成的示意图。

具体实施方式

以下,参照附图对本发明的各实施方式进行说明。在本申请说明书和各图中,对与已经说明的要素相同的要素标注相同的附图标记并适当省略详细的说明。

图1是表示实施方式的再学习系统的构成的示意图。图2是用于说明学习数据的提取方法的示意图。

如图1所示,实施方式的再学习系统10包括取得部11、第一提取部12、聚类部13、第二提取部14、更新部15以及存储装置20。

取得部11参照保存于存储装置20的学习完毕的神经网络100。神经网络100通过监督学习(日文:教師有り学習)来进行学习。在神经网络100的学习中,使用多个第一学习数据和与多个第一学习数据分别对应的多个第一输出结果。神经网络100以根据第一学习数据的输入,输出与该第一学习数据对应的第一输出结果的方式进行学习。

第一学习数据的内容、第一输出结果的内容、神经网络100的具体构成能够根据使神经网络100执行的处理而适当选择。作为一例,神经网络100执行分类。第一学习数据是图像,第一输出结果是第一学习数据的分类(标签)。第一学习数据可以是声音、动态图像、时间序列数据(数值)或字符串等,第一输出结果可以是它们的分类。作为另一例,神经网络100执行图像生成。第一学习数据是图像、声音、时间序列数据(数值)或字符串,第一输出结果是生成的图像。神经网络100可以执行分割。在该情况下,第一学习数据是图像,第一输出结果是将该图像划分为多个对象的结果。神经网络100也可以执行物体检测。在该情况下,第一学习数据是图像,第一输出结果是该图像中映现的物体的位置、种类、个数的结果。神经网络100也可以执行回归。在该情况下,第一学习数据是图像、声音、时间序列数据(数值)或字符串,第一输出结果是其他值。

取得部11从存储装置20取得神经网络100、多个第一学习数据以及多个第一输出结果。进而,取得部11从存储装置20取得新的多个第二学习数据和与多个第二学习数据分别对应的第二输出结果。第二学习数据与第一学习数据不同,是尚未在神经网络100的学习中使用的数据。取得部11将神经网络100、多个第一学习数据以及多个第二学习数据向第一提取部12输出。

第一提取部12将第一学习数据输入到神经网络100,从神经网络100的中间层提取第一特征量数据。第一提取部12将多个第一学习数据依次输入神经网络100,提取多个第一特征量数据。第一提取部12进一步将第二学习数据输入到神经网络100,从神经网络100的中间层提取第二特征量数据。第一提取部12将多个第二学习数据依次输入神经网络100,提取多个第二特征量数据。第一提取部12将多个第一特征量数据以及多个第二特征量数据输出到聚类部13。

聚类部13对多个第一特征数据和多个第二特征数据进行聚类。由此,多个第一特征量数据以及多个第二特征量数据被划分为多个类别。聚类可以采用k-means、spectralclustering、DBSCAN等方法。聚类部13将聚类的结果输出到第二提取部14。

第二提取部14从多个类别中提取多个第一特征量数据的一部分以及多个第二特征量数据的一部分。此时,第二提取部14以降低多个类别之间的数据数的比率之差的方式提取特征量数据。

作为具体的一例,如图2所示,聚类部13对多个第一特征量数据F1及多个第二特征量数据F2进行聚类。其结果,多个第一特征量数据F1以及多个第二特征量数据F2被划分为类别C1(第一类别的一例)、类别C2(第二类别的一例)以及类别C3。被划分为类别C1的第一特征量数据及第二特征量数据的数量是NC1。被划分为类别C2的第一特征量数据和第二特征量数据的数量是NC2。被划分为类别C3的第一特征量数据和第二特征量数据的数量是NC3。

第二提取部14从类别C1~C3分别随机地提取多个第一特征量数据F1的一部分以及多个第二特征量数据F2的一部分。作为其结果,从类别C1提取的第一特征量数据和第二特征量数据的数量是nC1。从类别C2提取的第一特征量数据和第二特征量数据的数量是nC2。从类别C3提取的第一特征量数据和第二特征量数据的数量是nC3。数量nC2相对于数量nC1之比nC2/nC1比数量NC2相对于数量NC1之比NC2/NC1更接近1。数量nC3相对于数量nC2之比nC3/nC2比数量NC3相对于数量NC2之比NC3/NC2更接近1。数量nC3相对于数量nC1之比nC3/nC1比数量NC3相对于数量NC1之比NC3/NC1更接近1。

此外,在类别C1~C3的任一个所包含的特征量数据的数量与类别C1~C3的另一个所包含的特征量数据的数量相同的情况下,从这些类别提取的特征量数据的数量的比率也可以不变化。第二提取部14原则上以降低数据数的比率之差的方式从各类别中提取特征量数据,但也可以例外地产生比率不变化的情况。

第二提取部14将提取的多个第一特征量数据的一部分和提取的多个第二特征量数据的一部分向更新部15输出。另外,取得部11将多个第一学习数据、多个第一输出结果、多个第二学习数据以及多个第二输出结果向更新部15输出。

更新部15从多个第一学习数据中选定与所提取的第一特征量数据对应的第一学习数据。即,更新部15选定成为所提取的第一特征量数据的基础的第一学习数据。同样地,更新部15从多个第二学习数据中选定与提取的第二特征量数据对应的第二学习数据。由更新部15选定与由第二提取部14提取的特征量数据相同数量的学习数据。

更新部15使用所选定的多个第一学习数据的一部分和所选定的多个第二学习数据的一部分来更新神经网络100。具体而言,更新部15将所选定的第一学习数据用作输入数据,将与该第一学习数据对应的第一输出结果用作输出数据,使神经网络100学习。另外,更新部15将所选定的第二学习数据用作输入数据,将与该第二学习数据对应的第二输出结果用作输出数据,使神经网络100学习。学习的数据的顺序是任意的。第一学习数据和第二学习数据中的任一个均可以先被用于学习。也可以交替使用第一学习数据和第二学习数据。或者,也可以同时使用第一学习数据和第二学习数据。

在神经网络100的更新之后,判断是否结束再学习。例如,作为结束条件,设定为更新后的神经网络100的精度超过预先设定的阈值。具体而言,第二提取部14或更新部15向神经网络100输入测试数据,得到来自神经网络100的输出。测试数据是与第一学习数据及第二学习数据不同的数据。将与测试数据对应的正确答案的数据与来自神经网络100的输出进行比较,判定是否从神经网络100输出了正确的结果。将多个测试数据依次输入到神经网络100,基于来自神经网络100的输出来计算神经网络100的精度。第二提取部14或更新部15判断精度是否超过阈值。

除了神经网络100的精度之外,神经网络100的损失也可以用于结束条件。损失是正确答案与神经网络100的输出的误差。例如,作为结束条件,设定为更新后的神经网络100的损失小于预先设定的阈值。或者,作为结束条件,也可以执行预先设定的次数的神经网络100的更新。使用与由第二提取部14提取的特征量数据对应的学习数据来更新神经网络100。作为结束条件,也可以设定为从神经网络100的精度超过阈值、神经网络100的损失小于阈值以及执行规定次数的更新中选择的两个以上。在该情况下,当满足任一个或全部条件时,结束再学习。

若判断为不结束再学习,则第二提取部14再次从多个类别中提取多个第一特征量数据的一部分以及多个第二特征量数据的一部分。此时,第二提取部14也以降低多个类别之间的数据数的比率之差的方式提取特征量数据。另外,第二提取部14也可以提取与之前提取的数据不同的数据。更新部15使用所提取的数据来更新神经网络100。

直到满足结束条件为止,交替地重复数据的提取和使用所提取的数据的神经网络100的更新,进行再学习。当判断为结束再学习时,更新部15将更新后的神经网络100保存于存储装置20。

图3是表示实施方式的再学习方法的流程图。

首先,取得部11取得用于再学习的数据(步骤S1)。所取得的数据是神经网络100、多个第一学习数据、多个第一输出结果、多个第二学习数据以及多个第二输出结果。第一提取部12将多个第一学习数据分别输入到神经网络100,从中间层提取多个第一特征量数据(步骤S2)。第一提取部12将多个第二学习数据分别输入到神经网络100,从中间层提取多个第二特征量数据(步骤S3)。聚类部13执行聚类,将多个第一特征量数据以及多个第二特征量数据划分为多个类别(步骤S4)。

第二提取部14从多个类别中提取多个第一特征量数据的一部分以及多个第二特征量数据的一部分,以降低多个类别之间的数据数的比率之差(步骤S5)。更新部15使用与提取的多个第一特征量数据的一部分对应的多个第一学习数据的一部分、以及与提取的多个第二特征量数据的一部分对应的多个第二学习数据的一部分,更新神经网络100(步骤S6)。第二提取部14或更新部15判断是否结束再学习(步骤S7)。在不结束再学习的情况下,再次执行步骤S5。在结束再学习的情况下,更新部15保存再学习后的神经网络100(步骤S8)。

对实施方式的优点进行说明。

为了通过再学习充分提高神经网络的精度,优选学习大量的数据。另一方面,若用于再学习的数据数多,则再学习需要较长时间。另外,蓄积的数据中包含各种倾向的数据,各个倾向的数据数存在不均匀的情况。在该情况下,针对小规模的数据的学习难以进展,神经网络的再学习时间进一步变长,针对小规模的数据的精度有时也降低。

关于这些课题,在实施方式的发明中,首先,将多个第一学习数据以及多个第二学习数据分别输入到神经网络。然后,从中间层分别提取多个第一特征量数据和多个第二特征量数据。若提取多个第一特征量数据以及多个第二特征量数据,则数值化后的这些数据被划分为多个类别。从中间层提取的数据表示与输出结果相关联的学习数据的特征。另外,从中间层提取的数据被数值化。因此,从中间层提取的数据与学习数据的形式无关,能够根据它们的特征进行聚类。

在聚类之后,从多个类别提取多个第一特征量数据的一部分以及多个第二特征量数据的一部分,以降低多个类别之间的数据数的比率之差。通过提取学习数据的一部分,能够缩短再学习所需的时间。另外,通过从多个类别提取数据,能够抑制用于再学习的数据偏向特定的倾向。并且,通过降低多个类别之间的数据数的比率之差,能够减小小规模的数据与大规模的数据的比率之差,促进针对小规模的数据的学习。

当提取数据时,使用与多个第一特征量数据的一部分对应的多个第一学习数据的一部分、以及与多个第二特征量数据的一部分对应的多个第二学习数据的一部分,更新神经网络100。

根据实施方式的发明,能够提取更适于再学习的数据。另外,通过使用所提取的数据来更新神经网络,能够抑制神经网络的精度的降低,并且能够缩短再学习所需的时间。

提取特征量数据的中间层是任意的。优选第一提取部12从中间层所包含的多个层中的位于输出层侧的层提取第一特征量数据及第二特征量数据。这是因为越接近输出层侧的层,越输出更好地表示与学习数据的输出结果相关联的特征的值。

作为最优选的一例,第一提取部12从输出层的紧前的层提取第一特征量数据及第二特征量数据。这是因为,从输出层的紧前的层会得到最好地表示与学习数据的输出结果相关联的特征的值。

在执行聚类部13的聚类时,优选任意类别的数据数不会变得过少。这里,将数据数最少的类别称为最小类别。将数据数最多的类别称为最大类别。如果最小类别的数据数过少,则由于最小类别的数据数,从其他类别提取的数据数也减少。其结果,难以进行再学习。其结果,难以得到缩短再学习的时间的效果。因此,优选以最小类别的数据数相对于最大类别的数据数之比为0.1以上的方式执行聚类。

或者,在聚类的结果是最小类别的数据数过少的情况下,也可以追加第一学习数据或者第二学习数据,以增加最小类别的数据数。例如,通过追加最小类别的数据数,将最小类别的数据数相对于最大类别的数据数之比调整为0.1以上且0.25以下。

通过变更执行聚类时的参数来调整最小类别的数据数相对于最大类别的数据数之比。作为一例,在通过DBSCAN执行聚类的情况下,通过变更“MinPts”的参数,能够调整该比率。

在聚类中特征量数据被划分的类别的数量是任意的。如果最小类别的数据数不过少,则类别的数量也可以较多。作为一个例子,以类别的数量为3以上且10以下的方式执行聚类。

另外,为了更有效地促进针对小规模的数据的学习,优选在通过第二提取部14提取数据时,多个类别之间的数据数的比率之差充分小。例如,从各类别提取的数据数的比率优选为0.5以上且2以下。若使用图2的例子进行说明,则优选比nC2/nC1、比nC3/nC2、以及比nC3/nC1为0.5以上且2以下。

最优选的是,聚类部13从类别C1~C3分别随机且以数据数均等的方式提取特征量数据。即,在图2所示的例子中,最优选数量nC1、数量nC2、以及数量nC3相同。

以下,使用更具体的例子来说明实施方式的发明。

图4是表示实施方式的检查系统的构成的示意图。

如图4所示,实施方式的检查系统1包括再学习系统10、存储装置20、摄像装置30以及检查装置40。

摄像装置30对检查的物品A进行摄像,取得图像。摄像装置30也可以取得动态图像。在这种情况下,从动态图像中剪切出静止图像。摄像装置30将图像保存于存储装置20。

在该例子中,神经网络100根据图像的输入,将该图像分类为多个分类中的某一个,并输出该结果。神经网络100在检查前预先学习。存储装置20经由网络、有线通信或无线通信与摄像装置30及检查装置40连接。

检查装置40访问存储装置20,取得由摄像装置30取得的图像。检查装置40将图像输入到神经网络100,得到其分类结果。检查装置40基于分类结果检查图像中拍到的物品。存储装置20也可以将检查后的图像保存为用于再学习的第二学习数据。

例如,神经网络100将图像中拍到的物品分类为合格品(日文:良品)(第一分类)或不合格品(日文:不良品)(第二分类)中的某一个。也可以按不合格的类型设定分类,将不合格品分类为多个分类中的某一个。检查装置40在从神经网络100输出与“合格品”对应的分类结果时,将该图像中拍到的物品判定为合格品。检查装置40在从神经网络100输出与“不合格品”对应的分类结果时,将该图像中拍到的物品判定为不合格品。

图5是表示用于分类的神经网络的一例的示意图。

例如,如图5所示,神经网络100包括卷积神经网络(CNN)101、全连接层102和全连接层103。

图像被输入到CNN101。CNN101包括卷积层、池化层等。CNN101根据输入的图像输出特征量图FM。全连接层102设置在CNN101之后。全连接层102使特征量图FM的数据与全连接层103的节点连接。全连接层102位于全连接层103的紧前。从全连接层102输出多个特征量数据F。全连接层103输出表示所输入的图像的分类的结果。

在图5所示的神经网络100中,CNN101的第一层是输入层。全连接层103是输出层。CNN101的第二层以后以及全连接层102是中间层。例如,第一提取部12从全连接层102提取特征量数据。

图6和图7是用于说明学习数据的提取方法的示意图。

第一提取部12将多个第一学习数据以及多个第二学习数据依次输入神经网络100,从全连接层102提取多个第一特征量数据以及多个第二特征量数据。此时,第一提取部12进一步取得从神经网络100输出的多个第一学习数据及多个第二学习数据的分类结果。其结果,如图6所示,得到从分类为“合格品”的第一学习数据得到的第一特征量数据F1a、从分类为“不合格品”的第一学习数据得到的第一特征量数据F1b、从分类为“合格品”的第二学习数据得到的第二特征量数据F2a、以及从分类为“不合格品”的第二学习数据得到的第二特征量数据F2b。

聚类部13按每个分类对特征量数据进行聚类。具体而言,如图7的(a)所示,聚类部13对从被分类为“合格品”的学习数据得到的特征量数据F1a和F2a进行聚类。由此,特征量数据F1a以及F2a被划分为类别C1a、类别C2a以及类别C3a。另外,如图7B所示,聚类部13对从分类为“不合格品”的学习数据获得的特征数据F1b和F2b进行聚类。由此,特征量数据F1b以及F2b被划分为类别C1b、类别C2b以及类别C3b。

如图7(a)以及图7(b)所示,第二提取部14以数据数的比率之差变小的方式从类别C1a~C3a以及类别C1b~C3b分别提取特征量数据。例如,第二提取部14从类别C1a~C3a以及类别C1b~C3b分别随机地提取均等数量的数据。更新部15使用所提取的特征量数据来更新神经网络100。

根据实施方式的检查系统1,通过使用神经网络100,能够高精度地执行色调(日文:色味)等感官性的外观检查。此外,当输入图像的质量变化时,神经网络100的分类精度也可能变化。例如,若配置有物品A以及摄像装置30的空间的亮度、物品A与摄像装置30之间的相对位置关系、或者物品A的外观等变化,则图像的质量发生变化。由于图像质量的变化,检查精度可能降低。但是,通过由再学习系统10使神经网络100进行再学习,能够缩短再学习所需的时间,同时能够进行神经网络100的精度恢复。例如,通过在更短时间内完成再学习,能够在更早的定时将再学习后的神经网络100应用于检查。其结果,能够降低不合格品被错误地判定为合格品并流通的可能性。

执行再学习的定时由任意的方法决定。例如,在规定的定时确认神经网络100的精度。在神经网络100的精度低于预先设定的阈值的情况下,再学习系统10执行神经网络100的再学习。在再学习中,能够使用之前检查的图像。

图8是示出用于分类的神经网络的另一例的示意图。

也可以使用图8所示的神经网络100a来代替神经网络100。神经网络100a除了CNN101、全连接层102以及全连接层103以外,还包括CNN104。

从CNN101输出的特征量图FM分别输入到全连接层102和CNN104。神经网络100a中的全连接层102的功能与神经网络100中的全连接层102的功能相同。

CNN104将特征量图FM复原为与输入数据相同尺寸的数据并输出。即,CNN101作为编码器发挥功能,CNN104作为解码器发挥功能。

例如,第一提取部12取得从CNN101输出的特征量图FM作为特征量数据。具体而言,从CNN101输出M张具有N×N尺寸的特征量图FM。第一提取部12提取与M张特征量图FM对应的N×N×M维的数据作为特征量数据。

(回归)

图5所示的神经网络100也可以以执行回归的方式进行学习。在这种情况下,全连接层103根据图像向CNN101的输入而输出值。第一提取部12能够从全连接层102提取特征量数据。

除了图5所示的例子之外,神经网络也可以构成为根据连续值、声音、字符串或时间序列数据等的输入来输出值。

(分割)

图9是示出用于分割的神经网络的一例的示意图。

也可以使用图9所示的神经网络110来代替神经网络100。神经网络110对图像进行分割。通过分割,将图像划分为多个对象。

神经网络110具有U-Net结构。具体地,神经网络110包括编码器111和解码器112。编码器111包括多个层111L。各层111L包括多个卷积层111a和池化层111b。解码器112包含多个层112L。各层112L包括上采样层112a和多个卷积层112b。在解码器112的最终层设置Softmax函数(归一化指数函数)112c。另外,从多个层111L分别向相同尺寸的层112L复制数据。

第一提取部12向神经网络110输入学习数据。例如,第一提取部12提取从任意层111L的池化层111b输出的数据作为特征量数据。

关于图9所示的神经网络的构造,在O.Ronneberger,P.Fischer,and T.Brox,“U-net:Convolutional networks for biomedical image segmentation”,InternationalConference on Medical image computing and computer-assisted intervention,Springer,pp.234-241(2015)中论述。

图10是表示硬件构成的示意图。

再学习系统10及检查装置40分别使用例如图10所示的计算机90(处理装置)。计算机90包括CPU91、主存储器92、GPU93、存储器94、存储装置95、输入接口96、输出接口97以及通信接口98。

主存储器92储存控制计算机的动作的程序。存储装置95储存使计算机实现上述各处理所需的程序、作为存储有处理结果的区域发挥功能。另外,主存储器92展开所储存的程序,或者储存CPU91的处理结果。存储器94展开程序,并且储存由GPU93执行的处理结果。

CPU91及GPU93分别包括处理电路。CPU91及GPU93分别将主存储器92及存储器94作为工作存储器,执行规定的程序。例如,在用于再学习的程序的执行中,CPU91的计算结果和GPU93的计算结果在主存储器92与存储器94之间适当转送。此外,CPU91经由系统总线99控制各构成,执行各种处理。

存储装置95存储执行程序所需的数据、通过执行程序而得到的数据。存储装置95也可以用作存储装置20。

输入接口(I/F)96连接计算机90和输入装置96a。输入I/F96例如是USB等串行总线接口。CPU91及GPU93能够经由输入I/F96从输入装置96a读入各种数据。

输出接口(I/F)97连接计算机90和输出装置97a。输出I/F97例如是数字视频接口(Digital Visual Interface,DVI)或高清多媒体接口(High-Definition MultimediaInterface,HDMI(注册商标))等视频输出接口。CPU91及GPU93能够经由输出I/F97向输出装置97a发送数据,使输出装置97a显示图像。

通信接口(I/F)98连接计算机90外部的服务器98a和计算机90。通信I/F98例如是LAN卡等网卡。CPU91及GPU93能够经由通信I/F98从服务器98a读入各种数据。

存储装置95包括从硬盘驱动器(Hard Disk Drive,HDD)和固态驱动器(SolidState Drive,SSD)中选择的一个以上。输入装置96a包括从鼠标、键盘、麦克风(声音输入)以及触摸板中选择的一个以上。输出装置97a包含从监视器、投影仪、扬声器以及打印机中选择的一个以上。如触摸面板那样,也可以使用具备输入装置96a和输出装置97a双方的功能的设备。

图10所示的硬件构成是用于实施实施方式所涉及的发明的优选的一个例子。也可以对硬件构成适当地施加变更。例如,根据所执行的处理,计算机90可以具备多个GPU93,还可以具备其他处理器。计算机90也可以不具备GPU93。

再学习系统10及检查装置40各自的功能可以由一个计算机实现,也可以由两个以上的计算机实现。例如,一个计算机90也可以作为再学习系统10的取得部11、第一提取部12、聚类部13、第二提取部14以及更新部15发挥功能。一个计算机90也可以作为取得部11、第一提取部12、聚类部13、第二提取部14以及更新部15的一部分发挥功能,其他计算机90作为取得部11、第一提取部12、聚类部13、第二提取部14以及更新部15的其他一部分发挥功能。在该情况下,该一个计算机90和该其他计算机90也可以经由网络收发数据。

例如,准备具备作为第二提取部14的功能的学习数据提取装置。除了学习数据提取装置之外,还可以准备具备作为取得部11以及第一提取部12的功能的特征量数据提取装置、具备作为聚类部13的功能的聚类装置、具备作为更新部15的功能的更新装置。或者,学习数据提取装置也可以具备从取得部11、第一提取部12、聚类部13以及更新部15中选择的一个以上的功能。

上述各种数据的处理作为能够使计算机执行的程序,也可以记录于磁盘(软盘和硬盘等)、光盘(CD-ROM、CD-R、CD-RW、DVD-ROM、DVD±R、DVD±RW等)、半导体存储器或其他非暂时性计算机可读取的记录介质(non-transitory computer-readable storagemedium)。

例如,记录在记录介质中的信息能够由计算机(或嵌入式系统)读出。在记录介质中,记录形式(存储形式)是任意的。例如,计算机从记录介质读出程序,基于该程序使CPU和GPU执行在程序中记述的指示。在计算机中,程序的取得(或读出)也可以通过网络进行。

本发明的实施方式可以包括以下特征。

(特征1)

一种再学习系统,使使用多个第一学习数据作为输入数据并使用多个第一输出结果作为输出数据而进行学习后的神经网络进行再学习,所述再学习系统具备:第一提取部,将所述多个第一学习数据分别输入到所述神经网络,从所述神经网络的中间层提取多个第一特征量数据,将新的多个第二学习数据分别输入到所述神经网络,从所述中间层提取多个第二特征量数据;聚类部,将所述多个第一特征量数据以及所述多个第二特征量数据划分为多个类别;第二提取部,以降低所述多个类别之间的数据数的比率之差的方式,从所述多个类别提取所述多个第一特征量数据的一部分以及所述多个第二特征量数据的一部分;以及更新部,使用与所述多个第一特征量数据的所述一部分对应的所述多个第一学习数据的一部分、以及与所述多个第二特征量数据的所述一部分对应的所述多个第二学习数据的一部分,更新所述神经网络。

(特征2)

根据特征1所述的再学习系统,其特征在于,所述多个类别包括第一类别以及第二类别,通过所述第二提取部从所述第二类别提取的数据数相对于由所述第二提取部从所述第一类别提取的数据数之比与被划分为所述第二类别的数据数相对于被划分为所述第一类别的数据数之比相比更接近1。

(特征3)

根据特征1所述的再学习系统,其特征在于,所述第二提取部从所述多个类别分别提取均等数量的数据。

(特征4)

根据特征1至3中任一项所述的再学习系统,其特征在于,交替地反复进行由所述第二提取部进行的所述多个第一特征量数据的所述一部分以及所述多个第二特征量数据的所述一部分的提取、以及由所述更新部进行的所述神经网络的更新。

(特征5)

根据特征1至4中任一项所述的再学习系统,其特征在于,所述神经网络执行分类、图像生成、分割、物体检测或回归中的任一个。

(特征6)

根据特征1至5中任一项所述的再学习系统,其特征在于,所述神经网络包含输入层、包含多个层的所述中间层、以及输出层,所述第一提取部从所述多个层中的位于所述输出层侧的所述层提取所述多个第一特征量数据及所述多个第二特征量数据。

(特征7)

根据特征1至6中的任一项所述的再学习系统,其特征在于,所述神经网络根据图像的输入,将所述图像分类为多个分类中的任一个,所述聚类部取得所述神经网络的所述多个第一学习数据的分类结果以及所述多个第二学习数据的分类结果,按每个所述分类对所述多个第一学习数据以及所述多个第二学习数据进行聚类。

(特征8)

根据特征7所述的再学习系统,其特征在于,所述神经网络包含卷积层和全连接层,所述第一提取部提取将所述多个第一学习数据和所述多个第二学习数据分别输入到所述神经网络时的来自所述全连接层的输出作为所述多个第一特征量数据和所述多个第二特征量数据。

(特征9)

一种检查系统,具备:摄像装置,取得物品的图像;以及检查装置,将由所述摄像装置取得的所述图像输入到通过特征7所述的再学习系统而更新后的所述神经网络,基于从所述神经网络输出的分类结果来检查所述物品。

根据以上说明的实施方式,提供能够抑制神经网络的精度的降低并且缩短再学习所需的时间的再学习系统、检查系统、提取装置、再学习方法、程序以及存储介质。

以上,例示了本发明的几个实施方式,但这些实施方式作为例子而提出,并不意图限定发明的范围。这些新的实施方式能够以其他各种方式实施,在不脱离发明的主旨的范围内,能够进行各种省略、置换、变更等。这些实施方式及其变形例包含在发明的范围、主旨中,并且包含在权利要求书所记载的发明及其等同的范围内。另外,上述的各实施方式能够相互组合来实施。

相关技术
  • 运动姿势的学习方法、装置、系统及信息存储介质
  • 网络教育学习方法、系统、终端及其存储介质
  • 联邦学习方法、系统及可读存储介质
  • 一种语音学习方法、装置、语音设备及存储介质
  • 机器学习方法、装置、设备及存储介质
  • 无漏泄式再注入液体的方法和系统的使用,无漏泄式再注入液体的注液枪,储液箱的连接,无漏泄式液体再注入系统中控制和通信用的方法和系统,无漏泄式再注入系统中介质供应的方法和系统,无漏泄和不漏液再注入连接及计算机程序产品
  • 基于云边搜索联邦深度学习方法的行人再辨识方法及系统
技术分类

06120116678671