掌桥专利:专业的专利平台
掌桥专利
首页

训练人工神经网络、人工神经网络、应用、计算机程序、存储介质和设备

文献发布时间:2023-06-19 18:32:25


训练人工神经网络、人工神经网络、应用、计算机程序、存储介质和设备

技术领域

本发明涉及一种用于训练人工神经网络的方法。此外,本发明还涉及一种借助根据本发明的用于训练的方法来训练的人工神经网络,以及涉及这种人工神经网络的应用。除此以外,本发明还涉及一种相对应的计算机程序、一种相对应的机器可读的存储介质以及一种相对应的设备。

背景技术

自动化驾驶的支柱是行为预测,该行为预测涉及预报交通智能体(如例如车辆、骑行者、行人)的行为的问题领域。对于至少部分自动化运行的车辆而言重要的是,知道围绕该车辆的交通智能体的可能的未来轨迹的概率分布,以便以如下方式来执行安全规划、尤其是运动规划:控制至少部分自动化运行的车辆,使得碰撞风险最小。行为预测可以分配给预测连续时间序列的一般性问题,该问题又可以被当作生成式建模的情况。生成式建模涉及概率分布的近似、例如借助人工神经网络(KNN)对概率分布的近似,以便以受数据控制的方式来学习概率分布:目标分布通过数据集表示,该数据集由多个来自该分布的抽样组成,并且KNN被训练为输出如下分布:所述分布以高概率对应于数据样本,或产生与训练数据集的样本相似的样本。目标分布可以(例如针对图像生成)是无条件的,或者可以(例如针对预测,其中未来状态的分布取决于过去的状态)是有条件的。在行为预测中,任务在于,根据确定数目的过去的状态来预测确定数目的未来状态。例如,根据确定的车辆在过去5秒中的位置,预测该车辆在接下来的5秒中的位置的概率分布。在假设为10Hz的时间扫描的情况下,这可能会意味着,要根据对50个过去的状态的了解来预测50个未来的状态。用于对这种问题进行建模的一种可能的着手方式是利用递归人工神经网络(英语:Recurrent NeuralNetwork;RNN)或者一维卷积人工神经网络(英语:1D Convolutional Neural Network;1D-CNN)对时间序列进行建模,其中输入是过去位置的序列,并且输出是(例如呈二维正态分布的平均值和参数形式的)未来位置的分布序列。

如变分自编码器(VAE,Variational Autoencoder)之类的具有深度隐变量的模型是用于借助人工神经网络进行生成式建模的广泛流行的工具。尤其是,条件VAE(英语:Conditional VAE;CVAE)可被用于学习条件分布(也就是说以y为条件的x的分布),其方式是:优化对数分布的下边界(英语:Evidence Lower Bound(证据下界),ELBO)的随后估计。如下优化对数概率的下边界:

通过最大化该下边界,所基于的概率分布也变得更高。通过应用最大概率估计(英语:Maximum Likelihood Estimation(最大似然估计),MLE)方法,该式子可以被用作针对要训练的人工神经网络的训练对象。为此,要由所述网络对三个分量进行建模:

1)先验概率分布(先验(Prior)):

2)后验概率分布(推断(Inference)):

3)其他概率分布(生成(Generation)):

如果RNN被用作人工神经网络,则要附加地实施隐状态(英语Hidden States),所述隐状态是将过去的时间步概括为先验、推断和生成概率分布的条件。

必须以能够实现库尔贝克-莱布勒(Kullbeck-Leibler)散度的采样和分析计算的方式来实施这些分量。例如,这对于所学习的正态分布来说是这种情况(人工神经网络典型地为此输出由平均值和方差参数构成的向量)。要学会的条件概率分布是

针对时间序列的建模,已公开了许多针对连续隐变量的模型。摘录在下面:

1)基于RNN:

• STORN: https://arxiv.org/abs/1411.7610

• VRNN: https://arxiv.org/abs/1506.02216

• SRNN: https://arxiv.org/abs/1605.07571

•Z-Forcing: https://arxiv.org/abs/1711.05411

•Variational Bi-LSTM: https://arxiv.org/abs/1711.05717

2)基于1D-CNN:

•Stochastic WaveNet: https://arxiv.org/abs/1806.06116

• STCN: https://arxiv.org/abs/1902.06568。

所有这些模型都基于在每个时间步中采用CVAE。条件变量在此表示对以前的时间步的可观测到的变量和隐变量的概括,例如借助RNN的隐状态对以前的时间步的可观测到的变量和隐变的概括。与常见的CVAE相比,这些模型为此需要附加分量,以便实施概括。在此可能发生,先验概率分布提供了隐变量在过去的可观测到的变量的条件下的未来概率分布,而推断概率分布提供了隐变量在过去的以及当前可观测到的变量的条件下的未来概率分布。由此,推断概率分布通过了解当前的可观测到的变量来“作弊”,该推断概率分布对于先验概率分布不是已知的。在下面给出了针对序列长度为T的时间ELBO的目标函数:

该目标函数已针对VRNN被定义,然而已表明:其他变型也可以使用相同的目标函数、必要时具有相对应的附加项的目标函数。

发明内容

本发明基于如下认知:为了训练用于预测时间序列的人工神经网络或人工神经网络系统,针对损失函数所使用的先验概率分布(先验)基于与要预测的时间步的训练数据无关的信息,或先验概率分布(先验)仅仅基于在要预测的时间步之前的信息。

此外,本发明基于如下认知:借助将对下界(英语:Evidence Lower Bound,ELBO)的估计一般化为损失函数,可以对所提到的人工神经网络或人工神经网络系统进行训练。

借此,现在可能的是,在任意的预测范围(Vorhersagehorizont)h(也就是说任意数目的时间步)内,对时间序列作出预测,而没有逐渐丧失预测质量,因此以经过改善的预测质量来作出预测。

这导致了,在应用于控制机器、尤其是至少部分自动化运行的机器、如自动化运行的车辆的情况下,对控制的明显改善是可能的。

因而,本发明提出了一种用于训练人工神经网络的方法,用以为了控制技术系统而根据过去的连续时间序列来预测在时间步中的未来的连续时间序列。在此,训练基于训练数据集。

在此,该方法包括根据损失函数来适配要训练的人工神经网络的参数的步骤。

在此,损失函数包括第一项,该第一项具有对在关于至少一个隐变量(英语:latent Variable)的先验概率分布(先验)与关于至少一个隐变量(英语:latentVariable)的后验概率分布(推断)之间的间距的下界(ELBO)的估计。

训练方法的特征在于,先验概率分布(先验)与未来的连续时间序列无关。

在此,该训练方法适合于训练贝叶斯神经网络。该训练方法也适合于训练递归人工神经网络。在此,特别适合于根据开头概述的现有技术的虚拟递归神经网络(VRNN,Virtual Recurrent Neural Network)。

根据本发明的方法的实施形式,先验概率分布(先验)并不取决于未来的连续时间序列。

延续本发明的主权利要求的主题,按照该实施形式,未来的连续时间序列没有进入对先验概率分布(先验)的确定。在主权利要求的主题中,未来的连续时间序列虽然可以进入对先验概率(先验)的确定,但是该概率分布基本上与这些时间序列无关。

根据本发明的方法的一个实施形式,借助下面的损失函数,根据随后的规则来估计下界(ELBO):

在此:

该规则对应于根据如从现有技术中已知的条件变分编码器(ConditionalVariational Encoder:CVAE)对下界(ELBO)的估计,其中,

本发明的另一方面是一种计算机程序,该计算机程序设立为,执行根据本发明的方法的所有步骤。

本发明的另一方面是一种机器可读的存储介质,在所述机器可读的存储介质上存储有根据本发明的计算机程序。

本发明的另一方面是人工神经网络,该人工神经网络借助根据本发明的用于训练人工神经网络的方法来训练。

在本发明,在此特别是针对根据开头概述的现有技术的VRNN,该人工神经网络可以是贝叶斯神经网络或递归人工神经网络。

本发明的另一方面是根据本发明的人工神经网络用于控制技术系统的应用。

在本发明的范围内,技术系统此外可以是机器人、车辆、工具或者工厂机器(Werkmaschine)。

计算机程序,该计算机程序设立为,执行将根据本发明的人工神经网络用于控制技术系统的应用的所有步骤。

本发明的另一方面是一种机器可读的存储介质,在所述机器可读的存储介质上存储有根据本发明的一个方面的计算机程序。

本发明的另一方面是一种用于控制技术系统的设备,所述设备设立用于使用根据本发明的人工神经网络。

附图说明

随后,依据附图更详细地阐述本发明的实施形式。

图1示出了根据本发明的训练方法的实施形式的流程图;

图2示出了根据本发明对用于训练人工神经网络的连续数据序列的处理的图表;

图3示出了借助根据现有技术的人工神经网络对输入数据的处理的图表;

图4示出了借助如下人工神经网络对输入数据的处理的图表:所述人工神经网络借助根据本发明的训练方法来训练;

图5示出了借助如下人工神经网络对输入数据的处理的图表的细节片段:所述人工神经网络借助根据本发明的训练方法来训练;

图6示出了根据本发明的训练方法的实施形式的迭代的流程图。

具体实施方式

图1示出了根据本发明的训练方法100的实施形式的流程图。

在步骤101中,借助训练数据集(x

在此,该训练方法的特点在于,先验概率分布(先验)与未来的连续时间序列(x

图2示出了根据现有技术对用于训练RNN的连续数据序列(x

在该图表中,方形代表基本数据(英语:Ground Truth Data(地面真实数据))。圆圈代表随机数据,或代表概率分布。离开圆圈的箭头代表从概率分布中抽取(英语Sampling)样本(英语:sample)、也就是说随机的数据(Datums)。菱形代表确定性节点。

该图表示出了在处理连续数据序列(x

在时间步t中,首先将先验概率分布(先验)确定为隐变量z

进一步,将后验概率分布(推断)确定为隐变量z

基于后验概率分布(推断)的样本z

接着,给RNN输送来自另一概率分布(生成)的样本x

根据下面的规则,RNN的分配给时间步t的隐状态h

根据所使用的模型,也就是说根据所使用的人工神经网络,也就是说根据所使用的RNN,要选择函数f。选择合适的函数处于相关专业人员的专业知识之内。

RNN的初始隐状态

借助另一概率分布(生成)和连续时间序列(x

借助关于RNN的分配给时间步t的隐状态h

图3示出了在采用人工神经网络期间对输入数据的处理的图表。

在所示的图表中,从两个输入数据x

在处理输入数据x

接着,输入数据x

一旦为了更新各自的隐藏状态h

现在,为了更新分配给当前时间步t的隐状态h

在更新隐状态h

图4示出了借助如下人工神经网络对输入数据的处理的图表:所述人工神经网络借助根据本发明的训练方法来训练。

相对于借助根据来自现有技术的方法训练过的人工神经网络的处理的中心差异在于,关于在时间步i>t中的隐变量z

在图4中所示的图表中,示意性地示出了VRNN中的处理,用于从连续数据序列x

在处理连续数据序列x

为了预测未来的时间步i的数据x

在该图示中,这通过向下的分支来示出。

在隐状态h

对下界(ELBO)的估计的“似然性”份额从这些概率分布和连续数据序列x

即使关于z

由于KL散度的应用,z

以这种方式,除了馈入RNN中的隐变量的来自后验概率分布(推断)而不是来自先验概率分布的样本以外,训练时间的计算流中的下部轨道与推断时间的计算流更好地相一致。

图5示出了来自图4中所示的处理图表的片段。

在该片段中,示出了针对处理的下支路的替选实施形式。该替选方案一方面在于,上支路的信息没有被馈入到下支路中。此外,该替选方案在于,在训练期间也将以前的样本馈入到RNN中,这是另一完全有效的方案,该方案完美地对应于推断时间的计算流。

图6示出了根据本发明的训练方法的实施形式的迭代的流程图。

在步骤610中,规定训练算法的参数。此外,预测范围h和(已知的)过去的数据集的大小或长度t属于这些参数。

这些数据一方面被转发给训练数据集数据库DB,而另一方面在步骤630中被转发。

在步骤620中,根据这些参数,从训练数据集数据库DB中提取出由如下基本数据构成的数据样本:所述基本数据表示(已知的)过去的时间步x

在步骤630中,参数和数据样本被输送给预测模型、例如VRNN。该模型由此导出三个概率分布:

1)在步骤641中,关于x

2)在步骤642中,关于隐变量z

3)在步骤643中,关于隐变量z

随后,在步骤650中估计下界,以便在步骤660中导出损失函数。

从所导出的损失函数中,接着在未示出的部分中,根据已知方法、例如按照反向传播,可以适配人工神经网络(例如VRNN)的参数。

相关技术
  • 人工神经网络的车辆安全驾驶检测方法、装置及存储介质
  • 图像分类方法及装置、电子设备、计算机程序及存储介质
  • 用于图像数据的语义分割的方法、人工神经网络、设备、计算机程序和机器可读存储介质
  • 对人工神经网络的训练方法、自动烹饪方法、计算机可读存储介质及烹饪设备
技术分类

06120115608066