掌桥专利:专业的专利平台
掌桥专利
首页

一种基于忆阻器的文本情感检测系统及方法

文献发布时间:2023-06-19 19:30:30


一种基于忆阻器的文本情感检测系统及方法

技术领域

本发明涉及文本情感识别技术领域,尤其涉及一种基于忆阻器的文本情感检测系统及方法。

背景技术

随着Web 2.0和5G网络的快速发展,互联网上大量的社交媒体已经影响到人们生活的各个方面。由于用户数量的增加,大量不同格式的数据被上传到网络上进行分享,包括照片、语音和文字。因此,大量的可用文本数据最近受到了很多关注。

由于NLP(情感分析、机器阅读理解)任务的扩展,深度神经网络(DNN)被广泛用于处理文本数据,包括循环神经网络(RNN)和长短期记忆(LSTM)网络。虽然RNN和LSTM网络都解决了文本信息处理中的一些问题,但它们仍然不能完全理解上下文关系。因此,基于注意力的网络被用来实现NLP任务,在处理上下文信息方面比RNN和LSTM网络表现更好。新颖的网络模型Transformer,利用多头注意力机制作为编码器和解码器,正在成为NLP中的一种计算范式。最近,有几项工作应用预先训练好的BERT模型,也就是NLP中普遍使用的Transformer的变体,来检测对话任务中的情绪,并得到了一个很好的分数。然而,由于基于注意力的网络模型的参数迅速增加,在将基于注意力的网络部署到嵌入式设备时,需要更多的内存和计算资源。另一方面,经典的冯-诺依曼结构将计算和内存单元分开,这被称为"内存墙",导致在执行大量数据传输时,能量开销和计算延迟增加。这表明,在实际应用中实现文本情感检测系统会受到内存墙的严重阻碍。特别是,社交媒体和其他应用程序已经可以应用于嵌入式设备,如手机、平板电脑,甚至是智能手表。因此,在嵌入式设备上部署文字情感检测系统是嵌入式应用的一个很有前景的方向。然而,为了克服内存墙的瓶颈,需要为嵌入式情感检测系统建立一个新的计算架构,为此,本实施例基于忆阻的神经形态计算系统提供了一个可行的解决方案。

忆阻器是一种理想的内存计算设备,因为它是一种双终端设备,具有动态电阻、低功耗和易于集成的特点。此外,忆阻交叉阵列已被证明可用于实现卷积神经网络(CNN)的硬件部署,也被广泛用于开发各种智能应用。然而,只有少数硬件解决方案被提出用于实现基于注意力的架构。目前通过使用忆阻器电路成功地完成了一个字符识别任务,证明了忆阻器可以被用来在硬件上部署基于注意力的网络。但仍有许多工作需要完成。首先,用于多层注意力网络的忆阻器硬件实现方案仍然是空缺的。此外,由于大量的网络参数和计算资源的开销,在嵌入式设备上实现文本情感检测仍然是一个巨大的挑战。

简单来说,文本对话中的情感检测在人机交互领域有广泛的应用。与检测单句不同,检测对话文本中的潜在情绪需要对上下文和局部信息之间的依赖关系进行建模。然而,传统的情感检测网络并不关注对话的局部和整体之间的内在联系。同时,由于情感检测网络的参数数量巨大,文本信息的规模巨大,目前将文本情感检测系统部署到嵌入式设备上仍具有挑战性。

发明内容

本发明提供一种基于忆阻器的文本情感检测系统及方法,解决的技术问题在于:如何关注对话的局部和整体之间的内在联系,以及如何降低网络参数数量以及系统面积。

为解决以上技术问题,本发明提供一种基于忆阻器的文本情感检测系统,包括预处理模块、注意力计算模块和情感分类模块;

所述预处理模块用于输入话语文本数据并对话语文本数据进行位置编码和标记嵌入,得到嵌入后的文本数据;

所述注意力计算模块包括多层注意力电路和前向传播电路;第一层的注意力电路用于提取嵌入后的文本数据的多头注意力,所述前向传播电路用于将当前层的注意力电路的输出传播至下一层的注意力电路作为输入,直至最后一层注意力电路,得到最终的注意力输出至所述情感分类模块;

所述情感分类模块包括顺序连接的最大池化电路、第三层正则化电路、第一点向卷积电路、深度卷积电路、Swish激活函数电路、第二点向卷积电路、第四层正则化电路、全连接层电路和第二SoftMax激活函数电路,用于对各自的输入执行对应的最大池化、正则化、点向卷积、深度卷积、Swish激活函数计算、点向卷积、正则化、全连接和SoftMax激活函数计算操作,最后输出情感检测结果;

所述注意力计算模块中的注意力提取操作、权重映射操作和所述第一点向卷积电路、所述深度卷积电路、所述第二点向卷积电路、所述全连接层电路均基于忆阻交叉阵列构建,所述忆阻交叉阵列的每两列对应于神经网络中的正负权重,每两列的输出对应于一个输出电压。

具体的,所述注意力电路包括基于忆阻交叉阵列构建的多头注意力电路,用于存储电压信号的第一记忆单元模块电路,连接所述第一记忆单元模块电路的第一乘累加电路、第二乘累加电路,还包括第一SoftMax激活函数电路,所述多头注意力电路用于对嵌入后的文本数据进行多头注意力提取输出多头的Q、K、V信号,所述第一乘累加电路用于对多头的Q、K信号进行乘累加得到总的Q、K信号,所述第二乘累加电路用于对多头的V信号进行乘累加得到总的V信号,所述第一SoftMax激活函数电路用于对总的Q、K信号采用softmax函数进行计算,其计算结果与所述总的V信号进行权重相乘后输出至所述前向传播电路;

所述注意力电路的输出表示为:

其中,Concat{}表示进行串联,softmax()表示softmax函数,d

具体的,所述前向传播电路包括顺序连接的第一权重映射电路、第一层正则化电路、第二权重映射电路、第三权重映射电路和第二层正则化电路,还包括第二记忆单元模块电路;其中所述第二层正则化电路用于连接下一层的所述注意力电路,所述第二记忆单元模块电路用于存储前向传播过程中每一次计算得到的注意力;

所述第一权重映射电路、所述第二权重映射电路、所述第三权重映射电路均基于所述忆阻交叉阵列构建;

所述前向传播电路的前向传播过程表示为:

Forward=LN{W

其中,Forward表示该次前向传播的输出,Attention表示该次前向传播的输入,W

所述深度卷积电路单通道的输出表示为:

其中,k是深度卷积的核宽度,

所述深度卷积电路的输出表示为:

所述第二点向卷积电路的输出表示为:

W

具体的,所述情感分类模块还包括连接在所述最大池化电路、第三层正则化电路之间的第三记忆单元模块电路,连接在所述第一点向卷积电路与所述深度卷积电路之间的第四记忆单元模块电路,连接在所述第一点向卷积电路和所述第四层正则化电路之间的第五记忆单元模块电路,用于存储上级电路的输出信号并提供给下级电路。

具体的,所述第一记忆单元模块电路、所述第二记忆单元模块电路、所述第三记忆单元模块电路、所述第四记忆单元模块电路、所述第五记忆单元模块电路均基于记忆单元模块电路构建,所述记忆单元模块电路包括阵列式连接的多个记忆单元电路,所述记忆单元电路的个数与需要存储的电压信号个数相同;

对于所述记忆单元模块电路每一行的所述记忆单元电路,所有的所述电压信号输入端连接在一起,所有的所述电压信号输出端连接在一起,所有的所述第一MOS开关的控制端连接在一起,所有的所述第二MOS开关的控制端连接在一起;所述记忆单元模块电路按照时钟的节拍依次输入和输出电压。

具体的,所述记忆单元电路包括第一MOS开关、第二MOS开关、第一运算放大器、电容,所述第一MOS开关的控制端与所述第二MOS开关的控制端连接时钟控制信号,所述第一运算放大器的反向输入端连接所述第一MOS开关的输出端,所述第一运算放大器的正向输入端连接所述电容后接地,所述第一运算放大器的输出端连接所述第二MOS开关的输入端,所述第一MOS开关的输入端用于作为所述记忆单元电路的电压信号输入端,所述第二MOS开关的输出端作为所述记忆单元电路的电压信号输出端;

具体的,所述忆阻交叉阵列采用2M结构的忆阻器模型。

具体的,同时使用Friends和EmotionPush数据集来训练网络训练该文本情感检测系统,采用加权交叉熵用作训练损失。

本发明还提供一种基于忆阻器的文本情感检测方法,包括:构建文本情感检测系统,对构建的文本情感检测系统进行训练和测试,输入待检测文本至训练完成的文本情感检测系统,文本情感检测系统输出情感检测结果。

本发明提供的一种基于忆阻器的文本情感检测系统及方法,主要贡献在于:

1、提出了一个软件和硬件协同设计的文本情感检测系统(称为MTEDS),实现了网络模型MLA-DSCN的硬件部署,通过将系统中的线性映射和矩阵乘法操作采用忆阻交叉阵列构建,而其余电路模块也采用CMOS技术组建。与传统的计算架构(GPU)相比,本发明所设计的硬件方案具有更低的功耗,同时减少了因内存和计算单元分离而造成的额外电路面积开销;

2、提出了一个名为MLA-DSCN的轻量级网络模型来实现文本情感检测任务,通过将深度分离卷积模块融合到网络中,改进后的网络模型MLA-DSCN不仅可以关注输入文本信息的全局信息,还可以提高其在局部层面的信息提取能力,在不牺牲精度的前提下,将网络参数的数量降低了3倍。

附图说明

图1是本发明实施例提供的在编程过程中忆阻值的变化图;

图2是本发明实施例提供的MTEDS的软硬件协同设计思路图;

图3是本发明实施例提供的MTEDS系统框架图及应用图;

图4是本发明实施例提供的文本情感检测模块的结构图;

图5是本发明实施例提供的MMLAN的电路图;

图6是本发明实施例提供的2M结构忆阻器交叉阵列的原理图;

图7是本发明实施例提供的模拟MUM的电路图;

图8是本发明实施例提供的MEC的电路图;

图9是本发明实施例提供的训练阶段网络各层的输入和输出展示图;

图10是本发明实施例提供的激活函数电路的分析图;

图11是本发明实施例提供的MUM电路的性能展示图;

图12是本发明实施例提供的不同LHR下的忆阻器的仿真结果图;

图13是本发明实施例提供的不同内存条尺寸的权衡分析图。

具体实施方式

下面结合附图具体阐明本发明的实施方式,实施例的给出仅仅是为了说明目的,并不能理解为对本发明的限定,包括附图仅供参考和说明使用,不构成对本发明专利保护范围的限制,因为在不脱离本发明精神和范围基础上,可以对本发明进行许多改变。

随着人工智能的发展,注意力机制已经逐渐成为神经网络的重要组成部分。而传统的单头注意力可以通过以下方式计算:

/>

假设输入的特征信息X在进行词嵌入之后被转移到查询矩阵Q、键矩阵K、值矩阵V,其中d是输入Q、K、V的维度,SoftMax()表示SoftMax函数。

多头注意力由多个单头注意力联结(Concat)起来,然后用W

此外,多头注意力机制只是单头注意力机制的一个维度延伸,因此,单头注意力机制的硬件实现策略可以用来证明多头注意力机制的有效性。

在注意力机制出现之前,用于处理对话中情感检测的基准之一是基于CNN-DCN的自编码情感分类器。随着注意力机制在不同的学习领域逐渐取得显著成绩,它们开始被用于情感检测任务。此外,人们发现预训练的语言模型更适合处理NLP任务(情感分析、机器阅读理解),因为它们是在一个可观的无标签语料库上预训练的,以提供深度的上下文嵌入,这使得在它们之上开发的方法表现更好。此外,句子和对话的嵌入技术,以及分类器的选择,在相同的预训练模型架构下,对最终的情感检测结果拥有实质性的影响。NLP中传统的嵌入方法包括Bag-of-Word(BOW)、term frequency-inverse document frequency(TFIDF)和WordPiece。此外,分类方法包括Random Forest(RF)、TextCNN,其初始词嵌入为GloVe和通过SELU激活函数实现的分类器。此外,CNN最近被广泛用于基于注意力的深度学习领域,在大多数子领域任务中取得了SOTA的结果。

因此,在本实施例中,对于不同通道中的所有输入语料,采用了核大小为1×1的点向卷积,在深度卷积过程中,同一通道的所有特征都要经过卷积程序。深度分离卷积模块的输出表示为DS

在许多工作中,如下式(4)示出的swish激活函数取得了优于ReLu激活函数的结果。超参数β决定了函数的输出形式,其中当β=0.1时,swish函数接近于线性函数,当β=∞时,它与ReLu激活函数相似,x表示输入特征,sigmoid()表示sigmoid函数。

Swish(x)=x·sigmoid(βx)(4)

许多忆阻器模型被提出。为了模拟人工神经元,人们期望忆阻器能够处理脉冲信号。文献1(Y.Zhang,X.Wang,Y.Li,and E.G.Friedman,“Memristive model for synapticcircuits,”IEEE Trans.Circuits Syst.II,Exp.Briefs,vol.64,no.7,pp.767–771,Jul.2017.)展示了一个电压控制的阈值模型,只有当施加的电压超过电压阈值[V

忆阻器模型如下所示:

/>

其中μ

表1忆阻器模型的仿真配置

对于嵌入式设备,硬件和软件的设计是不可分割的。图2说明了本发明的协同设计策略。在软件方面,利用PyTorch平台设计并提出了一个改进的基于注意力的网络模型,以实现更高的F1分数和更准确的情绪检测,然后将训练好的模型映射到相应的硬件上,为嵌入式应用提供一个实用的解决方案。然而,由于注意力网络的大量参数和其特有的大量乘累加运算,一种新型的计算架构:忆阻的神经形态计算系统,由于其理想的内存计算特性,被认为是硬件部署的理想框架。

此外,考虑到有限的物理硬件资源的影响,这意味着可能需要额外的能量和时间来进行信号处理。最后,线性映射实现了网络模型权重的上载。值得注意的是,忆阻器模型的位精度和单个神经元的功耗在实际硬件实现中对整个系统有影响。因此,需要对训练好的网络进行进一步的量化,作为实现MTEDS部署到嵌入式设备的输入。

图3显示了MTEDS的整个框架,并说明了进行情感计算以及人机互动的过程。这个例子说明,植入嵌入式设备的MTEDS可以帮助机器理解人类对话中的情感,并对相应的情感表达做出反应。改进后的模型MLA-DSCN主要由两部分实现:注意力计算模块(MMLAN)和忆阻的情感分类模块(MEC)。图4说明了MTEDS的相应网络模型结构。该模型在网络层被相应地分块,以方便硬件电路的设计。

从宏观角度来看,卷积已经被证明可以有效地解决注意力机制无法集中在局部特征上的问题。此外,使用多层注意力网络可以更好地模拟NLP中文本的上下文信息。然而,为了促进嵌入式设备的部署,更轻量的卷积运算被认为是与多层注意网络相结合的有前景的选择,并在本实施例中首次实现。所提出的网络MLA-DSCN允许模型更全面地提取上下文特征信息,并且在处理基于对话的文本而不是单一句子时表现特别好。从微观角度看,在MEC中加入了一个深度卷积层和两个点向卷积层。本发明没有使用GLU层,因为GLU的加入使得提取的特征信息量减少,其差异来自于MEC顶部增加的最大池化层。这意味着由注意力计算出的全局信息已被进一步提取,而不需要额外的操作来过滤多余的信息。此外,在改进的网络基础上设计了相应的硬件实现方案。在情感检测程序中,对话首先在预处理过程中借助于计算机进行嵌入和编码。进一步,嵌入的文本信息被输入到MMLAN中,然后被送入MEC,以识别情绪的最终检测结果,包括自然、开心、难过和生气。因此,MTEDS可以被广泛地部署到嵌入式设备上,并作为代理平台应用于社交媒体、舆论分析机器人和情感管家等领域。

如图3所示,本发明实施例提供的一种基于忆阻器的文本情感检测系统,整体包括预处理模块(进行数据预处理、位置嵌入和词嵌入)注意力计算模块(进行注意力计算)、情感分类模块(进行情感分类)。

如图4所示,注意力计算模块包括多层注意力电路和前向传播电路;第一层的注意力电路用于提取嵌入后的文本数据的多头注意力,前向传播电路用于将当前层的注意力电路的输出传播至下一层的注意力电路作为输入,直至最后一层注意力电路,得到最终的注意力输出至情感分类模块。

在本实施例中,MMLAN是通过融合忆阻器和CMOS技术来实现的。图5展示了MMLAN的详细硬件方案实现策略。如图5所示,注意力电路包括基于忆阻交叉阵列构建的多头注意力电路,用于存储电压信号的第一记忆单元模块电路,连接第一记忆单元模块电路的第一乘累加电路、第二乘累加电路,还包括第一SoftMax激活函数电路,多头注意力电路用于对嵌入后的文本数据进行多头注意力提取输出多头的Q、K、V信号,第一乘累加电路用于对多头的Q、K信号进行乘累加得到总的Q、K信号,第二乘累加电路用于对多头的V信号进行乘累加得到总的V信号,第一SoftMax激活函数电路用于对总的Q、K信号采用softmax函数进行计算,其计算结果与总的V信号进行权重相乘后输出至前向传播电路。

如图4、图5所示,前向传播电路包括顺序连接的第一权重映射电路、第一层正则化电路、第二权重映射电路、第三权重映射电路和第二层正则化电路,还包括第二记忆单元模块电路;其中第二层正则化电路用于连接下一层的注意力电路,第二记忆单元模块电路用于存储前向传播过程中每一次计算得到的注意力。其中,第一权重映射电路、第二权重映射电路、第三权重映射电路均基于忆阻交叉阵列构建。

值得一提的是,为了减少数模转换(DAC)和模数转换(ADC)转换过程中的能量消耗,MUM(记忆单元模块电路)暂时储存输入电压,并依次完成随后的两次矩阵乘法运算。三个不同的忆阻交叉阵列用来表示Q,K,V,其中K和V在注意力计算中通常分配相同的权重。在之前的工作中,K和V被部署在一个忆阻交叉阵列上,以减少功耗和电路面积。然而,本实施例使用三个不同的忆阻交叉阵列和一个MUM,确保了存储的中间电压信号不会受到层与层之间传输的影响,并减少了由于其他电路模块的并联和串联而产生的信号失真影响,进一步提高了硬件处理大规模的特征信息的速度,降低了电路复杂度。此外,线性映射也是通过将权重加载到忆阻交叉阵列上实现的。然而,由于忆阻交叉阵列在实践中的集成限制,所设计的硬件电路不能部署在软件设计的理想尺寸d中。换句话说,要完成一个对话的特征提取,需要多个时钟周期。因此,在MMLAN电路的末端有必要有一个额外的MUM来保存中间信息,确保在送入MEC电路之前已经处理了一个完整的对话信息。

忆阻交叉阵列的输出取决于忆阻器模型的类型和忆阻交叉阵列的结构。在神经网络中广泛使用的忆阻交叉阵列框架主要包括1M、2M、1T1M。在本实施例中,2M结构(见于文献2:M.Prezioso et al.,“Training and operation of an integrated neuromorphicnetwork based on metal-oxide memristors,”Nature,vol.521,no.7550,pp.61–64,2015)被用来实现线性映射和矩阵乘法操作。

图6说明了输入电压信号

图7展示了记忆单元模块电路MUM的电路图。具体的,记忆单元模块电路包括阵列式连接的多个记忆单元电路,记忆单元电路的个数与需要存储的电压信号个数相同。记忆单元电路包括第一MOS开关、第二MOS开关、第一运算放大器、电容,第一MOS开关的控制端与第二MOS开关的控制端连接时钟控制信号,第一运算放大器的反向输入端连接第一MOS开关的输出端,第一运算放大器的正向输入端连接电容后接地,第一运算放大器的输出端连接第二MOS开关的输入端,第一MOS开关的输入端用于作为记忆单元电路的电压信号输入端,第二MOS开关的输出端作为记忆单元电路的电压信号输出端。对于记忆单元模块电路每一行的记忆单元电路,所有的电压信号输入端连接在一起,所有的电压信号输出端连接在一起,所有的第一MOS开关的控制端连接在一起,所有的第二MOS开关的控制端连接在一起。记忆单元模块电路按照时钟的节拍依次输入和输出电压。

由于采用了MUM,可以有效地避免ADC和DAC的能量消耗,并且在计算过程中,中间电压信号可以以稳定的方式暂时存储。在每个记忆单元中连接有四根导线,其中CL

神经网络通过在MMLAN的不同层引入函数来实现大量的前向传播过程,包括线性映射(对应第一权重映射电路、第二权重映射电路、第三权重映射电路)、层正则化(对应第一层正则化电路、第二层正则化电路)和SoftMax激活函数(对应第一SoftMax激活函数电路)。因此,下面将依次描述相应的功能电路。

SoftMax激活函数主要用于多类别网络的分类,将所有类别的输出转换为[0,1]范围内的概率分布,其总和为1。如图5所示,第一SoftMax激活函数电路由多个指数函数电路构成,SoftMax激活函数电路由指数函数电路(Exp)、逆变电路、运算放大器和除法器组成。指数函数电路由两个对称的晶体管组成,成功克服了温度漂移问题。其输出电压V

V

此外,SoftMax激活函数电路的输出电压表示如下:

N表示SoftMax激活函数电路输入电压的个数。

前向传播电路的前向传播过程表示为:

Forward=LN{W

其中,Forward表示该次前向传播的输出,Attention表示该次前向传播的输入,W

在电路中,Attention表示多头注意力单元提取的多层注意力,LN()表示进行线性映射的函数。然后线性映射电路的输出也可以用公式(7)和公式(8)来表示。

LN操作是一种常见的数据规范化操作,缓解了网络训练过程中的"梯度消失"问题。如以下公式所示。α和β分别为可训练参数和移位参数。x

LN层保留了训练阶段的恒定均值和方差值,以便在推理阶段使用。因此,为了简化LN的硬件实现的复杂性,传统的公式被改写为一个线性表达。

输入电压V

图8说明了MEC的硬件实现方案。可以看到,情感分类模块还包括连接在最大池化电路、第三层正则化电路之间的第三记忆单元模块电路,连接在第一点向卷积电路与深度卷积电路之间的第四记忆单元模块电路,连接在第一点向卷积电路和第四层正则化电路之间的第五记忆单元模块电路,用于存储上级电路的输出信号并提供给下级电路。第三记忆单元模块电路、第四记忆单元模块电路、第五记忆单元模块电路均基于记忆单元模块电路构建。

情感分类器类似于一个解码器,它接收由注意力层处理的全局信息,然后进行深度分离的卷积操作,以此来获得更多的局部信息。此外,最终的情绪检测是由一个全连接层和一个SoftMax激活函数完成的。此外,MEC包含一个最大池化电路,对来自MMLAN的电压进行最大嵌入操作。换句话说,在卷积操作之前,来自MMLAN的最有价值的信息被筛选出来了。最大池化电路由成对的NMOS器件组成,其大小根据输入特征的数量而调整。它的输出由公式(15)描述,其中M表示最大池化的大小。

V

K个情景对话的每个情景对话的特征信号被送入最大池化电路,包含了数据集中的所有语料。每个对话在经过最大嵌入后都会输出一个大小为U×d的信号,并且

V

两次点向卷积和一次深度卷积后电路输出可表示为:

W

result=Max{SoftMax[W

W

对应的,本发明实施例还提供一种基于忆阻器的文本情感检测方法,包括:构建上述文本情感检测系统,对构建的文本情感检测系统进行训练和测试,输入待检测文本至训练完成的文本情感检测系统,文本情感检测系统输出情感检测结果。

为了分析MTEDS的性能和效果,本实施例通过将所提出的系统与其他相关的对话文本情感检测工作进行比较,进行了一系列的实验。

EmotionLines是一个对话数据集,由两个子集组成。Friends和EmotionPush。Friends数据集是一个基于语音的数据集,汇编了一个著名的喜剧系列中的多方对话。EmotionPush数据集中的文本数据是通过社交网络信使(如Facebook)收集的。每个数据集中的4000个对话包括1000个原始英语对话和3000个分别被回译为法语、德语和意大利语的强化对话。每个对话中都有大量的语料,每个语料都被标记为七种情绪。本实施例选择了四种情绪包括开心、难过、生气和自然作为本发明标签候选人,并在表8所示的性能评估中被视为基准。此外,来自240个对话的约3000个语料被提供给评估过程;测试数据的分布与训练集一样。

本实施例对EmotionLines数据集进行了预处理。首先,所有的话语都是标记化和小写的。通过在话语之间引入特殊的标记,同一对话中的所有标记都被附加起来。值得一提的是,所有token都是通过WordPiece方法嵌入的。经过位置编码和标记嵌入后,将文本信息输入到相应的多层注意网络中,利用PyTorch平台进行训练。

图9代表训练阶段网络各层的输入和输出,这与忆阻交叉阵列的大小和MTEDS推理阶段的电路相关。此外,在整个训练阶段,利用dropout来避免数据的过度拟合,其数值会影响最终的网络精度。此外,为了提高网络的泛化能力,本实施例同时使用Friends和EmotionPush数据集来训练网络。然而,由于两个数据集的数据分布不平衡,很难同时训练两个数据集。因此,加权交叉熵(WCE)被用作训练损失,以加权少数人类别数据。

此外,通过将加权的平衡warming纳入WCE损失,该模型可以更快地学习小规模的情感数据,使训练过程更有效地运行。此外,还采用了Adam优化器,与预定的学习率一起工作。表2显示了训练过程中使用的一些关键参数,这些参数是经过大量的实验后确定的。

表2训练阶段的网络参数

为了评估预测性能,主要是评估F1分数,如果每个数据都只标记为一个类别,那么它与加权准确率(WA)相当,并通过以下公式计算。此外,为了比较所提出的模型与其他网络拓扑结构的性能,Friends数据集中最后20%的英语对话数据被用来作为验证集来评估模型。

在本实施例中,所有的电路都是基于忆阻器和CMOS技术实现的。此外,电路其余电子元件的参数如表3所示。根据训练后的网络结构和相应的权重,确定MTEDS的具体电路结构和面积大小。此外,各网络层的权重被上传到忆阻交叉阵列上,以完成MMLAN和MEC的硬件部署,用于情感检测的推理任务。此外,根据给定的参数,用SPICE进行电路仿真,模拟情感检测的硬件实现。值得一提的是,所采用的忆阻器模型具有较高的开关率R

表3电路参数及其配置

经过网络训练,MTEDS取得了迄今为止最好的文本情感检测结果。首先通过验证数据集对前面工作中使用的方法分别进行实验,并计算它们在四个情绪类别(自然、开心、难过和生气)中取得的F1分数。具体结果显示在表4。BOW和TFIDF是传统的基线,它们的F1得分达到了0.81,但生气和难过的得分较低。TextCNN和因果模型TextCNN(C-TextCNN)使用加权损失法,产生了相当好的平衡。在最初的TextCNN的基础上,利用因果语料库模型,将之前的嵌入和目标嵌入都映射到模型中。

表4不同神经网络在Friends验证数据集上的结果

此外,预先训练好的基础和大规模测试的BERT模型被用来预测结果。如表5所示,通过融合深度分离卷积模块和多层注意网络,实现了比早期作品更好的性能。所提出的模型MLA-DSCN具有很好的平衡性,包含了大样本量和小样本量的数据,得到了优越的结果。值得注意的是,小样本量数据(难过和生气)的F1得分分别提高了24%和14%。此外,由于基于注意力的机制方法取得了比其他网络更好的结果,因此也列出了其他类似的工作进行比较。

表5在EmotionPush和Friends测试数据集上的表现

/>

如表6所示,所提出的模型对EmotionLines数据集的准确率为72.09%,而F1分数被发现为0.79。基于对测试数据集的推理结果,很明显,所提出的MTEDS实现了最终F1分数的SOTA性能。此外,在本实施例中,不需要额外的数据集来对模型进行预训练,以超越之前的模型。换句话说,所提出的结构被证明具有优秀的特征提取能力和更大的泛化能力,使得MTEDS在实际应用场景中更具有普适性。此外,所设计的硬件部署方案为MLA-DSCN的边缘部署提供了可行的方案,全网模型的参数仅为110.6M,而Friends-BERT-large模型的参数为340M。因此,提出的系统进一步提高了网络在实际嵌入式应用中的可行性和可扩展性。

表6基于EmotionLines数据集的现有方法比较

在完成了MTEDS的部署过程后,在对硬件设备进行推理时,要进一步考虑所提出的电路的稳定性和正确性。由于设计的电路包括MOS晶体管,其非线性特性成为影响电路稳定性的主要因素。因此,在指定的时钟周期内,对不同的电路分别进行瞬态分析和直流分析,以测试不同输入模式下电路的稳定性。

与以前的激活函数设计不同,所提出的激活函数电路完全模拟了激活函数的整个数学模型,并且在额定的输入范围[-2V,2V]内做得很好。这要归功于微调电路中的特定元件参数和时钟周期的合理调度。由于激活函数电路中存在晶体管,在进行瞬态分析时,该电路具有很高的非线性特性。因此,为了保证电路的稳定性,在每个瞬态信号的输出上施加10倍长度的时钟信号。

对于瞬态分析,所有电压被限制在[-1V,1V]范围内。值得一提的是,在实际的电路运行过程中,电路中的中间电压值通常在mV级别,甚至更低,这种操作通常是通过用运算放大器对输入电压进行缩放来实现的。电路的模拟输出被表示为平滑曲线,并与理想的输出电压曲线进行比较,以进行直流分析。

激活函数的相关分析显示在图10中,其中:(a)输入脉冲,(b)直流分析和推理输出与SoftMax理想输出的比较,(c)SoftMax电路的瞬态分析结果,(d)直流分析和Swish电路的比较,(e)Swish电路的瞬态分析结果。在图10中,理想的直流电压之和V

记忆单元的电容是影响中间电压的最重要因素。为了防止记忆单元和计算电路的相互访问,以及避免模拟信号和数字信号的频繁转换,在涉及维度变换和层间传输的操作中采用了MUM电路。为了保证各个电路支路的稳定性,记忆单元需要在不同的时钟周期内保持中间电压信号的准确性,即无论经过多少个时钟周期,都要尽可能地保证输入端的电压与输出端的电压相等。因此,运算放大器被用来保持电容上的电压下降。在此基础上,本实施例探讨了不同电容下MUM的性能。图11显示了在五个电容值(1nF,10pF,1pF,0.1pF和1fF)下输入和输出信号之间的关系。此外,实线表示输入,虚线表示输出。发现当电容等于1nF时,输入输出可以稳定一致。因此,最终的电容大小确定为1nF,从而可以精确地实现中间电压的临时存储。

在模型和电路协同设计完成后,误差在每个神经元上加载权重时出现,这是非线性误差出现的第一个位置。在使用基于AIST的模型进行线性权重映射时,仍有2%的误差。此外,由于忆阻器本身存在非线性特征,生产的忆阻器在实际应用中仍然不是完美的线性分级。这在实际实现中仍然是一个问题,在本实施例中,忆阻器模型的权重被假定为线性分级。此外,基于PyTorch平台的训练权重被存储为32位浮点数字。然而,对于实际的嵌入式设备部署,往往需要将权重量化为8位整数,以满足ARM和FPGA等硬件部署的要求。因此,在本实施例中,训练后的MLA-DSCN也被量化为8位,以配合与设计硬件的接口。值得一提的是,量化的好处不仅是实现了硬件和软件之间的接口,还大大减少了内存开销,从110.67MB减少到25.06MB,而F1分数只下降了2.19%。这不仅有利于新兴的内存架构的部署,也为传统的嵌入式设备提供了一个可行的解决方案。表7显示了最终MTEDS的性能。

表7在不同位精度水平上有精度损失的硬件部署

每个神经元由两个忆阻器组成。输入到电路的电压为mV级,因此在计算时电压的大小被限制在[-3.3mV,3.3mV]之间。将时间周期设置为10us,幅值为3.3mV的50个脉冲电压被输入到忆阻器中,模拟忆阻器模型在阈值电压范围内的稳定性及其相应的最大功耗。如图12所示,完成权值映射后,忆阻器处于稳定状态。忆阻神经元的能量消耗为:

根据仿真测试结果,忆阻器的开关比并不是决定单个神经元功耗的因素,而R

表8MTEDS的主功率和面积消耗

因此,在实际的硬件部署中必须考虑可用的设备尺寸。本实施例考虑了两种不同的策略。第一种是只使用一个忆阻交叉阵列,然后通过MUM存储多个操作的结果。另一种是使用多个忆阻交叉阵列进行并行处理。这两种方案都需要考虑忆阻交叉阵列的功耗以及由于忆阻交叉阵列尺寸的变化而产生的额外外围辅助电路的功耗。但实际应用中仍不能达到理想状态,所使用的忆阻交叉阵列的主要尺寸为1K,因此在仿真实验中采用了多个忆阻交叉阵列并行处理。此外,为了尽可能减少硬件设计中的功耗和面积开销,本文对外围电路进行了重复使用,同时需要更多的时间周期来完成一次推理。随着忆阻交叉阵列的进一步集成,更大尺寸的忆阻交叉阵列被生产出来,如8K忆阻器阵列(128行和64列)。此外,如图13所示,报告了MTEDS在不同交叉阵列尺寸下的性能。因此,完成一次对话推理的能量消耗为1.9mJ,总时间成本为17.15ms。最后,在GPU平台(Geforce RTX3070)上进行了十次情绪检测推理,以便与所提出的MTEDS进行比较。这10个推理过程的平均时间为6.42ms。因此,在GPU平台上完成一次推理的平均时间确定为6.42ms/240dialogues=26.75μs。整体的能量消耗是26.75μs×220W=5.885mJ,MTEDS的能耗只有GPU开销的32.3%左右,但运行时间是GPU的640倍。

实验结果证实本发明实施例所提出的MTEDS比标准的神经形态计算结构具有更低的能量和面积开销。此外,忆阻器的记忆功能使其能够在忆阻的内存计算结构中模拟神经元。这是由于忆阻器的阈值模型,它允许忆阻器在工作电压低于阈值电压时保持稳定。

本实施例提出了一种用于文本情感检测的硬件实现方案,即MTEDS。首先,通过将深度分离卷积模块融合到多层注意网络中,改进后的网络模型MLA-DSCN不仅可以关注输入文本信息的全局信息,还可以提高其在局部层面的信息提取能力,在不牺牲精度的前提下,将网络参数的数量降低了3倍。然后,所提出的网络在EmotionLines数据集上实现了基于文本的情感检测任务的目前最好的F1得分。进一步,还确定了与软件对应的硬件部分,如尺寸和权重。所提出的电路的稳定性和功耗也通过SPICE仿真进行了分析,验证了在现实世界中实际应用的可行性。特别是,在相同的基准条件下,所提出的MTEDS与GPU相比可以有效地降低能耗和面积开销,而电路的全模拟配置则增加了MTEDS的计算时间。本实施例所提出的MTEDS不仅具有更好的文本情感检测能力,而且具有更轻量的结构和更低的能耗,这为嵌入式设备部署文本情感检测系统及方法的应用提供了一个很好的解决方案。

上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。

相关技术
  • 一种基于香菇粉末的柔性生物忆阻器的制备方法
  • 一种基于DSP Builder的异构双磁控忆阻器模型数字化电路设计方法
  • 一种基于忆阻器交叉阵列的图像重构系统
  • 一种基于二值忆阻器串并联的三值忆阻器构建方法
  • 一种基于忆阻器的火焰强度检测系统及检测方法
技术分类

06120115936966