掌桥专利:专业的专利平台
掌桥专利
首页

一种基于线上教育的情绪识别方法、装置及电子设备

文献发布时间:2023-06-19 10:57:17


一种基于线上教育的情绪识别方法、装置及电子设备

技术领域

本申请属于数据处理技术领域,尤其涉及一种基于线上教育的情绪识别方法、装置、存储介质以及电子设备。

背景技术

线上教育,是以网络为介质的教学方式,通过网络,学员与教师即使相隔万里也可以开展教学活动;此外,借助网络课件,学员还可以随时随地进行学习,真正打破了时间和空间的限制,对于工作繁忙,学习时间不固定的职场人而言线上教育是最方便不过的学习方式。

而线上教育与传统的现场教育相比,授课老师不能很直观的评判听课用户的情绪状态(比如,听课用户长时间处于犯困状态,或者长时间处于深入思考状态),而无法直接的根据听课用户的情绪状态的反馈,进行灵活的调整授课方式,进而授课的质量也受到一定影响。

本申请实施方式提供了一种基于线上教育的情绪识别方法、装置、存储介质以及电子设备,以解决传统线上教育的授课老师无法直接获取听课用户的情绪状态,而导致授课质量受影响这一技术问题,以使授课老师能够直接获取听课用户的情绪状态而灵活调整授课方式,保证授课的质量。

为了解决上述技术问题,本申请实施方式第一方面提供了一种基于线上教育的情绪识别方法,所述方法包括:

将用户的人脸采样图像输入预先配置的特征提取模型,获取眼睛特征点集合,其中,所述眼睛特征点集合包括至少两个特征点,所述特征提取模型为经训练后的卷积神经网络模型;

根据所述至少两个特征点对应的位置信息,计算所述特征点之间的距离信息;

基于所述距离信息与对应的标准值的比对结果,确定用户当前的情绪。

为了解决上述技术问题,本申请实施方式第二方面提供了基于线上教育的情绪识别方法,所述装置包括:

获取模块,用于将用户的人脸采样图像输入预先配置的特征提取模型,获取眼睛特征点集合,其中,所述眼睛特征点集合包括至少两个特征点,所述特征提取模型为经训练后的卷积神经网络模型;

计算模块,用于根据所述至少两个特征点对应的位置信息,计算所述特征点之间的距离信息;

确定模块,用于基于所述距离信息与对应的标准值的比对结果,确定用户当前的情绪。

为了解决上述技术问题,本申请实施方式第三方面提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如前述的一种基于线上教育的情绪识别方法。

为了解决上述技术问题,本申请实施方式第四方面提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如上述的一种基于线上教育的情绪识别方法。

本申请实施方式第五方面提供了一种计算机可读存储介质,当计算机程序产品在终端设备上运行时,使得终端设备执行上述本申请实施方式第一方面提供的一种基于线上教育的情绪识别方法。

本发明的实施方式与现有技术相比存在的有益效果是:通过先将用户的人脸采样图像输入预先配置的特征提取模型,获取眼睛特征点集合,其中,所述眼睛特征点集合包括至少两个特征点,所述特征提取模型为经训练后的卷积神经网络模型,然后根据所述至少两个特征点对应的位置信息,计算所述特征点之间的距离信息,最后基于所述距离信息与对应的标准值的比对结果,确定用户当前的情绪。通过对用户的人脸采样图像进行特征分解,进而判断当前用户的情绪状态,解决了传统线上教育无法直观评判用户的情绪状态这一技术问题,以使授课老师能够直接获取用户的情绪状态,从而进行对应授课调整,实现更高质量的线上教育。

附图说明

为了更清楚地说明本申请实施方式中的技术方案,下面将对实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。

图1是本申请实施例提供的一种基于线上教育的情绪识别方法的第一种实现过程流程示意图;

图2是本申请实施例提供的一种基于线上教育的情绪识别方法的第二种实现过程流程示意图;

图3是本申请实施例提供的一种基于线上教育的情绪识别装置的结构示意图;

图4是本申请实施例提供的电子设备的结构示意图。

具体实施方式

以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本申请实施方式。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施方式中也可以实现本申请。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本申请的描述。

应当理解,当在本说明书和所附权利要求书中使用时,术语“包括”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。

应当理解,本实施例中各步骤的先后撰写顺序并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。

在本申请说明书中描述的参考“一个实施例”或“一些实施例”等意味着在本申请的一个或多个实施例中包括结合该实施例描述的特定特征、结构或特点。由此,在本说明书中的不同之处出现的语句“在一个实施例中”、“在一些实施例中”、“在其他一些实施例中”、“在另外一些实施例中”等不是必然都参考相同的实施例,而是意味着“一个或多个但不是所有的实施例”,除非是以其他方式另外特别强调。术语“包括”、“包含”、“具有”及它们的变形都意味着“包括但不限于”,除非是以其他方式另外特别强调。

为了说明本申请所述的技术方案,下面通过具体实施方式来进行说明。

参见图1,是本申请实施例一提供一种基于线上教育的情绪识别方法的第一种实现过程的流程图,为了便于说明,仅示出了与本申请实施例相关的部分。

本案优选实施例可为,一种基于线上教育的情绪识别方法,所述方法包括:

S101:将用户的人脸采样图像输入预先配置的特征提取模型,获取眼睛特征点集合,其中,所述眼睛特征点集合包括至少两个特征点,所述特征提取模型为经训练后的卷积神经网络模型可为经训练后的卷积神经网络模型。

在本实施例中,所述基于线上教育的情绪识别方法可应用于线上教育系统,所述用户的人脸采样图像是指当前使用该线上教育系统的用户对应的人脸图像,所述人脸采样图像的获取方式可为多种,例如,以固定时间间隔对正在线上教育系统终端设备前的听课用户进行摄像,或者从终端设备获取的视频信息中进行选取。

其中,所述特征提取模型用于对人脸采样图像中的眼睛区域进行特征点的提取,并且本实施例对于所述待识别人脸图像的特征点定位方式不做任何限制,例如可以通过ASM(Active Shape Model)算法、AAM(Active Appreance Model)算法、或者基于dlib人脸检测算法确定待识别人脸图像中的眼睛特征点的位置,并建立眼睛特征训练集。将该眼睛特征训练集输入至卷积神经网络模型(CNN模型)进行训练,获得待识别人脸图像中的眼睛特征点。

在一些优选的实施例中,训练卷积神经网络模型(CNN模型)的图像数据优选为连续帧图像数据,且预先将所述连续帧数图像数据按顺序分组;其中,每组图像数据包括连续N帧图像,N>1;对每组图像数据进行眼睛特征点定位,并通过预设的卷积神经网络模型,提取出每帧图像中的眼睛特征。在一些优选施例中,N=10,对应地,眼睛特征列表的长度为10。对于接收到的连续帧数图像数据,每10帧图像作为一组,依次进行分析。需要说明的是,所述连续帧数图像数据可为视频数据,将该视频数据划分为若干份固定长度的子视频数据,然后通过人脸图像质量分析筛选每份子视频数据的目标帧图像,作为待识别人脸图像,可以减少计算量,提高识别效率。

进一步地,所述人脸采样图像输入预先配置的特征提取模型之后,获取一个眼睛特征点集合,所述眼睛特征点集合是指人脸采样图像中眼睛对应的特征点集合,所述眼睛特征点集合包括至少两个特征点。

需要说明的是,在获取所述人脸采样图像时需要通过相应的人脸检测算法判断上述待识别图像中是否存在人脸。其中,上述人脸检测算法可包括模板匹配法、主成分分析法以及纹理分析与空间人脸灰度法等方法,此处不做限定。

S102:根据所述至少两个特征点对应的位置信息,计算所述特征点之间的距离信息。

在本实施例中,所述特征提取模型输出所述至少两个特征点之后,根据预先配置的空间坐标,计算所述至少两个特征点直接的距离信息。所述至少两个特征点之间的距离信息是指根据预先定义的两个相对应的特征点之间的距离,举个例子,所述至少两个特征点为左上眼皮对应的特征点与左下眼皮对应的特征点,所述距离信息则包括所述左上眼皮对应的特征点与左下眼皮对应的特征点之间的空间距离。当然,所述距离信息可包括多个特征之间的距离,具体则根据预先配置的设置而定。需要说明的是,计算所述至少两个特征点之间的距离信息的方式,可采用现有技术中能够实现的该计算的算法即可,本案不作进一步限定。

在一些可能实施的实施例中,所述眼睛特征点集合包括左上眼皮特征点、左下眼皮特征点、右上眼皮特征点以及右下眼皮特征点。相对应地,所述距离信息则包括所述左上眼皮特征点与左下眼皮特征点对应的位置信息、所述右上眼皮特征点以右下眼皮特征点的位置信息、所述左上眼皮特征点与右上眼皮特征点的位置信息以及所述左下眼皮特征点与右下眼皮特征点的位置信息。当然,根据排列组合可得到更多的距离信息,本案优选上述四个距离信息,具体实施例如下:

所述距离信息包括第一距离、第二距离、第三距离以及第四距离;

对应的,所述根据所述特征点对应的位置信息,计算所述特征点之间的距离信息,包括:

获取所述左上眼皮特征点、左下眼皮特征点、右上眼皮特征点以及右下眼皮特征点对应的位置信息;

根据所述左上眼皮特征点与左下眼皮特征点的位置信息,计算第一距离;

根据所述右上眼皮特征点以右下眼皮特征点的位置信息,计算第二距离;

根据所述左上眼皮特征点与右上眼皮特征点的位置信息,计算第三距离;

根据所述左下眼皮特征点与右下眼皮特征点的位置信息,计算第四距离。

在本实施例中,根据所述左上眼皮特征点、左下眼皮特征点、右上眼皮特征点以及右下眼皮特征点对应的位置信息,可计算两两特征点之间的空间距离,分别优选为上述的第一距离、第二距离、第三距离以及第四距离。需要说明的是,所述左上眼皮特征点与所述坐下眼皮特征点优选为眼睛中心点在垂直方向与左上眼皮和左下眼皮的交叉点,也即左上眼皮和左下眼皮与眼睛中垂线的交叉点,即与所述左上眼皮特征点、左下眼皮特征点互相对应。则,所述第一距离对应的即为左上眼皮和左下眼皮与眼睛中垂线的交叉点之间的距离。优选右眼设置也与左眼相同。

在一些可能实施的实施例中,所述左上眼皮特征点、左下眼皮特征点、右上眼皮特征点以及右下眼皮特征点对应的位置还可为其他点,例如左上眼皮特征点、左下眼皮特征点,均设置左眼角向右眼角预设水平方向平移预设距离,即为所述左上眼皮特征点、左下眼皮特征点对应的位置。

S103:基于所述距离信息与对应的标准值的比对结果,确定用户当前的情绪。

在本实施例中,参照上述实施例进行阐述,所述距离信息包括第一距离、第二距离、第三距离以及第四距离,则所述与所述距离信息对应的标准值也包括四个,可为与第一距离对应的第一标准值、与第二距离对应的第二标准值、与第三距离对应的第三标准值以及与第四距离对应的第四标准值。当获取到所述距离信息之后,自动调用预先获取的标准值,与所述距离信息进行相对应的比对,根据比对结果,确认用户当前的情绪状态。举个例子,当所述第一距离与第一标准的比对结果为第一比对结果,而第一比对结果对应的情绪为愤怒,则用户当前的情绪状态则为愤怒。

在一些可能实施的实施例中,所述标准值的获取方式可为预先录入,可提示引导用户进行标准值录入。具体步骤可为:登录线上教育系统后先提示用户进行标准值的录入,提示用户做好表情管理,以微笑或者平常情绪的方式进行人脸图像的获取,再对该人脸图像进行特征提取,以获取各个特征点之间的空间距离,并把该空间距离定义为该用户对应的标准值。另外,该标准值可根据实际情况赋予一定权值,以提高情绪评判的准确性。

在一些可能实施的实施例中,所述基于所述距离信息与对应的标准值的比对结果,确定用户当前的情绪,包括:

当所述第一距离小于第一标准值且所述第二距离小于第二标准值时,输出第一比对结果;

当所述第三距离小于第三标准值且所述第四距离小于第四标准值时,输出第二比对结果;

在预设时间段内,所述第一比对结果的数量超过预设数量阈值时,确定用户当前情绪为犯困状态;

在预设时间段内,所述第二比对结果的数量超过预设数量阈值时,确定用户当前情绪为思考状态。

在本实施例中,所述第一距离小于第一标准值且所述第二距离小于第二标准值时,即左上眼皮与左下眼皮的距离、右上眼皮与右下眼皮的距离均小于用户常规表情的对应的标准值,则可初步评判该用户可能为犯困状态,当然,为了规避误判,则设定预设时间段内该结果(即第一比对结果)的出现次数大于预设次数,则确定该用户为犯困状态。所述第三距离小于第三标准值且所述第四距离小于第四标准值时,即所述左上眼皮与右上眼皮的距离、左下眼皮与右下眼皮的距离变小,用户可能在皱眉,可能为思考状态,同样的,设定预设时间段内该结果(即第二比对结果)的出现次数大于预设次数,则确定该用户为思考状态。

需要说明的是,可根据不同的面部规则,设定不同的距离信息与之相对应,则可确定用户的当前状态,也即其他根据的面不规则确定情绪状态的技术方案也在本案的保护范围之内。

需要说明的是,本案应用场景优选为线上教育的授课老师客户端,能够及时捕获学生的情绪状态,并设置对应情绪状态相应的提示,及时提醒授课老师实行监督职责,并及时调整授课方式,进而提高授课质量。

在一些优选实施例中,所述根据所述至少两个特征点对应的位置信息,计算所述特征点之间的距离信息之前,所述方法还包括:

查找当前用户对应的对应关系列表,获取与该用户相对应的预先录入的标准值。

在其他一些可能实施的实施例中,在所述将用户的人脸采样图像输入预先配置的特征提取模型,获取眼睛特征点集合之前,所述方法还包括:

获取当前用户的视频信息;

确认所述视频信息中图像质量值最大的人脸图像为所述人脸采样图像。

在本实施例中,所述人脸采样图像的获取,是在终端获取的视频信息中进行确认获取的。所述视频信息为当前用户在听课状态的视频信息。所述图像质量值的计算是根据预先配置的计算方式进行计算。比如,可采用CW聚类算法(Chinese_Whisper)对所述人脸特征列表中的人脸特征向量进行聚类。CW聚类算法通过构建无向图,将每个人脸做为无向图中的一个节点,人脸之间的相似度,作为节点之间的边,通过迭代查找一个节点对应的相似度权重累加和来查找类别并进行聚类。具体可为:

所述确认所述视频信息中图像质量值最大的人脸图像为所述人脸采样图像,具体包括:

S201:计算所述视频信息中每一帧所述人脸图像的人脸图像翻转度、人脸图像清晰度、人脸图像亮度以及人脸图像大小度。

其中,所述人脸图像翻转度是指用户人脸相对于终端摄像装置水平面的旋转度,所述人脸图像清晰度是指人脸图像的图像清晰度,所述图像亮度是指当前帧的亮度,所述人脸图像大小度是指人脸图像在当前帧所占面积比例的大小。

S202:根据所述人脸翻转度、人脸图像清晰度、人脸图像亮度以及人脸图像大小度与预先配置且一一对应的权值,计算每一帧所述人脸图像的图像质量值。

其中,所述图像质量值对当前帧的人脸图像的质量评分,分别分翻转度、亮度、清晰度以及面积大小度四个维度进行评分。同时,为了实现评分的准确,可根据实际需求一一配置一个相对应的权值,权值的取值可取决于多次试验的经验值,本案不做进一步限定。

在一些优选实施例中,所述图像质量值的计算公式可为S=a*q1+b*q2+c*q3+d*q4,所述a、b、c、d分别代表所述人脸翻转度、人脸图像清晰度、人脸图像亮度以及人脸图像大小度,所述q1、q2、q3、q4分别代表所述人脸翻转度、人脸图像清晰度、人脸图像亮度以及人脸图像大小度的权值,所述a、b、c、d可为正数也可为负数,可为预定区间内的,具体根据实际需求进行的定义。

S203:对每一帧所述人脸图像的图像质量值进行排序,确认排序最前的图像质量值对应的人脸图像为所述人脸采样图像。

其中,所述图像质量值的分数越高,当前人脸图像的质量则越高,取排序最前的图像质量值对应的人脸图像即为质量最高的人脸图像,定义该人脸图像为人脸采样图像,提高后续的情绪识别的准确性。

本发明的实施方式与现有技术相比存在的有益效果是:通过先将用户的人脸采样图像输入预先配置的特征提取模型,获取眼睛特征点集合,其中,所述眼睛特征点集合包括至少两个特征点,所述特征提取模型为经训练后的卷积神经网络模型,然后根据所述至少两个特征点对应的位置信息,计算所述特征点之间的距离信息,最后基于所述距离信息与对应的标准值的比对结果,确定用户当前的情绪。通过对用户的人脸采样图像进行特征分解,进而判断当前用户的情绪状态,解决了传统线上教育无法直观评判用户的情绪状态这一技术问题,以使授课老师能够直接获取用户的情绪状态,从而进行对应授课调整,实现更高质量的线上教育。

对应于上文中的一种基于线上教育的情绪识别方法实施例中所述的一种基于线上教育的情绪识别装置,图3示出了本申请实施例一提供的一种基于线上教育的情绪识别装置的结构框图,为了便于说明,仅示出了与本申请实施例相关的部分。

参照图3,一种基于线上教育的情绪识别装置300,所述装置300包括:

获取模块301,用于将用户的人脸采样图像输入预先配置的特征提取模型,获取眼睛特征点集合,其中,所述眼睛特征点集合包括至少两个特征点,所述特征提取模型为经训练后的卷积神经网络模型;

计算模块302,用于根据所述至少两个特征点对应的位置信息,计算所述特征点之间的距离信息;

确定模块303,用于基于所述距离信息与对应的标准值的比对结果,确定用户当前的情绪。

在其他一些可能实施的实施例中,所述眼睛特征点集合包括左上眼皮特征点、左下眼皮特征点、右上眼皮特征点以及右下眼皮特征点。

在其他一些可能实施的实施例中,所述距离信息包括第一距离、第二距离、第三距离以及第四距离;

对应的,所述计算模块302还具体用于:

获取所述左上眼皮特征点、左下眼皮特征点、右上眼皮特征点以及右下眼皮特征点对应的位置信息;

根据所述左上眼皮特征点与左下眼皮特征点的位置信息,计算第一距离;

根据所述右上眼皮特征点以右下眼皮特征点的位置信息,计算第二距离;

根据所述左上眼皮特征点与右上眼皮特征点的位置信息,计算第三距离;

根据所述左下眼皮特征点与右下眼皮特征点的位置信息,计算第四距离。

在其他一些可能实施的实施例中,所述确定模块303具体用于:

当所述第一距离小于第一标准值且所述第二距离小于第二标准值时,输出第一比对结果;

当所述第三距离小于第三标准值且所述第四距离小于第四标准值时,输出第二比对结果;

在预设时间段内,所述第一比对结果的数量超过预设数量阈值时,确定用户当前情绪为犯困状态;

在预设时间段内,所述第二比对结果的数量超过预设数量阈值时,确定用户当前情绪为思考状态。

在其他一些可能实施的实施例中,所述装置300还包括:

查找模块,用于查找当前用户对应的对应关系列表,获取与该用户相对应的预先录入的标准值。

在其他一些可能实施的实施例中,所述装置300还包括:

第二获取模块,用于获取当前用户的视频信息;

第二确定模块,用于确认所述视频信息中图像质量值最大的人脸图像为所述人脸采样图像。

在其他一些可能实施的实施例中,所述第二确定模块具体用于:

计算所述视频信息中每一帧所述人脸图像的人脸图像翻转度、人脸图像清晰度、人脸图像亮度以及人脸图像大小度;

根据所述人脸翻转度、人脸图像清晰度、人脸图像亮度以及人脸图像大小度与预先配置且一一对应的权值,计算每一帧所述人脸图像的图像质量值;

对每一帧所述人脸图像的图像质量值进行排序,确认排序最前的图像质量值对应的人脸图像为所述人脸采样图像。

需要说明的是,上述装置/模块之间的信息交互、执行过程等内容,由于与本申请的一种基于线上教育的情绪识别方法实施例基于同一构思,其具体功能及带来的技术效果,具体可参见一种基于线上教育的情绪识别方法实施例部分,此处不再赘述。

所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将所述一种基于线上教育的情绪识别装置300的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述中各功能模块的具体工作过程,可以参考前述一种基于线上教育的情绪识别方法实施例中的对应过程,在此不再赘述。

图4是本申请实施例三提供的电子设备400的结构示意图。如图4所示,电子设备400包括:处理器402、存储器401以及存储在存储器401中并可在处理器402上运行的计算机程序403。处理器402的个数是至少一个,图4以一个为例。处理器402执行计算机程序403时实现上述项目一种基于线上教育的情绪识别的实现步骤,即图1或者图2所示的步骤。

电子设备400的具体实现过程可以参见上文中的一种基于线上教育的情绪识别方法实施例。

示例性的,计算机程序403可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在存储器401中,并由处理器402执行,以完成本申请。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述计算机程序403在终端设备400中的执行过程。

电子设备400可以是桌上型计算机、笔记本、掌上电脑、主控等计算设备,也可以是相机、手机等具有图像采集功能和数据处理功能的设备,还可以是触控显示设备。电子设备400可包括,但不仅限于,处理器以及存储器。本领域技术人员可以理解,图4仅是电子设备400的示例,并不构成对电子设备400的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如电子设备400还可以包括输入输出设备、网络接入设备、总线等。

处理器402可以是CPU(Central Processing Unit,中央处理单元),还可以是其他通用处理器、DSP(Digital Signal Processor,数字信号处理器)、ASIC(ApplicationSpecific Integrated Circuit,专用集成电路)、FPGA(Field-Programmable Gate Array,现成可编程门阵列)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。

存储器401可以是电子设备400的内部存储单元,例如硬盘或内存。存储器401也可以是终端设备400的外部存储设备,例如电子设备400上配备的插接式硬盘、SMC(SmartMedia Card,智能存储卡)、SD卡(Secure Digital,安全数字卡)、Flash Card(闪存卡)等。进一步地,存储器401还可以既包括电子设备400的内部存储单元也包括外部存储设备。存储器401用于存储操作系统、应用程序、引导装载程序、数据以及其他程序等,例如所述计算机程序403的程序代码等。存储器401还可以用于暂时地存储已经输出或者将要输出的数据。

本申请实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现可实现上文中的一种基于线上教育的情绪识别方法实施例中的步骤。

集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请实现上述项目一种基于线上教育的情绪识别方法实施例中的全部或部分流程,可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述一种基于线上教育的情绪识别方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质至少可以包括:能够将计算机程序代码携带到拍照装置/终端设备的任何实体或装置、记录介质、计算机存储器、ROM(Read-OnlyMemory,只读存储器)、RAM(Random Access Memory,随机存取存储器)、电载波信号、电信信号以及软件分发介质。例如U盘、移动硬盘、磁碟或者光盘等。在某些司法管辖区,根据立法和专利实践,计算机可读介质不可以是电载波信号和电信信号。

在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。

本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。

在本申请所提供的实施例中,应该理解到,所揭露的装置/终端设备和方法,可以通过其它的方式实现。例如,以上所描述的装置/终端设备实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。

所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。

以上所述实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围,均应包含在本申请的保护范围之内。

相关技术
  • 一种基于线上教育的情绪识别方法、装置及电子设备
  • 基于语音的情绪识别方法、装置、电子设备及存储介质
技术分类

06120112739846