掌桥专利:专业的专利平台
掌桥专利
首页

基于互联网的人才线上面试数据分析系统及方法

文献发布时间:2023-06-19 12:14:58


基于互联网的人才线上面试数据分析系统及方法

技术领域

本发明涉及互联网技术领域,具体为基于互联网的人才线上面试数据分析系统及方法。

背景技术

如今校园招聘采取线上面试的形式已经成为主流,现在不少企业的校招公告都能看到线上面试的身影,线上面试一般是语音或视频,但是从现在各公司发布的招聘信息来看,视频占绝大部分,而且科学研究表明,信息的全部表达分为语言、声音和语调、肢体语言等三部分,其中语言为7%,声音和语调为38%,肢体语言为55%,所以对于信息的获取,肢体语言是占很大一部分的,但是在线上面试的过程中,肢体语言信息恰恰是最难获取到的。

现有技术仍然存在着诸多不足,企业在线上面试的过程中,采取面试官问面试者答的形式,而且面试官的问题在一定程度上是有局限性的,如存在固定的题库,从题库获取问题信息,同时线上面试与线下面试最大的区别在于,面试官在线上面试过程中对面试者的整体形象无法有一个直观感受,在线下的面试过程中,面对面的交流可以使问题变得更加有随机性,不至于限定在题库范围内,因此能够对面试者的综合评价能够更加全面,反而线上面试采取的问答形式难以达到线下面试的效果,且缺乏一定程度的科学性和客观性,从而影响了面试官对面试者的综合评价。

基于上述问题,亟待提出基于互联网的人才线上面试数据分析系统及方法,通过获取面试者的面试背景,并对面试背景的混乱程度进行分析,进一步分析面试者的肢体动作混乱程度以及面试者的视线位置偏离程度、语音连贯程度,从而根据面试背景混乱程度、肢体动作混乱程度、视线位置偏离程度以及语音连贯程度计算此次面试对于面试者的综合评价,能够解决传统线上面试过程对于肢体语言信息的获取难度,并且使得对于面试者的评价更全面。

发明内容

本发明的目的在于提供基于互联网的人才线上面试数据分析系统及方法,以解决上述背景技术中提出的问题。

为了解决上述技术问题,本发明提供如下技术方案:

基于互联网的人才线上面试数据分析系统,包括面试背景采集模块、面试背景混乱程度分析模块、肢体动作获取模块、肢体位置定位模块、肢体动作混乱程度分析模块、视线位置定位模块、视线位置偏离分析模块、语音识别模块、语音连贯程度分析模块、面试数据综合分析模块,

所述面试背景采集模块用于采集面试者的面试环境中的背景图片,所述面试背景 混乱程度分析模块通过面试背景采集模块获取采集到的背景图片,并对背景图片的混乱程 度进行分析,所述肢体动作获取模块用于获取面试者的肢体动作,所述肢体位置定位模块 用于对肢体位置进行定位,所述肢体动作混乱程度分析模块用于根据获取到的肢体动作以 及肢体位置的定位对肢体动作的混乱程度进行分析,所述视线位置定位模块用于对面试者 的视线触及位置进行实时定位,所述视线位置偏离分析模块用于根据视线触及位置的实时 定位变化对视线的位置偏离进行分析,所述语音识别模块用于识别面试者以及面试人员的 语音区别,所述语音连贯程度分析模块用于分析面试过程中的语音连贯程度,所述面试数 据综合分析模块用于根据面试背景混乱程度

进一步的,所述面试背景采集模块连接所述面试背景混乱程度分析模块,所述面试背景采集模块在面试者接通线上视频面试时对面试者的面试背景图片进行采集,所述面试背景混乱程度分析模块通过所述面试背景采集模块获取采集到的面试背景图片,所述面试背景混乱程度分析模块对面试背景图片中颜色分布进行分析,所述面试背景混乱程度分析模块提取面试背景图片中的物体颜色,根据提取到的物体颜色绘制颜色分布图,并进一步对颜色分布图中各种颜色的分布区域以及分布区域的形状进行分析,

所述面试背景混乱程度分析模块根据颜色分布区域统计区域数量,并进一步获取任一颜色分布区域的形状,判断所述任一颜色分布区域的对称性,在线上面试的过程中,面试官无法对面试者的整体形象有一个直观的感受,但是在面试过程中,一个人的整体形象也是一个比较关键的影响因素,对于某些工作性质,对于个人形象的要求很高,而且,同样从个人形象也能够看出面试者对于本次面试的重视程度,同样的着装也能从侧面反应一个人的性格,同时因为工作性质的不同,一个人的性格也是决定其是否能胜任该份工作的关键,所以在无法获取其整体形象的时候,对于其面试背景的混乱程度进行分析,一般的线上面试都是会约好时间,所以面试背景的选择是具有面试者的主观性在里面的,如果说面试的背景很混乱,那么从侧面反应的问题就是面试者对此次面试不重视又或者是面试者不够细心,而对于一些细致的工作,细心又恰恰是必须具备的品质,因此,通过对面试背景中的颜色进行提取,判断每一个颜色分布区域的对称性,从而以获得一个反映面试背景混乱程度的值。

进一步的,所述面试背景混乱程度分析模块以竖直线为所述任一颜色分布区域的 对称轴,并于对称轴任意一侧的颜色分布区域的边缘建立若干第一对称点,所述面试背景 混乱程度分析模块根据对称轴、第一对称点于对称轴另一侧确定第二对称点的位置,并统 计位于另一侧颜色分布区域边缘上的第二对称点数量,记数量为

并对没有位于另一侧颜色分布区域边缘上的第二对称点进行标记,进一步获取标 记对称点距另一侧颜色分布区域边缘的距离,统计距离小于等于距离阈值的标记对称点数 量,记数量为

所述面试背景混乱程度分析模块记第一对称点的数量为

进一步的,所述肢体动作混乱程度分析模块连接所述肢体动作获取模块以及肢体位置定位模块,所述肢体动作获取模块在面试者接通线上视频面试时对面试者的肢体动作进行获取,所述肢体位置定位模块根据获取到的肢体动作于面试者肢体上建立若干个移动参照点,所述肢体动作混乱程度分析模块根据移动参照点的位置移动频率以及位置移动规律对面试者的肢体动作混乱程度进行分析。

进一步的,所述肢体动作混乱程度分析模块将最先获取到的所有肢体上的移动参 照点位置作为第一原始点位置,并从建立第一原始点位置的时刻开始,于一定时间段内分 析所有第一原始点位置的移动频率,当所述第一原始点移动的距离大于等于第一预设值 时,记作一次第一原始点的移动,统计所有第一原始点位置的移动次数,并进一步根据所述 移动次数与所述一定时间段计算在该时间段内各个第一原始点的移动频率

所述肢体动作混乱程度分析模块在所述一定时间段结束时,以所述一定时间段的 结束时刻作为下一时间段的开始时刻,以所述开始时刻获取到的移动参照点位置作为第二 原始点位置,并从所述开始时刻开始,于所述一定时间段内分析所有第二原始点位置的移 动频率

进一步的,所述视线位置定位模块连接所述视线位置偏离分析模块、肢体位置定位模块以及语音识别模块,

所述视线位置定位模块在面试者接通线上视频面试时对面试者的视线位置进行锁定,所述语音识别模块对面试者与面试人员的语音进行识别,

若当前识别语音为面试者发出,则通过肢体位置定位模块获取面试者的肢体位 置,当所述肢体位置移动距离大于等于第一预设值时,记作一次肢体动作,所述视线位置偏 离分析模块通过视线位置定位模块获取当前面试者的视线位置,并进一步获取肢体移动部 位,若当前面试者的移动部位为手部,则判断视线位置是否对应面试者的手部位置,记录面 试者的肢体移动次数

若当前识别语音为面试人员发出,则通过视线位置定位模块获取当前面试者的视 线位置,所述视线位置偏离分析模块获取面试者的视线移动次数

所述视线位置偏离分析模块进一步计算面试者的视线偏离程度

进一步的,所述语音识别模块连接所述语音连贯程度分析模块,所述语音识别模块在面试者接通线上视频面试时对整个面试过程中的语音进行识别,判断当前是面试者说话还是面试人员在说话,

若当前语音为面试者发出,在面试者发言的时间段

若当前语音为面试人员发出,在面试人员发言的时间段

所述语音连贯程度分析模块进一步计算面试者的语音连贯程度

进一步的,所述面试数据综合分析模块连接所述面试背景混乱程度分析模块、肢体动作混乱程度分析模块、视线位置偏离程度分析模块以及语音连贯程度分析模块,

所述面试数据综合分析模块进一步获取所述面试背景混乱程度

进一步的,基于互联网的人才线上面试数据分析方法,所述面试数据分析方法包括以下步骤:

S1:分析面试者的面试背景混乱程度;

S2:分析面试者的肢体动作混乱程度;

S3:分析面试者的视线位置偏离程度;

S4:分析面试者的语音连贯程度;

S5:根据面试背景混乱程度、肢体动作混乱程度、视线位置偏离程度以及语音连贯程度计算此次面试对于面试者的综合评价。

进一步的,所述面试数据分析方法还包括以下步骤:

S1-1:面试背景采集模块连接面试背景混乱程度分析模块,面试背景采集模块在面试者接通线上视频面试时对面试者的面试背景图片进行采集,面试背景混乱程度分析模块通过面试背景采集模块获取采集到的面试背景图片,面试背景混乱程度分析模块对面试背景图片中颜色分布进行分析,面试背景混乱程度分析模块提取面试背景图片中的物体颜色,根据提取到的物体颜色绘制颜色分布图,并进一步对颜色分布图中各种颜色的分布区域以及分布区域的形状进行分析,

面试背景混乱程度分析模块根据颜色分布区域统计区域数量,并进一步获取任一 颜色分布区域的形状,判断任一颜色分布区域的对称性,面试背景混乱程度分析模块以竖 直线为任一颜色分布区域的对称轴,并于对称轴任意一侧的颜色分布区域的边缘建立若干 第一对称点,面试背景混乱程度分析模块根据对称轴、第一对称点于对称轴另一侧确定第 二对称点的位置,并统计位于另一侧颜色分布区域边缘上的第二对称点数量,记数量为

并对没有位于另一侧颜色分布区域边缘上的第二对称点进行标记,进一步获取标 记对称点距另一侧颜色分布区域边缘的距离,统计距离小于等于距离阈值的标记对称点数 量,记数量为

面试背景混乱程度分析模块记第一对称点的数量为

S2-1:肢体动作混乱程度分析模块连接肢体动作获取模块以及肢体位置定位模块,

肢体动作获取模块在面试者接通线上视频面试时对面试者的肢体动作进行获取,肢体位置定位模块根据获取到的肢体动作于面试者肢体上建立若干个移动参照点,肢体动作混乱程度分析模块根据移动参照点的位置移动频率以及位置移动规律对面试者的肢体动作混乱程度进行分析,

肢体动作混乱程度分析模块将最先获取到的所有肢体上的移动参照点位置作为 第一原始点位置,并从建立第一原始点位置的时刻开始,于一定时间段内分析所有第一原 始点位置的移动频率,当第一原始点移动的距离大于等于第一预设值时,记作一次第一原 始点的移动,统计所有第一原始点位置的移动次数,并进一步根据移动次数与一定时间段 计算在该时间段内各个第一原始点的移动频率

肢体动作混乱程度分析模块在一定时间段结束时,以一定时间段的结束时刻作为 下一时间段的开始时刻,以开始时刻获取到的移动参照点位置作为第二原始点位置,并从 开始时刻开始,于一定时间段内分析所有第二原始点位置的移动频率

S3-1:视线位置定位模块连接视线位置偏离分析模块、肢体位置定位模块以及语音识别模块,

视线位置定位模块在面试者接通线上视频面试时对面试者的视线位置进行锁定,语音识别模块对面试者与面试人员的语音进行识别,

若当前识别语音为面试者发出,则通过肢体位置定位模块获取面试者的肢体位 置,当肢体位置移动距离大于等于第一预设值时,记作一次肢体动作,视线位置偏离分析模 块通过视线位置定位模块获取当前面试者的视线位置,并进一步获取肢体移动部位,若当 前面试者的移动部位为手部,则判断视线位置是否对应面试者的手部位置,记录面试者的 肢体移动次数

若当前识别语音为面试人员发出,则通过视线位置定位模块获取当前面试者的视 线位置,视线位置偏离分析模块获取面试者的视线移动次数

视线位置偏离分析模块进一步计算面试者的视线偏离程度

S4-1:语音识别模块连接语音连贯程度分析模块,语音识别模块在面试者接通线上视频面试时对整个面试过程中的语音进行识别,判断当前是面试者说话还是面试人员在说话,

若当前语音为面试者发出,在面试者发言的时间段

若当前语音为面试人员发出,在面试人员发言的时间段

语音连贯程度分析模块进一步计算面试者的语音连贯程度

S5-1:面试数据综合分析模块连接面试背景混乱程度分析模块、肢体动作混乱程度分析模块、视线位置偏离程度分析模块以及语音连贯程度分析模块,

面试数据综合分析模块进一步获取面试背景混乱程度

与现有技术相比,本发明所达到的有益效果是:本发明通过获取面试者的面试背景,并对面试背景的混乱程度进行分析,进一步分析面试者的肢体动作混乱程度以及面试者的视线位置偏离程度、语音连贯程度,从而根据面试背景混乱程度、肢体动作混乱程度、视线位置偏离程度以及语音连贯程度计算此次面试对于面试者的综合评价,能够解决传统线上面试过程对于肢体语言信息的获取难度,并且使得对于面试者的评价更全面。

附图说明

附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。在附图中:

图1是本发明基于互联网的人才线上面试数据分析系统的模块示意图;

图2是本发明基于互联网的人才线上面试数据分析方法的步骤示意图。

具体实施方式

下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。

请参阅图1-图2,本发明提供技术方案:

基于互联网的人才线上面试数据分析系统,包括面试背景采集模块、面试背景混乱程度分析模块、肢体动作获取模块、肢体位置定位模块、肢体动作混乱程度分析模块、视线位置定位模块、视线位置偏离分析模块、语音识别模块、语音连贯程度分析模块、面试数据综合分析模块,

面试背景采集模块用于采集面试者的面试环境中的背景图片,面试背景混乱程度 分析模块通过面试背景采集模块获取采集到的背景图片,并对背景图片的混乱程度进行分 析,肢体动作获取模块用于获取面试者的肢体动作,肢体位置定位模块用于对肢体位置进 行定位,肢体动作混乱程度分析模块用于根据获取到的肢体动作以及肢体位置的定位对肢 体动作的混乱程度进行分析,视线位置定位模块用于对面试者的视线触及位置进行实时定 位,视线位置偏离分析模块用于根据视线触及位置的实时定位变化对视线的位置偏离进行 分析,语音识别模块用于识别面试者以及面试人员的语音区别,语音连贯程度分析模块用 于分析面试过程中的语音连贯程度,面试数据综合分析模块用于根据面试背景混乱程度

面试背景采集模块连接面试背景混乱程度分析模块,面试背景采集模块在面试者接通线上视频面试时对面试者的面试背景图片进行采集,面试背景混乱程度分析模块通过面试背景采集模块获取采集到的面试背景图片,面试背景混乱程度分析模块对面试背景图片中颜色分布进行分析,面试背景混乱程度分析模块提取面试背景图片中的物体颜色,根据提取到的物体颜色绘制颜色分布图,并进一步对颜色分布图中各种颜色的分布区域以及分布区域的形状进行分析,

面试背景混乱程度分析模块根据颜色分布区域统计区域数量,并进一步获取任一颜色分布区域的形状,判断任一颜色分布区域的对称性。

面试背景混乱程度分析模块以竖直线为任一颜色分布区域的对称轴,并于对称轴 任意一侧的颜色分布区域的边缘建立若干第一对称点,面试背景混乱程度分析模块根据对 称轴、第一对称点于对称轴另一侧确定第二对称点的位置,并统计位于另一侧颜色分布区 域边缘上的第二对称点数量,记数量为

并对没有位于另一侧颜色分布区域边缘上的第二对称点进行标记,进一步获取标 记对称点距另一侧颜色分布区域边缘的距离,统计距离小于等于距离阈值的标记对称点数 量,记数量为

面试背景混乱程度分析模块记第一对称点的数量为

肢体动作混乱程度分析模块连接肢体动作获取模块以及肢体位置定位模块,肢体动作获取模块在面试者接通线上视频面试时对面试者的肢体动作进行获取,肢体位置定位模块根据获取到的肢体动作于面试者肢体上建立若干个移动参照点,肢体动作混乱程度分析模块根据移动参照点的位置移动频率以及位置移动规律对面试者的肢体动作混乱程度进行分析。

肢体动作混乱程度分析模块将最先获取到的所有肢体上的移动参照点位置作为 第一原始点位置,并从建立第一原始点位置的时刻开始,于一定时间段内分析所有第一原 始点位置的移动频率,当第一原始点移动的距离大于等于第一预设值时,记作一次第一原 始点的移动,统计所有第一原始点位置的移动次数,并进一步根据移动次数与一定时间段 计算在该时间段内各个第一原始点的移动频率

肢体动作混乱程度分析模块在一定时间段结束时,以一定时间段的结束时刻作为 下一时间段的开始时刻,以开始时刻获取到的移动参照点位置作为第二原始点位置,并从 开始时刻开始,于一定时间段内分析所有第二原始点位置的移动频率

视线位置定位模块连接视线位置偏离分析模块、肢体位置定位模块以及语音识别模块,

视线位置定位模块在面试者接通线上视频面试时对面试者的视线位置进行锁定,语音识别模块对面试者与面试人员的语音进行识别,

若当前识别语音为面试者发出,则通过肢体位置定位模块获取面试者的肢体位 置,当肢体位置移动距离大于等于第一预设值时,记作一次肢体动作,视线位置偏离分析模 块通过视线位置定位模块获取当前面试者的视线位置,并进一步获取肢体移动部位,若当 前面试者的移动部位为手部,则判断视线位置是否对应面试者的手部位置,记录面试者的 肢体移动次数

若当前识别语音为面试人员发出,则通过视线位置定位模块获取当前面试者的视 线位置,视线位置偏离分析模块获取面试者的视线移动次数

视线位置偏离分析模块进一步计算面试者的视线偏离程度

语音识别模块连接语音连贯程度分析模块,语音识别模块在面试者接通线上视频面试时对整个面试过程中的语音进行识别,判断当前是面试者说话还是面试人员在说话,

若当前语音为面试者发出,在面试者发言的时间段

若当前语音为面试人员发出,在面试人员发言的时间段

语音连贯程度分析模块进一步计算面试者的语音连贯程度

面试数据综合分析模块连接面试背景混乱程度分析模块、肢体动作混乱程度分析模块、视线位置偏离程度分析模块以及语音连贯程度分析模块,

面试数据综合分析模块进一步获取面试背景混乱程度

基于互联网的人才线上面试数据分析方法,面试数据分析方法包括以下步骤:

S1:分析面试者的面试背景混乱程度;

S2:分析面试者的肢体动作混乱程度;

S3:分析面试者的视线位置偏离程度;

S4:分析面试者的语音连贯程度;

S5:根据面试背景混乱程度、肢体动作混乱程度、视线位置偏离程度以及语音连贯程度计算此次面试对于面试者的综合评价。

面试数据分析方法还包括以下步骤:

S1-1:面试背景采集模块连接面试背景混乱程度分析模块,面试背景采集模块在面试者接通线上视频面试时对面试者的面试背景图片进行采集,面试背景混乱程度分析模块通过面试背景采集模块获取采集到的面试背景图片,面试背景混乱程度分析模块对面试背景图片中颜色分布进行分析,面试背景混乱程度分析模块提取面试背景图片中的物体颜色,根据提取到的物体颜色绘制颜色分布图,并进一步对颜色分布图中各种颜色的分布区域以及分布区域的形状进行分析,

面试背景混乱程度分析模块根据颜色分布区域统计区域数量,并进一步获取任一 颜色分布区域的形状,判断任一颜色分布区域的对称性,面试背景混乱程度分析模块以竖 直线为任一颜色分布区域的对称轴,并于对称轴任意一侧的颜色分布区域的边缘建立若干 第一对称点,面试背景混乱程度分析模块根据对称轴、第一对称点于对称轴另一侧确定第 二对称点的位置,并统计位于另一侧颜色分布区域边缘上的第二对称点数量,记数量为

并对没有位于另一侧颜色分布区域边缘上的第二对称点进行标记,进一步获取标 记对称点距另一侧颜色分布区域边缘的距离,统计距离小于等于距离阈值的标记对称点数 量,记数量为

面试背景混乱程度分析模块记第一对称点的数量为

S2-1:肢体动作混乱程度分析模块连接肢体动作获取模块以及肢体位置定位模块,

肢体动作获取模块在面试者接通线上视频面试时对面试者的肢体动作进行获取,肢体位置定位模块根据获取到的肢体动作于面试者肢体上建立若干个移动参照点,肢体动作混乱程度分析模块根据移动参照点的位置移动频率以及位置移动规律对面试者的肢体动作混乱程度进行分析,

肢体动作混乱程度分析模块将最先获取到的所有肢体上的移动参照点位置作为 第一原始点位置,并从建立第一原始点位置的时刻开始,于一定时间段内分析所有第一原 始点位置的移动频率,当第一原始点移动的距离大于等于第一预设值时,记作一次第一原 始点的移动,统计所有第一原始点位置的移动次数,并进一步根据移动次数与一定时间段 计算在该时间段内各个第一原始点的移动频率

肢体动作混乱程度分析模块在一定时间段结束时,以一定时间段的结束时刻作为 下一时间段的开始时刻,以开始时刻获取到的移动参照点位置作为第二原始点位置,并从 开始时刻开始,于一定时间段内分析所有第二原始点位置的移动频率

S3-1:视线位置定位模块连接视线位置偏离分析模块、肢体位置定位模块以及语音识别模块,

视线位置定位模块在面试者接通线上视频面试时对面试者的视线位置进行锁定,语音识别模块对面试者与面试人员的语音进行识别,

若当前识别语音为面试者发出,则通过肢体位置定位模块获取面试者的肢体位 置,当肢体位置移动距离大于等于第一预设值时,记作一次肢体动作,视线位置偏离分析模 块通过视线位置定位模块获取当前面试者的视线位置,并进一步获取肢体移动部位,若当 前面试者的移动部位为手部,则判断视线位置是否对应面试者的手部位置,记录面试者的 肢体移动次数

若当前识别语音为面试人员发出,则通过视线位置定位模块获取当前面试者的视 线位置,视线位置偏离分析模块获取面试者的视线移动次数

视线位置偏离分析模块进一步计算面试者的视线偏离程度

S4-1:语音识别模块连接语音连贯程度分析模块,语音识别模块在面试者接通线上视频面试时对整个面试过程中的语音进行识别,判断当前是面试者说话还是面试人员在说话,

若当前语音为面试者发出,在面试者发言的时间段

若当前语音为面试人员发出,在面试人员发言的时间段

语音连贯程度分析模块进一步计算面试者的语音连贯程度

S5-1:面试数据综合分析模块连接面试背景混乱程度分析模块、肢体动作混乱程度分析模块、视线位置偏离程度分析模块以及语音连贯程度分析模块,

面试数据综合分析模块进一步获取面试背景混乱程度

需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。

最后应说明的是:以上所述仅为本发明的优选实施例而已,并不用于限制本发明,尽管参照前述实施例对本发明进行了详细的说明,对于本领域的技术人员来说,其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

相关技术
  • 基于互联网的人才线上面试数据分析系统及方法
  • 基于互联网的人才线上面试数据分析系统及方法
技术分类

06120113227765