掌桥专利:专业的专利平台
掌桥专利
首页

人机交互的方法、装置及计算机可读存储介质

文献发布时间:2023-06-19 19:04:00


人机交互的方法、装置及计算机可读存储介质

技术领域

本申请实施例涉及人工智能领域,并且更为具体地,涉及一种人机交互的方法、装置及计算机可读存储介质。

背景技术

随着人工智能技术的不断地发展,机器人的种类越来越多。其中,家庭机器人是比较重要的一种机器人,其可以通过与用户之间的交互,来增加用户的幸福感、减轻用户的压力。

但是,现有的家庭机器人大多采用被动等待用户发起交互的方式,或使用单一的方式主动向用户发起交互请求,导致用户与家庭机器人的交互意愿较低。因此,如何更有效地吸引用户进行交互成为亟需解决的技术问题。

发明内容

本申请实施例提供一种人机交互的方法、装置及计算机可读存储介质,可以根据不同交互模式对应的不同情况,采用不同的动作主动吸引用户,从而更有效地吸引用户进行交互。

第一方面,提供一种人机交互的方法,该方法应用于人机交互装置,人机交互装置具有多个交互模式,多个交互模式包括第一交互模式和第二交互模式,该方法包括:确定人机交互装置当前处于第一交互模式;执行第一请求交互动作,第一请求交互动作用于在第一交互模式下吸引用户进行交互,其中,第一请求交互动作与第二请求交互动作不同,第二请求交互动作用于在第二交互模式下吸引用户进行交互。

根据本申请提供的技术方案,通过提供多种交互模式,每种交互模式对应不同的交互动作,能够根据不同情况更具有针对性地采取不同的吸引用户的动作,从而更有效地吸引用户进行交互。

结合第一方面,在第一方面的某些实现方式中,该方法还包括:根据用户对第一请求交互动作的反馈,确定人机交互装置的情绪值;根据情绪值,执行情绪动作。

根据上述技术方案,通过根据用户的反馈调整人机交互装置的情绪值,使得人机交互装置能够表现出不同的情绪,从而使人机交互装置具有更强的生命感,提高用户与人机交互装置交互的兴趣。

结合第一方面,在第一方面的某些实现方式中,根据情绪值,执行情绪动作,包括:当情绪值小于或等于第一情绪阈值时,执行表现生气和/或失落的动作。

根据上述技术方案,通过在人机交互装置的情绪值处于较低区间时表现出负面情绪,能够引发用户的同情心,从而引导用户对人机交互装置发出的交互请求做出积极的响应,提高用户与人机交互装置的互动感。

结合第一方面,在第一方面的某些实现方式中,根据情绪值,执行情绪动作,包括:当情绪值大于或等于第二情绪阈值时,执行表现开心的动作。

根据上述技术方案,通过在人机交互装置的情绪值处于较高区间时表现出正面情绪,能够给予用户积极的反馈,从而吸引用户继续对人机交互装置发出的交互请求做出响应,提高用户与人机交互装置的互动感。

结合第一方面,在第一方面的某些实现方式中,该方法还包括:执行第三请求交互动作,第三请求交互动作用于在第一交互模式下根据用户对第一请求交互动作的反馈进一步吸引用户进行交互。

根据上述技术方案,通过根据用户的反馈继续做出不同的请求交互动作,能够进一步地吸引用户,从而更有效地吸引用户进行交互。

结合第一方面,在第一方面的某些实现方式中,该方法还包括:当满足切换条件时,人机交互装置由第一交互模式切换为第二交互模式。

根据上述技术方案,通过当外界情况改变时切换人机交互所处的交互模式,使得人机交互装置能够做出更符合外界情况的请求交互动作,从而更有效地吸引用户进行交互。

结合第一方面,在第一方面的某些实现方式中,确定人机交互装置当前处于第一交互模式,包括:检测到人脸且人脸距离人机交互装置的距离大于第一距离阈值时,确定第一交互模式为人形模式,第一请求交互动作用于吸引用户靠近人机交互装置。

根据上述技术方案,当用户距离人机交互设备较远时,人机交互装置能够通过较明显的动作吸引用户靠近,从而更容易引起用户的注意,更有效地吸引用户进行交互,提高用户的交互体验。

结合第一方面,在第一方面的某些实现方式中,确定人机交互装置当前处于第一交互模式,包括:检测到人脸且人脸距离人机交互装置的距离小于第二距离阈值时,确定第一交互模式为人脸模式,第一请求交互动作用于吸引用户与人机交互装置进行近距离交互。

根据上述技术方案,当用户位于人机交互设备附近时,人机交互装置能够通过动作吸引用户进行近距离的接触,从而提高交互的趣味性,更有效地吸引用户进行交互,提高用户的交互体验。

结合第一方面,在第一方面的某些实现方式中,确定人机交互装置当前处于第一交互模式,包括:检测到控制语音和/或接收到应用程序发出的控制指令时,确定第一交互模式为语控模式,第一请求交互动作用于吸引用户发出语音指令。

根据上述技术方案,当用户将人机交互设备设定为语控模式时,人机交互装置能够通过动作吸引用户发出语音指令,从而对用户的交互方式进行引导,更有效地吸引用户进行交互,提高用户的交互体验。

结合第一方面,在第一方面的某些实现方式中,确定人机交互装置当前处于第一交互模式,包括:检测到特定手势时,确定第一交互模式为手势模式,第一请求交互动作用于按照特定手势的意图吸引用户与人机交互装置互动。

根据上述技术方案,当用户做出有特定含义的手势时,人机交互装置能够做出与手势意义匹配的动作吸引用户进行交互,从而按照用户的意图吸引用户,更有效地吸引用户进行交互,提高用户的交互体验。

第二方面,提供一种人机交互的装置,该装置具有多个交互模式,多个交互模式包括第一交互模式和第二交互模式,该装置包括:模式确定模块,用于确定人机交互装置当前处于第一交互模式;动作执行模块,用于执行第一请求交互动作,第一请求交互动作用于在第一交互模式下吸引用户进行交互,其中,第一请求交互动作与第二请求交互动作不同,第二请求交互动作用于在第二交互模式下吸引用户进行交互。

结合第二方面,在第二方面的某些实现方式中,该装置还包括:情绪确定模块,用于根据用户对第一请求交互动作的反馈,确定人机交互装置的情绪值;动作执行模块,还用于根据情绪值,执行情绪动作。

结合第二方面,在第二方面的某些实现方式中,动作执行模块具体用于:当情绪值小于或等于第一情绪阈值时,执行表现生气和/或失落的动作。

结合第二方面,在第二方面的某些实现方式中,动作执行模块具体用于:当情绪值大于或等于第二情绪阈值时,执行表现开心的动作。

结合第二方面,在第二方面的某些实现方式中,动作执行模块还用于:执行第三请求交互动作,第三请求交互动作用于在第一交互模式下根据用户对第一请求交互动作的反馈进一步吸引用户进行交互。

结合第二方面,在第二方面的某些实现方式中,模式确定模块还用于:当满足切换条件时,人机交互装置由第一交互模式切换为第二交互模式。

结合第二方面,在第二方面的某些实现方式中,模式确定模块具体用于:检测到人脸且人脸距离人机交互装置的距离大于第一距离阈值时,确定第一交互模式为人形模式,第一请求交互动作用于吸引用户靠近人机交互装置。

结合第二方面,在第二方面的某些实现方式中,模式确定模块具体用于:检测到人脸且人脸距离人机交互装置的距离小于第二距离阈值时,确定第一交互模式为人脸模式,第一请求交互动作用于吸引用户与人机交互装置进行近距离交互。

结合第二方面,在第二方面的某些实现方式中,模式确定模块具体用于:检测到控制语音和/或接收到应用程序发出的控制指令时,确定第一交互模式为语控模式,第一请求交互动作用于吸引用户发出语音指令。

结合第二方面,在第二方面的某些实现方式中,模式确定模块具体用于:检测到特定手势时,确定第一交互模式为手势模式,第一请求交互动作用于按照特定手势的意图吸引用户与人机交互装置互动。

第三方面,提供一种人机交互装置,包括处理器和存储器,其中,存储器用于存储指令,处理器用于从存储器中调用并运行该指令,使得该人机交互装置执行第一方面或第一方面任意一种可能的实现方式中的方法。

可选地,该处理器可以是通用处理器,可以通过硬件来实现也可以通过软件来实现。当通过硬件来实现时,该处理器可以是逻辑电路、集成电路等;当通过软件来实现时,该处理器可以是一个通用处理器,通过读取存储器中存储的软件代码来实现,该存储器可以集成在处理器中,可以位于该处理器之外独立存在。

第四方面,提供了一种芯片,该芯片获取指令并执行该指令来实现上述第一方面或第一方面任意一种可能的实现方式中的方法。

可选地,作为一种实现方式,该芯片包括处理器与数据接口,该处理器通过该数据接口读取存储器上存储的指令,执行上述第一方面或第一方面任意一种可能的实现方式中的方法。

可选地,作为一种实现方式,该芯片还可以包括存储器,该存储器中存储有指令,该处理器用于执行该存储器上存储的指令,当该指令被执行时,该处理器用于执行上述第一方面或第一方面任意一种可能的实现方式中的方法。

第五方面,提供了一种包含指令的计算机程序产品,当该指令被人机交互装置运行时,使得人机交互装置执行上述第一方面或第一方面任意一种可能的实现方式中的方法。

第六方面,提供了一种计算机可读存储介质,包括计算机程序指令,当该计算机指令由人机交互装置执行时,使得人机交互装置执行上述第一方面或第一方面任意一种可能的实现方式中的方法。

作为示例,这些计算机可读存储介质包括但不限于如下的一个或者多个:只读存储器(read-only memory,ROM)、可编程ROM(programmable ROM,PROM)、可擦除的PROM(erasable PROM,EPROM)、Flash存储器、电EPROM(electrically EPROM,EEPROM)以及硬盘驱动器(hard drive)。

可选地,作为一种实现方式,上述存储介质具体可以是非易失性存储介质。

附图说明

图1是本申请实施例提供的一种人机交互装置的系统示意图。

图2是本申请实施例提供的一种人机交互的方法的示意性流程框图。

图3是本申请实施例提供的另一人机交互的方法的示意性流程框图。

图4是本申请实施例提供的一种人机交互的装置的示意性结构框图。

图5是本申请实施例提供的一种人机交互装置的示意性结构框图。

具体实施方式

下面将结合附图,对本申请实施例中的技术方案进行描述。

本申请将围绕包括多个设备、组件、模块等的系统来呈现各个方面、实施例或特征。应当理解和明白的是,各个系统可以包括另外的设备、组件、模块等,并且/或者可以并不包括结合附图讨论的所有设备、组件、模块等。此外,还可以使用这些方案的组合。

另外,在本申请实施例中,“示例的”、“例如”等词用于表示作例子、例证或说明。本申请中被描述为“示例”的任何实施例或设计方案不应被解释为比其它实施例或设计方案更优选或更具优势。确切而言,使用示例的一词旨在以具体方式呈现概念。

本申请实施例中,“相应的(corresponding,relevant)”和“对应的(corresponding)”有时可以混用,应当指出的是,在不强调其区别时,其所要表达的含义是一致的。

在本说明书中描述的参考“一个实施例”或“一些实施例”等意味着在本申请的一个或多个实施例中包括结合该实施例描述的特定特征、结构或特点。由此,在本说明书中的不同之处出现的语句“在一个实施例中”、“在一些实施例中”、“在其他一些实施例中”、“在另外一些实施例中”等不是必然都参考相同的实施例,而是意味着“一个或多个但不是所有的实施例”,除非是以其他方式另外特别强调。术语“包括”、“包含”、“具有”及它们的变形都意味着“包括但不限于”,除非是以其他方式另外特别强调。

本申请中,“至少一个”是指一个或者多个,“多个”是指两个或两个以上。“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:包括单独存在A,同时存在A和B,以及单独存在B的情况,其中A,B可以是单数或者复数。字符“/”一般表示前后关联对象是一种“或”的关系。“以下至少一项(个)”或其类似表达,是指的这些项中的任意组合,包括单项(个)或复数项(个)的任意组合。例如,a,b,或c中的至少一项(个),可以表示:a,b,c,a-b,a-c,b-c,或a-b-c,其中a,b,c可以是单个,也可以是多个。

随着人工智能技术的不断地发展,机器人的种类越来越多。其中,家庭机器人是比较重要的一种机器人,其可以通过与用户之间的交互,来增加用户的幸福感、减轻用户的压力。现有的家庭机器人大多采用被动交互模式,即由用户主动发起交互,机器人只能被动接受交互内容。

为了吸引用户进行交互,部分家庭机器人提供了主动交互能力,但是只能按照固定的方式吸引用户进行交互,无法根据不同的外界情况提供更适合的方式,因此交互方式较为单一,无法满足用户对于家庭机器人(例如宠物机器人)具有更强生命感的需求,导致用户与家庭机器人的交互意愿较低。

鉴于此,本申请实施例提供一种人机交互的方法,应用该方法的人机交互装置具有多个交互模式,不同的交互模式对应了不同的外界情况,通过在不同的交互模式下执行不同的请求交互动作,能够根据用户的状态和/或意图使用更有针对性的动作主动吸引用户,从而更有效地吸引用户进行交互。

图1是本申请实施例提供的一种人机交互装置的系统示意图。如图1所示,人机交互装置100可以包括处理器110,执行器111,外部存储器接口120,内部存储器121,通用串行总线(universal serial bus,USB)接口130,充电管理模块140,电源管理模块141,电池142,天线,无线通信模块150,传感器模块160,音频模块170,扬声器170A,麦克风170B,摄像头180,显示屏190等。

可以理解的是,本申请实施例示意的结构并不构成对人机交互装置100的具体限定。在本申请另一些实施例中,人机交互装置100可以包括比图示更多或更少的部件,或者组合某些部件,或者拆分某些部件,或者不同的部件布置。图示的部件可以以硬件,软件或软件和硬件的组合实现。

处理器110可以包括一个或多个处理单元,例如:处理器110可以包括图形处理器(graphics processing unit,GPU),控制器,存储器,等。其中,不同的处理单元可以是独立的器件,也可以集成在一个或多个处理器中。其中,控制器可以是人机交互装置100的神经中枢和指挥中心。控制器可以根据指令操作码和时序信号,产生操作控制信号,完成取指令和执行指令的控制。存储器用于存储指令和数据。在一些实施例中,处理器110中的存储器为高速缓冲存储器。该存储器可以保存处理器110刚用过或循环使用的指令或数据。如果处理器110需要再次使用该指令或数据,可从所述存储器中直接调用。避免了重复存取,减少了处理器110的等待时间,因而提高了系统的效率。

在一些实施例中,处理器110可以包括一个或多个接口。接口可以包括集成电路(inter-integrated circuit,I2C)接口,集成电路内置音频(inter-integrated circuitsound,I2S)接口,脉冲编码调制(pulse code modulation,PCM)接口,通用异步收发传输器(universal asynchronous receiver/transmitter,UART)接口,移动产业处理器接口(mobile industry processor interface,MIPI),通用输入输出(general-purposeinput/output,GPIO)接口,和/或USB接口等。其中,I2C接口是一种双向同步串行总线,包括一根串行数据线(serial data line,SDA)和一根串行时钟线(derail clock line,SCL)。I2S接口可以用于音频通信。在一些实施例中,处理器110可以包含多组I2S总线。处理器110可以通过I2S总线与音频模块170耦合,实现处理器110与音频模块170之间的通信。PCM接口也可以用于音频通信,将模拟信号抽样,量化和编码。在一些实施例中,音频模块170与无线通信模块150可以通过PCM总线接口耦合。UART接口是一种通用串行数据总线,用于异步通信。该总线可以为双向通信总线。它将要传输的数据在串行通信与并行通信之间转换。在一些实施例中,UART接口通常被用于连接处理器110与无线通信模块150。MIPI接口可以被用于连接处理器110与显示屏190,摄像头180等外围器件。GPIO接口可以通过软件配置。GPIO接口可以被配置为控制信号,也可被配置为数据信号。在一些实施例中,GPIO接口可以用于连接处理器110与摄像头180,显示屏190,无线通信模块150,传感器模块160,音频模块170等。

可以理解的是,本申请实施例示意的各模块间的接口连接关系,只是示意性说明,并不构成对人机交互装置100的结构限定。在本申请另一些实施例中,人机交互装置100也可以采用上述实施例中不同的接口连接方式,或多种接口连接方式的组合。

执行器111用于控制人机交互装置100移动、旋转、跳跃等。可选地,在一些实施例中,若人机交互装置100包括耳朵、躯干和腿部,执行器111还用于控制躯干相对于腿部转动、腿部相对于躯干转动、躯干摇晃、或耳朵沿躯干旋转等。可选地,在一些实施例中,执行器111可以包括至少一个电机。

外部存储器接口120可以用于连接外部存储卡,例如Micro SD卡,实现扩展人机交互装置100的存储能力。

内部存储器121可以用于存储计算机可执行程序代码,所述可执行程序代码包括指令。处理器110通过运行存储在内部存储器121的指令,从而执行人机交互装置100的各种功能应用以及数据处理。内部存储器121可以包括存储程序区和存储数据区。其中,存储程序区可存储操作系统,至少一个功能所需的应用程序(比如声音播放功能,图像播放功能等)等。存储数据区可存储人机交互装置100使用过程中所创建的数据(比如音频数据等)等。此外,内部存储器121可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件,闪存器件,通用闪存存储器(universal flash storage,UFS)等。

USB接口130是符合USB标准规范的接口,具体可以是Mini USB接口,Micro USB接口,USB Type C接口等。USB接口130可以用于连接充电器为人机交互装置100充电,也可以用于人机交互装置100与外围设备之间传输数据。

充电管理模块140用于从充电器接收充电输入。其中,充电器可以是无线充电器,也可以是有线充电器。在一些有线充电的实施例中,充电管理模块140可以通过USB接口130接收有线充电器的充电输入。在一些无线充电的实施例中,充电管理模块140可以通过人机交互装置100的无线充电线圈接收无线充电输入。充电管理模块140为电池142充电的同时,还可以通过电源管理模块141为电子设备供电。电源管理模块141用于连接电池142,充电管理模块140与处理器110。

无线通信模块150可以提供应用在人机交互装置100上的包括无线局域网(wireless local area networks,WLAN)(如无线保真(wireless fidelity,Wi-Fi)网络),蓝牙(bluetooth,BT)等无线通信的解决方案。

在一些实施例中,人机交互装置100的天线和无线通信模块150耦合,使得人机交互装置100可以通过无线通信技术与网络以及其他设备通信。

传感器模块160可以包括至少一个传感器。例如,传感器模块160包括压力传感器、触摸传感器、距离传感器等。其中,压力传感器用于感受压力信号,可以将压力信号转换成电信号。在一些实施例中,压力传感器/触摸传感器可以设置于人机交互装置的头顶、颈部、背部、腹部等位置,用于感知用户的抚摸、轻拍等交互动作。距离传感器用于测量距离。触摸传感器,也称“触控面板”,可以设置于显示屏190,由触摸传感器与显示屏190组成触摸屏,也称“触控屏”。在一些实施例中,显示屏190可以显示表情动画,表现人机交互装置的当前情绪状态。

音频模块170用于将数字音频信息转换成模拟音频信号输出,也用于将模拟音频输入转换为数字音频信号。音频模块170还可以用于对音频信号编码和解码。在一些实施例中,音频模块170可以设置于处理器110中,或将音频模块170的部分功能模块设置于处理器110中。扬声器170A,也称“喇叭”,用于将音频电信号转换为声音信号。麦克风170B,也称“话筒”,“传声器”,用于将声音信号转换为电信号。

人机交互装置100可以通过音频模块170,扬声器170A,麦克风170B,以及处理器110等实现音频功能。例如语音播放,录音等。

摄像头180用于捕获静态图像或视频,以便处理器110可以根据摄像头180获取的图像或视频进行事件的检测,从而可以对事件进行反馈等。

显示屏190用于显示图像,视频等。

图2示出了本申请实施例提供的一种人机交互的方法的示意性流程图。可选地,图2的方法可以由图1所示的人机交互装置100执行。

如图2所示,该方法包括如下步骤。

S210:确定人机交互装置当前处于第一交互模式。

例如,人机交互装置可以包括多个交互模式,在步骤S210中,人机交互装置能够根据外界情况确定当前处于多个交互模式之一的第一交互模式。可选地,人机交互装置的交互模式可以包括但不限于人形模式、人脸模式、语控模式、手势模式等。第一交互模式可以是上述人机交互模式中的任意一种。

例如,当用户距离人机交互装置较远时,第一交互模式可以是人形模式。具体地,人机交互装置可以根据是否检测到人脸以及与人脸的距离确定是否处于人形模式。例如,图1所示的人机交互装置100可以通过摄像头180捕获静态图像或视频,当捕获到的静态图像或视频中识别出人脸时,传感器模块160可以测量识别出的人脸到人机交互装置的距离,当上述距离大于第一距离阈值时,确定当前人机交互装置100处于人形模式。

又例如,当用户位于人机交互设备附近时,第一交互模式可以是人脸模式。具体地,人机交互装置可以根据是否检测到人脸以及与人脸的距离确定是否处于人脸模式。例如,图1所示的人机交互装置100可以通过摄像头180捕获静态图像或视频,当捕获到的静态图像或视频中识别出人脸时,传感器模块160可以测量识别出的人脸到人机交互装置的距离,当上述距离小于第二距离阈值时,确定当前人机交互装置100处于人脸模式。

又例如,当用户通过应用程序(application,APP)或者语音控制机器人进入语控模式之后,第一交互模式可以是语控模式。具体地,人机交互装置可以根据是否接收到控制语音或APP发出的控制指令确定是否处于语控模式。例如,图1所示的人机交互装置100可以通过音频模块(例如麦克风170B)接收声音信号,当声音信号中识别出特定指令时,确定当前人机交互装置100处于语控模式;或用户通过应用程序控制人机交互装置100进入语控模式后,确定当前人机交互装置100处于语控模式。

又例如,当用户做出有特定含义的手势时时,第一交互模式可以是手势模式。具体地,人机交互装置可以根据是否检测到特定手势确定是否处于手势模式。例如,图1所示的人机交互装置100可以通过摄像头180捕获静态图像或视频,当捕获到的静态图像或视频中识别出特定手势时,确定当前人机交互装置100处于手势模式。

应理解,上述定义的交互模式名称仅是为了方便解释说明,不构成对交互模式的限定。能够反映相同或相似外界情况的交互模式也可以具有其他名称,例如,本申请实施例中的人形模式在其他实现方式中也可以叫做人体模式、远距离模式等,本申请对此不做具体限定。

S220:执行第一请求交互动作。

例如,在步骤S220中,人机交互装置能够根据当前所处的交互模式,执行对应的请求交互动作,用于在该交互模式下更有效地吸引用户进行交互。应理解,人机交互装置处于不同的交互模式时,执行的请求交互动作不同。具体地,人机交互装置具有的多个交互模式可以包括第一交互模式和第二交互模式,第一请求交互动作用于在第一交互模式下吸引用户进行交互,第二请求交互动作用于在第二交互模式下吸引用户进行交互,则第一请求交互动作与第二请求交互动作不同。

例如,当人机交互装置处于人形模式时,由于距离用户较远,可以执行幅度较大或较明显的动作,如唱歌、跳舞、转圈、抬腿打招呼等,从而更容易引起远处用户的注意并吸引用户靠近。

又例如,当人机交互装置处于人脸模式时,由于位于用户附近,可以执行更细微但表现力更强的动作,从而吸引用户进行近距离的接触互动。例如,抬头看用户后害羞地将头藏起来、低头求抚摸、做鬼脸逗笑用户、假装耳朵坏掉试图请求用户帮忙修好、展示游戏界面请求与用户做游戏等。

又例如,当人机交互装置处于语控模式时,由于需要接收用户的语音指令,可以通过动作吸引用户发出语音,例如歪头侧耳做出倾听的动作,从而对用户的交互方式进行引导,提高用户的交互体验。

又例如,当人机交互装置处于手势模式时,可以对识别到用户特定手势进行意图解析,例如比心代表喜爱,拳头代表碰拳,比耶代表肯定,摸头代表亲昵,双手大拇指和食指成90度并且合十表示要拍照,从而根据该特定意图做出与手势意义匹配的动作吸引用户进行交互。例如,以人机交互装置是机器宠物狗为例,当用户伸出拳头时,机器宠物狗可以抬起前腿做出想要碰拳的表现;当用户伸出手掌时,机器宠物狗可以把头凑到用户手掌附近表现出亲昵;或当用户摆出拍照手势时,机器宠物狗可以面向用户摆出姿势,做出想让用户拍照的表现。

应理解,第一交互模式下的第一请求交互动作不是唯一的,即同一种交互模式下可以执行多种不同的请求交互动作。例如,处于手势模式时,人机交互装置可以根据用户不同手势代表的不同意图执行不同的请求交互动作。又例如,处于人形模式或人脸模式时,人机交互装置可以根据识别出的不同人脸,执行不同的请求交互动作。以人脸模式为例,当识别出的人脸为人机交互装置记录过的用户人脸时,人机交互装置可以执行把头伸向用户求抚摸的动作;当识别出的人脸为人机交互装置未记录过的陌生人脸时,人机交互装置可以执行转身把头扭开的动作。

通过本申请实施例的技术方案,通过提供多种交互模式,每种交互模式对应不同的交互动作,能够根据不同情况更具有针对性地采取不同的吸引用户的动作,从而更有效地吸引用户进行交互。

在一些可能的实施方式中,为了使人机交互装置能够带给用户更强的生命感,人机交互装置在执行请求交互动作后,能够根据用户的反馈和/或外界情况的变化,调整并执行后续动作,通过一系列有关联的动作吸引用户进行交互,从而使用户体验更加完整且连贯的交互过程,提高用户的交互体验。

在该情况下,图3示出了本申请实施例提供的另一种人机交互的方法的示意性流程图。可选地,图3的方法可以由图1所示的人机交互装置100执行。

如图3所示,该方法包括如下步骤。

S310:确定人机交互装置当前处于第一交互模式。

S320:执行第一请求交互动作。

可选地,上述步骤S310和S320的具体实现可以分别参见上文实施例中对应步骤S210和S220的相关描述,此处不做过多赘述。

可选地,上述方法还包括可选步骤S331、S332、S340和S350。

S331:根据用户对第一请求交互动作的反馈,确定人机交互装置的情绪值。

例如,人机交互装置可以通过参数情绪值调整变现出来的情绪,在步骤S331中,人机交互装置能够根据用户对请求交互动作的反馈调整情绪值。例如,当用户给予请求交互动作积极的反馈时,将原情绪值增加预设情绪变化值确定为现情绪值;当用户没有回应请求交互动作或给予负面的反馈时,将原情绪值减少预设情绪变化值确定为现情绪值。其中,原情绪值可以是初始情绪值,也可以是情绪值上一次发生变化后的值,从而使得人机交互装置表现出更加连续的情绪变化。例如,当人机交互装置开机或初始化时将情绪值设定为初始情绪值60,当做出请求交互动作并得到用户的积极回应后,情绪值由60增加10变为70,表示人机交互装置正面情绪增加;当下一次做出请求交互动作但是没有得到回应后,情绪值由70减少20变为50,表示人机交互装置正面情绪减少。应理解,上述例子中情绪值的变化方式仅是为了举例说明,不构成具体限定,例如,也可以通过增加情绪值的方式反映负面情绪的增加,减少情绪值的方式反映负面情绪减少,不申请不作具体限定。

S332:根据情绪值,执行情绪动作。

例如,在步骤S332中,人机交互装置能够根据确定的情绪值做出对应的情绪动作以反映人机交互装置的情绪变化。具体地,人机交互装置能够根据情绪值所处的不同区间,执行不同的情绪动作,从而使人机交互装置具有更强的生命感,提高用户与人机交互装置交互的兴趣。

在一些可能的实施方式中,当情绪值小于或等于第一情绪阈值时,执行表现生气和/或失落的动作。例如,情绪值上限设定为100,人机交互装置可以在情绪值小于或等于40时执行表现生气且失落的动作,如扭头跑开;或人机交互装置可以在情绪值小于或等于40且大于20时执行表现失落的动作,如低头趴在地上,在情绪值小于或等于20时执行表现生气的动作,如跺脚或弓起后背。除了肢体动作外,人机交互装置还可通过显示屏执行表现生气或失落的预设/实时表情动画,通过音频模块播放表现生气或失落的预设/实时声音。通过上述方式,人机交互装置能够在情绪值处于较低区间时表现出负面情绪,引发用户的同情心,从而引导用户对人机交互装置发出的交互请求做出积极的响应。

在一些可能的实施方式中,当情绪值大于或等于第二情绪阈值时,执行表现开心的动作。例如,情绪值上限设定为100,人机交互装置可以在情绪值大于或等于80时执行表现开心的动作,如摇尾巴、摇耳朵、转圈等。除了肢体动作外,人机交互装置还可通过显示屏执行表现开心的预设/实时表情动画,通过音频模块播放表现开心的预设/实时声音。通过上述方式,人机交互装置能够在情绪值处于较高区间时表现出正面情绪,给予用户积极的反馈,从而吸引用户继续对人机交互装置发出的交互请求做出响应。

S340:执行第三请求交互动作。

具体地,第三请求交互动作用于在第一交互模式下根据用户对第一请求交互动作的反馈进一步吸引用户进行交互。例如,在步骤S332中,人机交互装置能够根据用户的反馈继续做出不同的请求交互动作,从而进一步地吸引用户进行交互。

例如,当检测到用户双手大拇指和食指成90度并且合十后,人工交互装置确定当前处于手势模式且用户又进行拍照的意图,因此会在用户面前摆出拍照姿势;当用户放弃手势后,人工交互装置会做出祈求的动作,并且屏幕上展示小相机的图标;当检测到用户重新做出拍照手势后,机器人会再次摆出拍照姿势,并且做出飞吻的动作向用户表示感谢。

通过本申请实施例的技术方案,人机交互装置能够在做出请求交互动作后,根据用户的反馈做出进一步吸引用户进行交互的动作,从而通过一系列相互关联的动作吸引用户进行交互,使用户体验更加完整且连贯的交互过程,提高用户的交互体验。

S350:当满足切换条件时,人机交互装置由第一交互模式切换为第二交互模式。

例如,在步骤S332中,人机交互装置能够当外界情况改变时切换所处的交互模式。具体地,人机交互装置可以持续检测外界情况(例如,通过摄像头捕获静态图像或视频,或通过麦克风接收声音信号等),当检测到的外界情况满足交互模式的切换条件时,切换至对应的交互模式。可选地,交互模式的切换条件可以与S210中交互模式的确定条件相同。

可选地,步骤S350可以在该方法任意步骤之前或之后执行,即人机交互装置可以随时根据外界情况切换所处的交互模式。例如,步骤S350可以执行在步骤S340之前,即人机交互装置能够根据变化后的交互模式以及用户的反馈做出相应的进一步请求交互动作,从而使得人机交互装置做出的请求交互动作更加恰当。

例如,当用户距离较远时人机交互装置处于人形模式,因此会通过跳舞吸引用户的注意;当用户注意到人机交互装置的动作并靠近后,检测到与用户的距离小于阈值时切换至人脸模式,且由于用户作出了积极反馈,人工智能装置会展示游戏界面并邀请用户玩游戏;当与用户互动过程中检测到用户伸手想要抚摸的手势时,人工智能装置切换至手势模式,并把头伸向用户手边请求抚摸。

通过本申请实施例的技术方案,人机交互装置不仅能够根据不同的交互模式采取不同的请求交互动作,还能够根据用户的反馈做出表达情绪和/或进一步请求用户交互的后续动作,且所处的交互模式也能够根据外界情况的变化切换,使用户与人机交互装置的交互体验是连贯且生动形象的,从而使人机交互装置具有更强的生命感,提高用户的交互体验。

上文结合图2和图3说明了本申请提供的人机交互的方法实施例,下面,结合图4和图5说明本申请提供的人机交互的装置实施例。应理解,装置实施例与方法实施例相互对应,类似的描述可以参照方法实施例。

图4示出了本申请实施例提供的一种人机交互的装置400的示意性结构框图。

如图4所示,该装置400包括:模式确定模块410,动作执行模块420,可选地,还包括情绪确定模块430。

具体地,该模式确定模块410用于用于确定人机交互装置当前处于第一交互模式,其中,该装置400具有的多个交互模式,多个交互模式包括第一交互模式和第二交互模式。

具体地,该动作执行模块420用于执行第一请求交互动作,第一请求交互动作用于在第一交互模式下吸引用户进行交互,其中,第一请求交互动作与第二请求交互动作不同,第二请求交互动作用于在第二交互模式下吸引用户进行交互。

可选地,该情绪确定模块430用于根据用户对第一请求交互动作的反馈,确定人机交互装置的情绪值;动作执行模块420还用于根据情绪值,执行情绪动作。

可选地,在一些可能的实施方式中,动作执行模块420具体用于当情绪值小于或等于第一情绪阈值时,执行表现生气和/或失落的动作。

可选地,在一些可能的实施方式中,动作执行模块420具体用于当情绪值大于或等于第二情绪阈值时,执行表现开心的动作。

可选地,在一些可能的实施方式中,动作执行模块420还用于执行第三请求交互动作,第三请求交互动作用于在第一交互模式下根据用户对第一请求交互动作的反馈进一步吸引用户进行交互。

可选地,在一些可能的实施方式中,模式确定模块410还用于当满足切换条件时,人机交互装置由第一交互模式切换为第二交互模式。

可选地,在一些可能的实施方式中,模式确定模块410具体用于检测到人脸且人脸距离人机交互装置的距离大于第一距离阈值时,确定第一交互模式为人形模式,第一请求交互动作用于吸引用户靠近人机交互装置。

可选地,在一些可能的实施方式中,模式确定模块410具体用于检测到人脸且人脸距离人机交互装置的距离小于第二距离阈值时,确定第一交互模式为人脸模式,第一请求交互动作用于吸引用户与人机交互装置进行近距离交互。

可选地,在一些可能的实施方式中,模式确定模块410具体用于检测到控制语音和/或接收到应用程序发出的控制指令时,确定第一交互模式为语控模式,第一请求交互动作用于吸引用户发出语音指令。

可选地,在一些可能的实施方式中,模式确定模块410具体用于检测到特定手势时,确定第一交互模式为手势模式,第一请求交互动作用于按照特定手势的意图吸引用户与人机交互装置互动。

其中,上述模块均可以通过软件实现,或者可以通过硬件实现。

本申请还提供一种人机交互装置500。如图5所示,人机交互装置500包括:一个或多个处理器510,一个或多个存储器520,该一个或多个存储器存储520存储有一个或多个计算机程序,该一个或多个计算机程序包括指令。当该指令被所述一个或多个处理器510运行时,使得所述的人机交互装置500执行上述人机交互的方法。

本申请实施例还提供一种芯片,该芯片包括处理器与数据接口,该处理器通过该数据接口读取存储器上存储的指令,以执行上述人机交互的方法。

本申请实施例还提供了一种包含指令的计算机程序产品。所述计算机程序产品可以是包含指令的,能够运行在计算设备上或被储存在任何可用介质中的软件或程序产品。当所述计算机程序产品在人机交互装置上运行时,使得所述人机交互装置执行上述人机交互的方法。

本申请实施例还提供了一种计算机可读存储介质。所述计算机可读存储介质可以是计算设备能够存储的任何可用介质或者是包含一个或多个可用介质的数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘)等。该计算机可读存储介质包括指令,所述指令指示计算设备执行上述人机交互的方法。

以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。

以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的保护范围。

相关技术
  • 一种人机交互方法及装置、终端和计算机可读存储介质
  • 分层存储方法、分层存储装置及计算机可读存储介质
  • 段码液晶屏检测方法及装置、计算机装置及计算机可读存储介质
  • 服务器压力调节方法及装置、计算机装置及计算机可读存储介质
  • 一种车牌识别方法、装置、计算机装置及计算机可读存储介质
  • 风电机组的人机交互方法、装置和计算机可读存储介质
  • 人机交互控制方法、装置、设备及计算机可读存储介质
技术分类

06120115783630