掌桥专利:专业的专利平台
掌桥专利
首页

用户交互辅助方法、装置、电子设备及可读存储介质

文献发布时间:2023-06-19 16:04:54



技术领域

本申请涉及AR(Augmented Reality,增强现实)技术领域,尤其涉及一种用户交互辅助方法、装置、电子设备及可读存储介质。

背景技术

随着AR技术的发展,科学技术为人们的沟通与交流做出了跟多的改善,而聋哑用户由存在缺陷,聋哑用户通常需要通过手语来与外界进行沟通,但是若聋哑用户的沟通目标未学习过手语,则聋哑用户的沟通目标通常无法理解聋哑用户想要表达的意愿,聋哑用户与外界的沟通存在障碍。

发明内容

本申请的主要目的在于提供一种用户交互辅助方法、装置、电子设备及可读存储介质,旨在解决现有技术中聋哑用户与外界的存在沟通障碍的技术问题。

为实现上述目的,本申请提供一种用户交互辅助方法,应用于AR眼镜,所述AR眼镜设置有骨传导耳机,所述用户交互辅助方法包括:

通过所述骨传导耳机拾取所述AR眼镜的佩戴用户的音频,得到拾取音频;

若所述拾取音频为有效音频,则在检测到外界的手语动作时,将所述手语动作转换为对应的自然语言信息进行播放,以辅助所述佩戴用户与外界进行交互;

若所述拾取音频不为有效音频,则在检测到外界的交互信息时,在所述AR眼镜的AR显示画面中显示所述交互信息对应的各预设答复答案,以辅助所述佩戴用户与外界进行交互。

为实现上述目的,本申请还提供一种用户交互辅助装置,应用于AR眼镜,所述AR眼镜设置有骨传导耳机,所述用户交互辅助装置包括:

音频拾取模块,用于通过所述骨传导耳机拾取所述AR眼镜的佩戴用户的音频,得到拾取音频;

第一交互模式模块,用于若所述拾取音频为有效音频,则在检测到外界的手语动作时,将所述手语动作转换为对应的自然语言信息进行播放,以辅助所述佩戴用户与外界进行交互;

第二交互模式模块,用于若所述拾取音频不为有效音频,则在检测到外界的交互信息时,在所述AR眼镜的AR显示画面中显示所述交互信息对应的各预设答复答案,以辅助所述佩戴用户与外界进行交互。

本申请还提供一种电子设备,所述电子设备为实体设备,所述电子设备包括:存储器、处理器以及存储在所述存储器上并可在所述处理器上运行的所述用户交互辅助方法的程序,所述用户交互辅助方法的程序被处理器执行时可实现如上述的用户交互辅助方法的步骤。

本申请还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有实现用户交互辅助方法的程序,所述用户交互辅助方法的程序被处理器执行时实现如上述的用户交互辅助方法的步骤。

本申请还提供一种计算机程序产品,包括计算机程序,所述计算机程序被处理器执行时实现如上述的用户交互辅助方法的步骤。

本申请提供了一种用户交互辅助方法、装置、电子设备及可读存储介质,应用于AR眼镜,所述AR眼镜设置有骨传导耳机,也即通过所述骨传导耳机拾取所述AR眼镜的佩戴用户的音频,得到拾取音频;若所述拾取音频为有效音频,则证明所述佩戴用户可通过骨传导与外界进行沟通,所述佩戴用户的聋哑程度较低,进而在检测到外界的手语动作时,可将外界的手语动作转换为对应的自然语言信息进行播放,从而辅助所述佩戴用户与外界进行交互;若所述拾取音频不为有效音频,则证明所述佩戴用户不能通过骨传导与外界进行沟通,所述佩戴用户的聋哑程度较高,进而在检测到外界的交互信息时,在所述AR眼镜的AR显示画面中显示所述交互信息对应的各预设答复答案,以辅助所述佩戴用户与外界进行交互,从而本申请中实现了根据佩戴用户的聋哑程度,为佩戴用户匹配相适配的交互辅助模式,从而在对应的交互辅助模式下,克服了不同聋哑程度下的聋哑用户与外界沟通的障碍。

附图说明

此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本申请的实施例,并与说明书一起用于解释本申请的原理。

为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。

图1为本申请用户交互辅助方法第一实施例的流程示意图;

图2为本申请用户交互辅助方法第二实施例的流程示意图;

图3为本申请实施例中用户交互辅助方法涉及的硬件运行环境的设备结构示意图。

本申请目的实现、功能特点及优点将结合实施例,参照附图做进一步说明。

具体实施方式

为使本申请的上述目的、特征和优点能够更加明显易懂,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述。显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动的前提下所获得的所有其它实施例,均属于本申请保护的范围。

实施例一

本申请实施例提供一种用户交互辅助方法,在本申请用户交互辅助方法的第一实施例中,应用于AR眼镜,所述AR眼镜设置有骨传导耳机,所述用户交互辅助方法包括:

步骤S10,通过所述骨传导耳机拾取所述AR眼镜的佩戴用户的音频,得到拾取音频;

步骤S20,若所述拾取音频为有效音频,则在检测到外界的手语动作时,将所述手语动作转换为对应的自然语言信息进行播放,以辅助所述佩戴用户与外界进行交互;

步骤S30,若所述拾取音频不为有效音频,则在检测到外界的交互信息时,在所述AR眼镜的AR显示画面中显示所述交互信息对应的各预设答复答案,以辅助所述佩戴用户与外界进行交互。

在本实施例中,需要说明的是,所述用户交互辅助方法应用于AR眼镜,所述AR眼镜的佩戴用户可以为正常人,该正常人不属于聋哑人群。在聋哑人群中,存在一部分用户可通过骨传导的方式听见外界的声音且作出相对应的反馈,因此这部分用户在根据可借助骨传导耳机与外界进行交互。同时在聋哑人群中,还存在一部分用户即使使用骨传导的方式也无法听见外界的声音且作出相对应的反馈,这部分用户完全听不见外界声音且完全无法发出声音,因此这部分聋哑人员与外界存在更为严重的沟通障碍,聋哑程度更高,所以在聋哑人群中存在具备不同聋哑程度的聋哑用户。

作为一种示例,步骤S10包括:通过所述骨传导耳机拾取所述AR眼镜的佩戴用户发出的音频,得到拾取音频,进而判别所述拾取音频是否为有效音频。

作为一种示例,所述判别所述拾取音频是否为有效音频的步骤包括:

提取所述拾取音频的音频特征,依据所述音频特征对所述拾取音频进行二分类,得到二分类标签;依据所述二分类标签,判别所述拾取音频是否为有效音频,例如可设置二分类标签为1时,标识所述拾取音频为有效音频,设置二分类标签为0时,标识所述拾取音频不为有效音频。

作为一种示例,所述判别所述拾取音频是否为有效音频的步骤还包括:

通过气导麦克风拾取所述AR眼镜的佩戴用户发出的音频,得到第二拾取音频;根据所述拾取音频和所述第二拾取音频,判别所述佩戴用户是否能发出有效音频,若所述佩戴用户能发出有效音频,则执行步骤:在检测到外界的手语动作时,将所述手语动作转换为对应的自然语言信息进行播放,以辅助所述佩戴用户与外界进行交互;若所述佩戴用户不能发出有效音频,则执行步骤:在检测到外界的交互信息时,在所述AR眼镜的AR显示画面中显示所述交互信息对应的各预设答复答案,以辅助所述佩戴用户与外界进行交互。本申请实施例中可通过气导麦克风和骨导麦克风2个途径来综合判断佩戴用户是否能发出有效音频,提升了有效音频判别的可靠性和准确性。

作为一种示例,所述根据所述拾取音频和所述第二拾取音频,判别所述佩戴用户是否能发出有效音频,包括:

分别提取所述拾取音频和所述第二拾取音频的音频特征,得到所述拾取音频对应的第一音频特征和所述第二拾取音频对应的第二音频特征;依据所述第一音频特征,对所述拾取音频进行分类,得到第一二分类标签,依据所述第二音频特征,对所述第二拾取音频进行分类,得到第二二分类标签;根据所述第一二分类标签和所述第二二分类标签,判别所述佩戴用户是否能发出有效音频,例如设置二分类标签为1时标识拾取音频为有效音频,设置二分类标签为0时标识拾取音频不为有效音频,进而可设置当所述第一二分类标签和所述第二二分类标签中存在为1的预设二分别标签时,则判定所述佩戴用户能发出有效音频,当所述第一二分类标签和所述第二二分类标签中不存在为1的预设二分别标签时,则判定所述佩戴用户不能发出有效音频。

作为一种示例,步骤S20至步骤S30包括:若所述拾取音频为有效音频,则证明所述佩戴用户可借助骨传导的方式与外界进行沟通,进而在检测到外界的手语动作时,将所述手语动作转换为对应的自然语言信息,通过所述骨传导耳机向所述佩戴用户播放所述自然语言信息,以辅助所述佩戴用户与外界进行交互;若所述拾取音频不为有效音频,则证明所述佩戴用户不可借助骨传导的方式与外界进行沟通,进而在检测到外界的交互信息时,在所述AR眼镜的AR显示画面中显示所述交互信息对应的各预设答复答案,进而确定佩戴用户在各所述预设答复答案选取的目标答复答案,播报所述目标答复答案,从而实现辅助所述佩戴用户与外界进行交互。本申请实施例中根据聋哑用户的聋哑程度的不同,为聋哑用户提供不同的交互模式,在聋哑用户的聋哑程度较低时,通过手语转换模式,将手语动作转换为自然语言信息,并以骨传导的方式进行自然语言信息向佩戴用户进行播放;在聋哑用户的聋哑程度较高时,通过答案固定模式,将交互信息对应的预设答案直接以视觉的方式显示给佩戴用户,从而佩戴用户可通过选择目标答复答案的方式跟外界进行交互,所以答案固定模式的用户交互效率与简便性明显低于手语转换模式,而本申请实施例中通过预先判别聋哑用户的聋哑程度,一方面可为聋哑程度较低的聋哑用户自动提供交互效率更高的手语转换模式,在克服聋哑用户与外界的沟通障碍的同时,保证交互效率,另外一方面为聋哑程度较高的聋哑用户自动提供交互准确度更高的答案固定模式,从而在聋哑用户的聋哑程度较高时,也可克服聋哑用户与外界之间的沟通障碍。

其中,所述将所述手语动作转换为对应的语音信息进行播放的步骤包括:

步骤S21,对所述手语动作进行手语识别,得到手语识别结果;

步骤S22,根据所述手语识别结果,生成所述手语动作对应的自然语言信息;

步骤S23,向所述AR眼镜的佩戴用户播放所述自然语言信息。

作为一种示例,步骤S21至步骤S23包括:通过AR眼镜对外界进行拍摄,得到外界图像;识别所述外界图像中是否存在手语动作,若存在,则判定检测到手语动作;从所述外界图像中分割出手语动作图像,通过对所述手语动作图像进行分类,识别所述手语动作图像中的手语动作,得到手语动作标签,将所述手语动作标签作为所述手语识别结果,其中,所述手语动作标签为所述手语动作的类别标签,用于标识所述手语动作的语义类别;根据所述手语动作标签与自然语言信息之间的映射关系,确定所述手语动作标签对应的自然语言信息;将所述自然语言信息向所述AR眼镜的佩戴用户进行播放,其中,所述播放的方式可以为以语音播报的方式进行播放,也可以以AR显示画面的方式进行播放。

其中,所述自然语言信息至少包括播报语音和文本显示画面中的一种,所述根据所述手语识别结果,生成所述手语动作对应的自然语言信息的步骤包括:

步骤A10,根据所述手语识别结果,将所述手语动作转换为对应的语音信息,生成所述语音信息对应的播报语音;

在本实施例中,需要说明的是,所述手语动作的数量可以为一个或者多个。所述手语识别结果可以为一个或者多个手语动作标签。

作为一种示例,步骤A10包括:根据手语动作标签与文本词标签之间的对应关系,确定所述手语识别结果中各手语动作标签对应的文本词标签,其中,所述文本词标签为文本词的语义标签,用于标识文本词的语义;根据各所述手语动作共同对应的手语语序,对各所述文本词标签进行排序,得到文本词标签序列;根据文本词标签与音频之间的语义对应关系,确定所述文本词标签序列对应的音频序列数据,其中,所述音频序列数据为各手语动作对应的语音信息,具体可以为由各个文本词对应的音频特征组成的特征序列;生成所述音频序列数据对应的真实语音作为播报语音。

步骤B10,根据所述手语识别结果,将所述手语动作转换为对应的文本信息,生成所述文本信息对应的文本显示画面。

作为一种示例,所述文本信息可以为文本句子,步骤A20包括:根据手语动作标签与文本词标签之间的对应关系,确定所述手语识别结果中各手语动作标签对应的文本词;根据各所述手语动作共同对应的手语语序,对各文本词进行排序,得到文本句子;生成具备所述文本句子的AR显示画面作为文本显示画面。

其中,所述自然语言信息至少包括播报语音和文本显示画面中的一种,所述向所述AR眼镜的佩戴用户播放所述自然语言信息的步骤包括:

步骤C10,通过所述骨传导耳机向所述佩戴用户播放所述播报语音;

步骤D10,通过所述AR眼镜的AR显示画面向所述佩戴用户显示所述文本显示画面。

作为一种示例,步骤D10包括:确定所述AR显示画面中对应的待替换图像区域,将所述AR显示画面中待替换图像区域替换为在所述文本显示画面,得到融合AR显示画面,显示所述融合AR显示画面。其中,所述待替换图像区域可以为整个AR显示画面,也可以为AR显示画面中的部分图像区域,具体可以为AR显示画面中不影响用户的AR体验的图像区域,例如AR显示画面的边缘区域等。

其中,所述交互信息包括语音交互信息,所述在所述AR眼镜的AR显示画面中显示所述交互信息对应的各预设答复答案的步骤包括:

步骤S31,对所述语音交互信息进行语音识别,得到语音识别结果;

步骤S32,根据所述语音识别结果,确定所述语音交互信息对应的各预设答复答案;

步骤S33,在所述AR显示画面中显示各所述预设答复答案。

在本实施例中,需要说明的是,所述语音识别结果可以为语音交互信息对应的语义特征,所述语义特征可以为标识所述语音交互信息的语义的嵌入特征,也即为embedding。

作为一种示例,步骤S31至步骤S33包括:

对所述语音交互信息进行语义特征提取,得到所述语音交互信息对应的语义特征;在各预设语义特征中确定与所述语义特征相似度最高的特征作为目标语义特征;根据预设语义特征与预设答复答案之间的映射关系,确定所述目标语义特征对应的各预设答复答案;在所述AR眼镜的AR显示画面中显示所述目标语义特征对应的各预设答复答案,并检测所述佩戴用户对所述目标语义特征对应的各预设答复答案的反馈信息。进一步根据所述反馈信息,在所述目标语义特征对应的各预设答复答案中选取目标答复答案,其中,所述反馈信息可以为佩戴用户对各显示的预设答复答案的点击信息,例如存在3个预设答复答案A,B和C,若佩戴用户点击了C,则C为目标答复答案;通过麦克风播放所述目标答复答案。本申请实施例中实现了辅助聋哑人群对外界的信息作出相对应的反馈的目的,即使聋哑人群完全发不出任何声音且完全听不见任何声音,也即与外界存在更为严重的沟通障碍,本申请实施例也可以辅助聋哑用户对外界信息进行及时的反馈,从而完成与外界的沟通,进而克服了聋哑人群与外界之间的沟通障碍。

本申请实施例提供了一种用户交互辅助方法,应用于AR眼镜,所述AR眼镜设置有骨传导耳机,也即通过所述骨传导耳机拾取所述AR眼镜的佩戴用户的音频,得到拾取音频;若所述拾取音频为有效音频,则证明所述佩戴用户可通过骨传导与外界进行沟通,所述佩戴用户的聋哑程度较低,进而在检测到外界的手语动作时,可将外界的手语动作转换为对应的自然语言信息进行播放,从而辅助所述佩戴用户与外界进行交互;若所述拾取音频不为有效音频,则证明所述佩戴用户不能通过骨传导与外界进行沟通,所述佩戴用户的聋哑程度较高,进而在检测到外界的交互信息时,在所述AR眼镜的AR显示画面中显示所述交互信息对应的各预设答复答案,以辅助所述佩戴用户与外界进行交互,从而本申请中实现了根据佩戴用户的聋哑程度,为佩戴用户匹配相适配的交互辅助模式,从而在对应的交互辅助模式下,克服了不同聋哑程度下的聋哑用户与外界沟通的障碍。

实施例二

进一步地,参照图2,在本申请另一实施例中,与上述实施例相同或相似的内容,可以参考上文介绍,后续不再赘述。在此基础上,所述交互信息包括手语动作,所述在所述AR眼镜的AR显示画面中显示所述交互信息对应的各预设答复答案的步骤包括:

步骤E10,对所述手语动作进行手语识别,得到手语识别结果;

步骤E20,根据所述手语识别结果,确定所述手语动作对应的各预设答复答案;

步骤E30,在所述AR显示画面中显示各所述预设答复答案。

在本实施例中,需要说明的是,所述佩戴用户为聋哑用户,且所述佩戴用户对应的交互目标也属于聋哑人群,该交互目标向佩戴用户展示手语,但佩戴用户由于不会手语,佩戴用户与交互目标之间存在沟通障碍。

作为一种示例,所述手语识别结果可以为手语语义特征,步骤S31至步骤S33包括:通过AR眼镜对外界进行拍摄,得到外界图像;识别所述外界图像中是否存在手语动作,若存在,则判定检测到手语动作;从所述外界图像中分割出手语动作图像;对所述手语动作图像进行特征提取,以提取所述手语动作图像中手语动作对应的手语语义特征,其中,所述手语语义特征可以为表征所述手语动作的手语语义的嵌入特征;在各预设手语语义特征中确定与所述手语语义特征相似度最高的特征作为目标手语语义特征;根据预设手语语义特征与预设答复答案之间的映射关系,确定所述目标手语语义特征对应的各预设答复答案;在所述AR眼镜的AR显示画面中显示所述目标手语语义特征对应的各预设答复答案。

其中,所述在所述AR显示画面中显示各所述预设答复答案的步骤之后,所述用户交互辅助方法还包括:

步骤E40,接收所述佩戴用户对各所述预设答复答案的反馈信息;

步骤E50,根据各所述反馈信息,在各所述预设答复答案中选取目标答复答案;

步骤E60,播报所述目标答复答案。

作为一种示例,步骤S34至步骤S36包括:接收所述佩戴用户对各所述预设答复答案的反馈信息;根据所述反馈信息,在所述目标手语语义特征对应的各预设答复答案中选取目标答复答案,其中,所述反馈信息可以为佩戴用户对各显示的预设答复答案的点击信息,例如存在3个预设答复答案A,B和C,若佩戴用户点击了C,则C为目标答复答案;通过麦克风播放所述目标答复答案。

本申请实施例提供了一种用户交互辅助方法,也即对所述手语动作进行手语识别,得到手语识别结果;根据所述手语识别结果,确定所述手语动作对应的各预设答复答案;在所述AR显示画面中显示各所述预设答复答案;接收所述佩戴用户对各所述预设答复答案的反馈信息;根据各所述反馈信息,在各所述预设答复答案中选取目标答复答案;播报所述目标答复答案。从而实现以视觉显示的方式,将外界的手语信息传递给聋哑用户,从而聋哑用户可正确理解外界手语信息想要表达的意思,从而实现辅助作为聋哑人的佩戴用户与外界进行沟通的目的,可克服聋哑用户与外界的其他聋哑用户之间的沟通障碍。

实施例三

本申请还提供一种用户交互辅助装置,应用于AR眼镜,所述AR眼镜设置有骨传导耳机,所述用户交互辅助装置包括:

音频拾取模块,用于通过所述骨传导耳机拾取所述AR眼镜的佩戴用户的音频,得到拾取音频;

第一交互模式模块,用于若所述拾取音频为有效音频,则在检测到外界的手语动作时,将所述手语动作转换为对应的自然语言信息进行播放,以辅助所述佩戴用户与外界进行交互;

第二交互模式模块,用于若所述拾取音频不为有效音频,则在检测到外界的交互信息时,在所述AR眼镜的AR显示画面中显示所述交互信息对应的各预设答复答案,以辅助所述佩戴用户与外界进行交互。

可选地,所述第一交互模式模块还用于:

对所述手语动作进行手语识别,得到手语识别结果;

根据所述手语识别结果,生成所述手语动作对应的自然语言信息;

向所述AR眼镜的佩戴用户播放所述自然语言信息。

可选地,所述自然语言信息至少包括播报语音和文本显示画面中的一种,所述第一交互模式模块还用于:

根据所述手语识别结果,将所述手语动作转换为对应的语音信息,生成所述语音信息对应的播报语音;和/或

根据所述手语识别结果,将所述手语动作转换为对应的文本信息,生成所述文本信息对应的文本显示画面。

可选地,所述自然语言信息至少包括播报语音和文本显示画面中的一种,所述第一交互模式模块还用于:

通过所述骨传导耳机向所述佩戴用户播放所述播报语音;和/或

通过所述AR眼镜的AR显示画面向所述佩戴用户显示所述文本显示画面。

可选地,所述第二交互模式模块还用于:

对所述手语动作进行手语识别,得到手语识别结果;

根据所述手语识别结果,确定所述手语动作对应的各预设答复答案;

在所述AR显示画面中显示各所述预设答复答案。

可选地,所述用户交互辅助装置还用于:

接收所述佩戴用户对各所述预设答复答案的反馈信息;

根据各所述反馈信息,在各所述预设答复答案中选取目标答复答案;

播报所述目标答复答案。

可选地,所述交互信息包括语音交互信息,所述第二交互模式模块还用于:

对所述语音交互信息进行语音识别,得到语音识别结果;

根据所述语音识别结果,确定所述语音交互信息对应的各预设答复答案;

在所述AR显示画面中显示各所述预设答复答案。

本申请提供的用户交互辅助装置,采用上述实施例中的用户交互辅助方法,解决了聋哑用户与外界的存在沟通障碍的技术问题。与现有技术相比,本申请实施例提供的用户交互辅助装置的有益效果与上述实施例提供的用户交互辅助方法的有益效果相同,且该用户交互辅助装置中的其他技术特征与上述实施例方法公开的特征相同,在此不做赘述。

实施例四

本申请实施例提供一种电子设备,所述电子设备可以为AR眼镜,电子设备包括:至少一个处理器;以及,与至少一个处理器通信连接的存储器;其中,存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行上述实施例一中的用户交互辅助方法。

下面参考图3,其示出了适于用来实现本公开实施例的电子设备的结构示意图。本公开实施例中的电子设备可以包括但不限于诸如移动电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、车载终端(例如车载导航终端)等等的移动终端以及诸如数字TV、台式计算机等等的固定终端。图3示出的电子设备仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。

如图3所示,电子设备可以包括处理装置(例如中央处理器、图形处理器等),其可以根据存储在只读存储器(ROM)中的程序或者从存储装置加载到随机访问存储器(RAM)中的程序而执行各种适当的动作和处理。在RAM中,还存储有电子设备操作所需的各种程序和数据。处理装置、ROM以及RAM通过总线彼此相连。输入/输出(I/O)接口也连接至总线。

通常,以下系统可以连接至I/O接口:包括例如触摸屏、触摸板、键盘、鼠标、图像传感器、麦克风、加速度计、陀螺仪等的输入装置;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置;包括例如磁带、硬盘等的存储装置;以及通信装置。通信装置可以允许电子设备与其他设备进行无线或有线通信以交换数据。虽然图中示出了具有各种系统的电子设备,但是应理解的是,并不要求实施或具备所有示出的系统。可以替代地实施或具备更多或更少的系统。

特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置从网络上被下载和安装,或者从存储装置被安装,或者从ROM被安装。在该计算机程序被处理装置执行时,执行本公开实施例的方法中限定的上述功能。

本申请提供的电子设备,采用上述实施例中的用户交互辅助方法,解决了聋哑用户与外界的存在沟通障碍的技术问题。与现有技术相比,本申请实施例提供的电子设备的有益效果与上述实施例提供的用户交互辅助方法的有益效果相同,且该电子设备中的其他技术特征与上述实施例方法公开的特征相同,在此不做赘述。

应当理解,本公开的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式的描述中,具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。

以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以所述权利要求的保护范围为准。

实施例五

本实施例提供一种计算机可读存储介质,具有存储在其上的计算机可读程序指令,计算机可读程序指令用于执行上述实施例一中的用户交互辅助的方法。

本申请实施例提供的计算机可读存储介质例如可以是U盘,但不限于电、磁、光、电磁、红外线、或半导体的系统、系统或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本实施例中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、系统或者器件使用或者与其结合使用。计算机可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。

上述计算机可读存储介质可以是电子设备中所包含的;也可以是单独存在,而未装配入电子设备中。

上述计算机可读存储介质承载有一个或者多个程序,当上述一个或者多个程序被电子设备执行时,使得电子设备:通过所述骨传导耳机拾取所述AR眼镜的佩戴用户的音频,得到拾取音频;若所述拾取音频为有效音频,则在检测到外界的手语动作时,将所述手语动作转换为对应的自然语言信息进行播放,以辅助所述佩戴用户与外界进行交互;若所述拾取音频不为有效音频,则在检测到外界的交互信息时,在所述AR眼镜的AR显示画面中显示所述交互信息对应的各预设答复答案,以辅助所述佩戴用户与外界进行交互。

可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,上述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。

附图中的流程图和框图,图示了按照本申请各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。

描述于本公开实施例中所涉及到的模块可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,模块的名称在某种情况下并不构成对该单元本身的限定。

本申请提供的计算机可读存储介质,存储有用于执行上述用户交互辅助方法的计算机可读程序指令,解决了聋哑用户与外界的存在沟通障碍的技术问题。与现有技术相比,本申请实施例提供的计算机可读存储介质的有益效果与上述实施例提供的用户交互辅助方法的有益效果相同,在此不做赘述。

实施例六

本申请还提供一种计算机程序产品,包括计算机程序,所述计算机程序被处理器执行时实现如上述的用户交互辅助方法的步骤。

本申请提供的计算机程序产品解决了聋哑用户与外界的存在沟通障碍的技术问题。与现有技术相比,本申请实施例提供的计算机程序产品的有益效果与上述实施例提供的用户交互辅助方法的有益效果相同,在此不做赘述。

以上仅为本申请的优选实施例,并非因此限制本申请的专利范围,凡是利用本申请说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本申请的专利处理范围内。

技术分类

06120114698470