掌桥专利:专业的专利平台
掌桥专利
首页

车载增强现实导航方法、装置、芯片及智能汽车

文献发布时间:2024-04-18 20:02:18


车载增强现实导航方法、装置、芯片及智能汽车

技术领域

本发明涉及智能汽车技术领域,具体涉及一种车载增强现实导航方法、装置、芯片及智能汽车。

背景技术

为了实现车载增强现实导航,目前主要通过AR(Augmented Reality:增强现实)导航摄像头或行车记录仪采集AR导航信息,在地图上显示AR导航信息。需要额外配置AR导航摄像头或行车记录仪,提高了硬件成本,而且AR导航的显示信息简单。

发明内容

本发明的目的之一在于提供一种车载增强现实导航方法,以解决现有技术中车载增强现实导航的成本高、显示信息不够丰富的问题;目的之二在于提供一种车载增强现实导航装置;目的之三在于提供一种芯片;目的之四在于提供一种智能汽车。

为了实现上述目的,本发明采用的技术方案如下:

一种车载增强现实导航方法,用于具备高级驾驶辅助系统的车辆,所述方法包括:

获取车载传感器采集的数据流,所述数据流包括前视摄像头采集的第一数据流和其他车载传感器采集的第二数据流;

根据所述第一数据流和所述第二数据流获得驾驶辅助信息;

根据所述第一数据流获得实景信息;

融合所述驾驶辅助信息、所述实景信息和所述高级驾驶辅助系统的地图信息,获得增强现实导航信息;

显示所述增强现实导航信息。

根据上述技术手段,根据前视摄像头采集的数据流生成用于增强现实导航的实景信息,复用了前视摄像头,无须另外配置AR导航摄像头或者行车记录仪;并且能够显示对多个车载传感器采集的数据流进行融合获得的驾驶辅助信息,增强现实导航的显示信息更丰富,提升AR导航的显示效果。

进一步,所述融合所述驾驶辅助信息、所述实景信息和所述高级驾驶辅助系统的地图信息,获得增强现实导航信息,包括:

对所述地图信息和所述实景信息进行地图配准,生成实际道路图像;

采用增强现实将所述驾驶辅助信息叠加在所述实际道路图像上,获得所述增强现实导航信息。

根据上述技术手段,通过将地图信息和实景信息进行配准后,再叠加驾驶辅助信息,有效地融合地图信息、实景信息和驾驶辅助信息,使得增强现实导航的显示信息更加丰富。

进一步,所述根据所述第一数据流获得实景信息,包括:

对所述第一数据流进行矫正以去除畸变区域,获得所述实景信息。

根据上述技术手段,通过对前视摄像头采集的视频流进行矫正,使得图像质量更高,且与地图信息进行配准融合时更加精准。

进一步,所述根据所述第一数据流和所述第二数据流获得驾驶辅助信息,包括:

对所述第一数据流和所述第二数据流中的视频流进行感知融合处理,获得第一环境信息;

对所述第二数据流中由毫米波雷达采集的点云数据进行聚类处理,获得第二环境信息;

采用目标检测算法对所述第二数据流中的视频流进行目标识别,获得距离信息;

对所述第一环境信息、所述第二环境信息和所述距离信息进行融合,获得所述驾驶辅助信息。

根据上述技术手段,通过对第一数据流和第二数据流中的视频流、点云数据进行目标识别、聚类以及融合等,能够获得多种驾驶辅助信息,丰富AR导航显示信息的内容。

进一步,获取车载传感器采集的数据流之后,还包括:

当所述车载传感器采集的数据流为视频流时,根据所述车载传感器的图像信号处理器的性能对所述数据流进行优化。

根据上述技术手段,能够提升车载传感器采集的视频流中的图像质量,提高AR导航的图像精度和显示效果。

进一步,设置并行计算的第一任务和第二任务,所述第一任务用于根据所述第一数据流和所述第二数据流获得驾驶辅助信息,所述第二任务用于根据所述第一数据流获得实景信息。

根据上述技术手段,通过并行计算来获得驾驶辅助信息和实景信息,能够提升AR导航信息的生成效率,使得驾驶辅助信息和实景信息在时间同步上更加精准。

进一步,所述前视摄像头为用于采集车辆前方近距离信息的摄像头。

根据上述技术手段,通过使用用于采集车辆前方近距离信息的摄像头作为前视摄像头,使得近距离的AR导航效果更好,更加适用于复杂城市场景下的车载增强现实导航。

一种车载增强现实导航装置,包括:

数据流获取模块,用于获取车载传感器采集的数据流,所述数据流包括前视摄像头采集的第一数据流和其他车载传感器采集的第二数据流;

驾驶辅助信息模块,用于根据所述第一数据流和所述第二数据流获得驾驶辅助信息;

实景信息模块,用于根据所述第一数据流获得实景信息;

增强现实导航信息模块,用于融合所述驾驶辅助信息、所述实景信息和所述高级驾驶辅助系统的地图信息,获得增强现实导航信息;

显示模块,用于显示所述增强现实导航信息。

根据上述技术手段,能够降低车载增强现实导航的成本,丰富车载现实导航的显示信息内容,提升显示效果。

进一步,采用并行计算方式运行所述驾驶辅助信息模块和所述实景信息模块。

根据上述技术手段,通过并行计算能够提升AR导航信息的生成效率,也使得驾驶辅助信息和实景信息在时间同步上更加精准。

进一步,所述第二数据流包括毫米波雷达采集的点云数据。

根据上述技术手段,通过采用毫米波雷达,能够获得更多的驾驶辅助信息,使得AR导航更加安全。

一种芯片,所述芯片上存储有车载增强现实导航程序,所述车载增强现实导航程序被处理器执行时实现任意一项上述车载增强现实导航方法的步骤。

一种智能汽车,所述智能汽车包括存储器、处理器以及存储在所述存储器上并可在所述处理器上运行的车载增强现实导航程序,所述车载增强现实导航程序被所述处理器执行时实现任意一项上述车载增强现实导航方法的步骤。

本发明的有益效果:不需要AR导航摄像头或行车记录仪等硬件,降低车载增强现实导航的成本;还融合了根据多个传感器的数据流得到的驾驶辅助信息,使得增强现实导航显示的信息更加丰富,显示效果更好。

附图说明

图1为现有车载增强现实导航的显示效果示意图;

图2为本发明车载增强现实导航的显示效果示意图;

图3为本发明实施例实现车载增强现实导航的流程示意图;

图4为图2实施例的功能框架示意图;

图5为图2实施例的设备连接示意图;

图6为本发明实施例获得驾驶辅助信息的流程示意图;

图7为本发明实施例获得增强现实导航信息的流程示意图;

图8为图2实施例的实施场景流程图;

图9为本发明实施例的车载增强现实导航装置结构示意图;

图10为本发明实施例的智能汽车示意图。

具体实施方式

以下将参照附图和优选实施例来说明本发明的实施方式,本领域技术人员可由本说明书中所揭露的内容轻易地了解本发明的其他优点与功效。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。应当理解,优选实施例仅为了说明本发明,而不是为了限制本发明的保护范围。

需要说明的是,以下实施例中所提供的图示仅以示意方式说明本发明的基本构想,遂图式中仅显示与本发明中有关的组件而非按照实际实施时的组件数目、形状及尺寸绘制,其实际实施时各组件的型态、数量及比例可为一种随意的改变,且其组件布局型态也可能更为复杂。

当前汽车行业智能化技术快速发展,车辆上增加了众多的传感器,如:前视长距摄像头、前视短距摄像头、周视摄像头、后视摄像头、全景摄像头、毫米波雷达、激光雷达中的多种传感器。高级驾驶辅助系统(Advanced Driver Assistance System:ADAS)融合了多传感器的数据来保证感知结果的可靠。而目前实现车载增强现实导航(简称AR导航)的系统独立于高级驾驶辅助系统,只是基于AR摄像头或行车记录仪捕捉周围环境,并在屏幕上叠加虚拟信息来实现导航功能,不能有效地利用多传感器数据融合得到的信息,如图1所示,显示信息不够丰富,而且需要额外配置AR导航摄像头或行车记录仪,提高了硬件成本。

本发明通过复用前视摄像头采集的数据流,用该数据流代替AR导航摄像头的数据流,不需要增设AR导航摄像头或行车记录仪等硬件,降低车载增强现实导航的成本;如图2所示,AR导航的显示信息中还融合了根据多个传感器的数据流得到的驾驶辅助信息,使得车载增强现实导航显示的信息更加丰富。

本发明实施例用于在搭载有高级驾驶辅助系统的车辆上实时显示AR导航图像。该车辆上配置了大算力的中央计算单元、前视长距摄像头、前视短距摄像头、前向4D毫米波雷达、周视摄像头,以及用于增强现实导航显示的中控屏。

其中,前视短距摄像头部署在车辆前方,用于捕捉车辆前方的道路情况、交通标志、行人和其他车辆等信息,用于支持车辆的高级驾驶辅助系统中的自动紧急制动、车道保持辅助和交通标志识别等功能。前视短距摄像头的物理参数与常规的AR摄像头的物理参数相近,水平视角HFOV(Horizontal Field of View)为120°左右,垂直视角VFOV(VerticalField of View)为65°左右,像素为800万,摄像头帧率≥30fps(frames per second),提供前方最远60m视野的800万像素视频流,用于识别近距离目标应对十字路口场景。前视长距摄像头的设备参数为:视角FOV(Field of View)为30°,像素为800万,摄像头帧率30fps,提供前方超过最远235m视野的800万像素的视频流,用于识别远距离目标车辆和静止物体。前视短距摄像头和前视长距摄像头统称为前视摄像头。

前向4D毫米波雷达的设备参数为:视角FOV(Field of View):≥±60°或≥±20°(300米),水平角度分辨率为1°,水平角度精度0.1°。

周视摄像头的设备参数:视角FOV(Field of View)为100°,像素为300万,帧率30fps,提供侧面最远136m视野的300万像素视频流,用于识别目标车辆和红绿灯场景。

中央计算单元用于运行车载增强现实导航方法和高级驾驶辅助系统。中央计算单元的设备参数为:AI(artificial intelligence)算力在254AI TOPS(Tera OperationsPer Second)~508 AI TOPS。中央计算单元处理摄像头(前视摄像头和周视摄像头)的原始数据,并对摄像头的ISP(Image Sensor Processor)性能进行调优,作为AI(artificialintelligence)算法模型的输入,还对前向4D毫米波雷达输入的原始点云数据进行处理。

需要说明的是,上述设备参数仅用于说明本实施例中车辆的设备参数,并不构成对使用本发明方法的车辆设备参数的限定。

如图3所示,实现车载增强现实导航的具体步骤包括:

步骤S100:获取车载传感器采集的数据流,上述数据流包括前视摄像头采集的第一数据流和其他车载传感器采集的第二数据流;

车载传感器用于高级驾驶辅助系统,高级驾驶辅助系统对车载传感器采集的数据流进行运算得到环境感知数据、驾驶行为数据和风险评估数据等。其中,环境感知数据包括车辆周围的道路状况、交通标志、交通信号灯状态、车道线信息、障碍物和其他车辆的位置和速度等;驾驶行为数据包括方向盘的转动、加速踏板和刹车踏板的使用情况,以及驾驶员的疲劳程度等;风险评估数据包括与其他车辆的相对速度、距离、碰撞风险等。本实施例中的前视长距摄像头、前视短距摄像头、前向4D毫米波雷达和周视摄像头均是用于高级驾驶辅助系统的车载传感器,但车载传感器并不限于这些,例如:还可以包括激光雷达、后视摄像头等。

数据流的形式与车载传感器相关,如:前视长距摄像头、前视短距摄像头和周视摄像头采集的数据流为视频流,前向4D毫米波雷达和激光雷达采集的数据流为点云数据。

参考图4所示,对前视摄像头采集的数据流(图4中的前视摄像头数据流)进行了复用,不仅用于高级驾驶辅助系统进行运算(如图4中的前处理模块和融合模块),还用于生成AR导航图像(如图4中的图像还原模块和图层叠加模块)。其他车载传感器采集的数据流是指排除了前视摄像头后的车载传感器采集的数据流,如图4中的周视摄像头数据流、毫米波雷达数据流。

获取车载传感器采集的数据流方式不限,中央计算单元可以每间隔设定时间主动获取车载传感器采集的数据流;车载传感器也可以将采集的数据流主动发送至中央计算单元。本实施例中,中央计算单元为驾驶域控制器的SOC(System on Chip:片上系统)芯片,参考图5所示,车辆周边布置的摄像头传感器,通过LVDS (Low Voltage DifferentialSignaling:低电压差分信号传输技术)信号线将原始视频流输入中央计算单元,前向毫米波雷达通过CANFD将原始数据输入中央计算单元。

在一个实施例中,获得车载传感器采集的数据流后,还根据用于采集视频流的车载传感器(如前视长距摄像头、前视短距摄像头、周视摄像头)的ISP(Image SensorProcessor:图像信号处理器)性能对视频流进行优化,如调整白平衡、曝光、对比度、饱和度、锐化处理、噪声抑制、自动对焦和自动曝光功能、色彩矫正、动态范围增强等,以使得摄像头拍摄的图像更加清晰、真实、色彩准确,提高图像质量和性能。

由于本实施例主要用于实现复杂城市场景下的车载增强现实导航,在该场景下,车辆低速行驶,而前视短距摄像头专注于近距离的拍摄,捕捉车辆前方的近景,视场角比前视长距摄像头的视场角大,因此,本实施例中的第一数据流仅包括前视短距摄像头采集的数据流,第二数据流包括毫米波雷达采集的数据流、周视摄像头采集的数据流和前视长距摄像头采集的数据流。将前视短距摄像头采集的数据流来代替AR导航摄像头的数据流,能够提升增强现实导航图像的画面效果。但是,也可以根据需要,将前视长距摄像头采集的数据流作为第一数据流或者将前视长距摄像头采集的数据流、前视短距摄像头采集的数据流一起作为第一数据流。

步骤S200:根据第一数据流和第二数据流获得驾驶辅助信息;

目前视觉可识别距离为230m,普通毫米波雷达稳定目标距离为120m,4D毫米波雷达为200m。4D毫米波雷达和视觉进行融合可保证远距离目标的可靠性探测。普通毫米波雷达由于毫米波的点数量较少,针对自行车、电瓶车、摩托车的探测性能较差,且无法分辨静止目标,4D毫米波雷达能较好地识别,更好地应对复杂的城市场景。而且,由于目前视觉算法在纵向距离、速度、纵向精度上面准确性较差,因此,本实施例通过结合前向4D毫米波雷达和摄像头来保证AR导航的安全性。相应地,第二数据流中还包括前向4D毫米波雷达采集的点云数据。

获取到第一数据流和第二数据流后,第一数据流和第二数据流的总和就相当于用于高级驾驶辅助系统的所有车载传感器采集的数据流。然后基于数据流的形式的不同,采用目标识别、目标检测、聚类算法等各种方法对第一数据流、第二数据流或者第一数据流和第二数据流的融合数据流进行处理,得到环境感知、驾驶行为和风险评估等方面的数据。然后从这些数据中筛选出AR导航时需要使用的驾驶辅助信息。驾驶辅助信息可以包括但不限于:道路状况、交通标志、交通信号灯状态、车道线信息、障碍物、其他车辆的位置和速度、与其他车辆的相对速度、距离、碰撞风险等。

本实施例中,如图6所示,获得驾驶辅助信息的具体步骤包括:

步骤S210:对第一数据流和第二数据流中的视频流进行感知融合处理,获得第一环境信息;

步骤S220:对第二数据流中由前向4D毫米波雷达采集的点云数据进行聚类处理,获得第二环境信息;

步骤S230:采用目标检测算法对第二数据流中的视频流进行目标识别,获得距离信息;

参考图4所示,中央计算单元中部署了前处理模块,第一数据流和第二数据流输入中央计算单元后,经过中央计算单元内的解串器将第一数据流和第二数据流输入到SoC内部,前处理模块采用目标检测算法、融合算法对经ISP性能调优后的视频流数据进行感知融合处理,获得第一环境信息,如:目标信息、距离信息、freespace等信息。

前处理模块中还通过聚类算法对第二数据流中的前向4D毫米波雷达采集的点云数据进行聚类和目标识别,获得包含目标信息、freespace等信息的第二环境信息。

前处理模块中的OD(Object Detect:目标识别)识别算法对第二数据流中的视频流进行数据标注的解析,识别对应的人、车、物等类型的目标,获得距离信息。

步骤S240:对第一环境信息、第二环境信息和距离信息进行融合,获得驾驶辅助信息。

参考图4所示,中央计算单元中还部署了融合模块。融合模块对获得的第一环境信息、第二环境信息和距离信息采用融合算法进行融合处理,得到包含最终的目标信息和报警提示的驾驶辅助信息。

上述目标检测算法、融合算法、聚类算法为高级驾驶辅助系统中的通用算法,在此不再赘述。

由于现有的高级驾驶辅助系统能够由中央计算单元中部署的各功能对各个传感器的原始数据进行处理、感知融合,生成智能驾驶信息。因此,本实施例对高级驾驶辅助系统中的功能模块进行改进,融合模块提供了数据输出接口。通过该数据输出接口输出需要用于AR导航的信息,获得驾驶辅助信息。

步骤S300:根据第一数据流获得实景信息;

步骤S400:融合驾驶辅助信息、实景信息和高级驾驶辅助系统的地图信息,获得增强现实导航信息;

参考图4所示,本实施例中前视短距摄像头的数据流在中央计算单元内部进行分流,上部分用于生成智能驾驶信息,下部分用于生成AR导航信息。第一数据流用于智能驾驶时,只需要进行目标检测,不需要进行图像校正;而用于生成AR导航信息时,后期需要进行分层融合,因此需要进行校正以使得融合得更加准确。因此,生成AR导航信息时,首先通过图像还原模块处理前视短距摄像头的数据流,对前视短距摄像头的原始数据中带畸变的地方进行矫正,得到经过畸变矫正的矫正后图像,从而保障图像的质量,再通过图像处理技术对矫正后图像进行处理,获得车辆前方的道路情况、车辆周围的交通标志、车道线、行人、车辆等实景信息。然后通过图层叠加模块将实景信息、高级驾驶辅助系统的地图信息、融合模块输出的驾驶辅助信息进行叠加,获得增强现实导航信息。其中,地图信息包括但不限于车辆所在位置的地图、道路网络、导航路线等数据。本实施例中的地图信息为高级驾驶辅助系统提供的高精度地图数据。

具体地,本如图7所示,本实施例获得增强现实导航信息的步骤包括:

步骤S410:对地图信息和实景信息进行地图配准,生成实际道路图像;

从实景信息和地图信息中提取路口、建筑物、标志牌等特征点,使用如SIFT(Scale-Invariant Feature Transform:尺度不变特征变换)、SURF(Speeded-Up RobustFeatures:加速稳健特征)等特征点匹配算法进行特征匹配,然后利用转换矩阵或者其他变换模型实现实景信息和地图信息的配准。完成配准后,就可以利用配准后的地图信息对实景信息进行校正和变换,生成实际的道路图像。

步骤S420:采用增强现实将驾驶辅助信息叠加在实际道路图像上,获得增强现实导航信息。

根据车辆位置和姿态信息,采用视角变换、透视变换等增强现实技术将驾驶辅助信息(如导航路线、交通标志、车道线、前方障碍物等信息)叠加在实际道路图像上,获得增强现实导航信息。

由于AR导航技术通常是基于摄像头捕捉周围环境,并在屏幕上叠加虚拟信息来实现导航功能,而摄像头本身并不具备测距和碰撞预警的功能,因此目前采用AR摄像头实现AR导航技术无法显示车距和碰撞预警等信息。本实施例通过叠加融合了多个传感器数据流得到的驾驶辅助信息,可以显示车距和碰撞预警等信息,AR导航时显示的信息更加丰富、使用AR导航更加方便;并且可以适用于各种驾驶场景,例如:正常行驶场景下,可以在AR导航图像中显示本车与左边车辆的车距、本车与右边车辆的车距,显示本车与前车、障碍物的碰撞预警信息等;在极端天气下,比如大雾天气、雨雪天气,由于采用了多种传感器的数据流,即使摄像头采集的数据流受到影响,但是毫米波雷达仍能正常探测,仍能给AR导航提供丰富的驾驶辅助信息,行车时更加安全。

本实施例中,由于中央计算单元的SOC芯片算力较强,因此,步骤S200获得驾驶辅助信息和步骤S300获得实景信息是并行计算的,也就是说,将根据第一数据流和第二数据流获得驾驶辅助信息作为第一任务,根据第一数据流获得实景信息作为第二任务,然后对第一任务和第二任务进行并行计算,提高运算效率,融合各个传感器数据流来生成AR导航时在时间上更加同步。

步骤S500:显示增强现实导航信息;

参考图5所示,获得增强现实导航信息后,在中央计算单元的SOC芯片上根据增强现实导航信息进行图像渲染,生成增强现实导航图像(AR导航图像),然后通过LVDS信号线将增强现实导航图像发送至座舱域控制器,座舱域控制器通过LVDS信号线发送至显示装置上进行显示。需要说明的是,显示装置包括但不限于:中控屏、液晶仪表、信息娱乐显示屏、仪表盘、电子后视镜和AR-HUD等。

目前的增强现实导航方法,直接将AR导航摄像头的数据流直接发送至座舱域控制器进行运算,然后发送至中控屏或液晶仪表等显示装置上进行显示。由于座舱域控制器的SOC芯片算力不大,只能处理低精度的地图,而本实施例采用驾驶域控制器的SOC芯片进行图层叠加、图层渲染等操作,能够在高精度地图上显示AR导航信息,AR导航图像更加清晰,提升显示效果。

本实施例的实施过程为:如图8所示,用户进入车辆后,让车辆正常工作,中央计算单元会完成前视长距摄像头、前视短距摄像头的供电、初始化和自检。车辆正常工作后,前视短距摄像头采集的数据流传输至中央计算单元,该数据流不仅应用于智能驾驶辅助系统的感知算法,还会传输至图像还原模块,通过图像还原模块将摄像头采集的数据流中的畸变区域矫正,然后和中央计算单元内置的高精地图、其他感知信息(如毫米波雷达感知的距离信息)进行融合,经过图层叠加模块进行渲染,再通过显示装置进行增强现实导航图像(AR导航图像)显示。AR导航功能打开后,驾驶员可以通过中控屏或液晶仪表看到由前视短距摄像头提供的车头60米,FOV120°视野内的场景信息。车辆行驶过程中,中央计算单元会持续融合处理其他摄像头采集到原始数据,若车辆的正前方出现状况,会以文字或显眼的标识信息出现在中控屏或液晶仪表上,提示用户看前方并保持注意力集中,以避免事故的发生。

综上所述,本实施例利用了前视短距摄像头的数据流代替AR导航摄像头的数据流,在中控屏或液晶仪表显示增强现实导航界面,能合理并最大限度的复用上述车载传感器和中央计算单元的大算力等硬件资源,打造并提升整车企业的软件开发能力以及功能软件持续进化的能力;能在增强现实导航中显示根据多个车载传感器采集的数据流进行融合获得的驾驶辅助信息,提升AR导航的显示效果;并且,通过AR导航将智能驾驶信息可视化展现,能改善驾驶员和车辆之间的信任和透明度。

本发明实施例还提供了一种车载增强现实导航装置,如图9所示,所述装置包括:

数据流获取模块600,用于获取车载传感器采集的数据流,所述数据流包括前视摄像头采集的第一数据流和其他车载传感器采集的第二数据流;

驾驶辅助信息模块610,用于根据所述第一数据流和所述第二数据流获得驾驶辅助信息;

实景信息模块620,用于根据所述第一数据流获得实景信息;

增强现实导航信息模块630,用于融合所述驾驶辅助信息、所述实景信息和所述高级驾驶辅助系统的地图信息,获得增强现实导航信息;

显示模块640,用于显示所述增强现实导航信息。

可选的,采用并行计算方式运行所述驾驶辅助信息模块和所述实景信息模块。

可选的,所述第二数据流包括前向4D毫米波雷达采集的点云数据。

具体的,本实施例中,上述车载增强现实导航装置的具体功能可以参照上述车载增强现实导航方法中的对应描述,在此不再赘述。

基于上述实施例,本发明还提供了一种智能汽车。如图10所示,上述智能汽车包括通过系统总线连接的处理器、存储器。其中,该智能汽车的处理器用于提供计算和控制能力。该智能汽车的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统和车载增强现实导航程序。该内存储器为非易失性存储介质中的操作系统和车载增强现实导航程序的运行提供环境。该车载增强现实导航程序被处理器执行时实现上述任意一种车载增强现实导航方法的步骤。

本发明实施例还提供一种芯片,例如:SOC芯片,上述芯片上存储有车载增强现实导航程序,上述车载增强现实导航程序被处理器执行时实现本发明实施例提供的任意一种车载增强现实导航方法的步骤。

在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或N个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。

此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“N个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。

流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或N个用于实现定制逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本发明的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本发明的实施例所属技术领域的技术人员所理解。

在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。就本说明书而言,"计算机可读介质"可以是任何可以包含、存储、通信、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、装置或设备而使用的装置。计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或N个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式光盘只读存储器(CDROM)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。

应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,N个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。如,如果用硬件来实现和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。

本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。

此外,在本发明各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。

以上实施例仅是为充分说明本发明而所举的较佳的实施例,本发明的保护范围不限于此。本技术领域的技术人员在本发明基础上所作的等同替代或变换,均在本发明的保护范围之内。

技术分类

06120116581005