掌桥专利:专业的专利平台
掌桥专利
首页

协同照明

文献发布时间:2023-06-19 18:32:25


协同照明

技术领域

本公开涉及车辆,更具体地,涉及协同照明。

背景技术

现代交通工具(例如汽车、摩托车、船或任何其他类型的汽车)可以配备有便于交通工具和其他实体之间不同类型的通信的交通工具通信系统。例如,车辆通信系统可以提供车辆到基础设施(V2I)、车辆到车辆(V2V)、车辆到行人(V2P)和/或车辆到电网(V2G)通信。总的来说,这些可被称为车辆对一切(V2X)通信,其实现了从车辆到任何其他合适实体的信息通信。各种应用(例如V2X应用)可以使用V2X通信来发送和/或接收安全消息、维护消息、车辆状态消息等。

现代车辆还可以包括一个或多个相机,这些相机提供倒车辅助,拍摄车辆驾驶员的图像以确定驾驶员的睡意或注意力,提供车辆行驶时的道路图像以避免碰撞,提供结构识别,比如道路标志等。例如,车辆可以配备有多个相机,并且来自多个相机(称为“环绕视图相机”)的图像可以用于创建车辆的“环绕”或“鸟瞰”视图。一些相机(称为“远程相机”)可用于捕获远程图像(例如用于避免碰撞的物体检测、结构识别等)。

这种车辆还可以配备传感器,比如雷达设备、激光雷达设备和/或用于执行目标跟踪的类似设备。目标跟踪包括识别目标物体,并且随着目标物体相对于观察目标物体的车辆移动而随时间跟踪目标物体。来自车辆的一个或多个相机的图像也可以用于执行目标跟踪。

发明内容

在一示例性实施例中,提供了一种用于协同照明的计算机实现的方法。该方法包括由车辆的处理装置接收第一道路数据。该方法还包括由车辆的处理装置从与车辆相关的传感器接收第二道路数据。该方法还包括由车辆的处理装置至少部分地基于第一道路数据和第二道路数据来识别物体。该方法还包括通过车辆的处理装置使物体被照明。

除了这里描述的一个或多个特征之外或作为替代,该方法的进一步实施例可以包括从由易受伤害的道路使用者和道路危险构成的组中选择物体。

除了这里描述的一个或多个特征之外或作为替代,该方法的进一步实施例可以包括从从由云计算环境的边缘计算节点和云计算节点构成的组中选择的设备接收第一道路数据。

除了这里描述的一个或多个特征之外或作为替代,该方法的进一步实施例可以包括车辆是第一车辆,并且其中从第二车辆接收第一道路数据。

除了这里描述的一个或多个特征之外或作为替代,该方法的进一步实施例可以包括经由第一车辆和第二车辆之间的直接车辆间通信协议从第二车辆接收第一道路数据。

除了这里描述的一个或多个特征之外或作为替代,该方法的进一步实施例可以包括第一道路数据包括本地数据和全局数据。

除了这里描述的一个或多个特征之外或作为替代,该方法的进一步实施例可以包括从由相机、激光雷达设备和雷达设备构成的组中选择传感器。

除了这里描述的一个或多个特征之外或作为替代,该方法的进一步实施例可以包括识别物体包括由车辆的处理装置融合第一道路数据和第二道路数据。

除了这里描述的一个或多个特征之外或作为替代,该方法的进一步实施例可以包括使物体被照明包括使用车辆的灯组件照明物体。

除了这里描述的一个或多个特征之外或作为替代,该方法的进一步实施例可以包括照明包括增加由车辆的灯组件发出的光的亮度。

除了这里描述的一个或多个特征之外或作为替代,该方法的进一步实施例可以包括照明包括降低由车辆的灯组件发出的光的亮度。

除了这里描述的一个或多个特征之外或作为替代,该方法的进一步实施例可以包括使物体被照明包括使用另一车辆的灯组件照明物体。

除了这里描述的一个或多个特征之外或作为替代,该方法的进一步实施例可以包括车辆是第一车辆,并且使物体被照明包括使用第二车辆的灯组件照明物体。

除了这里描述的一个或多个特征之外或作为替代,该方法的进一步实施例可以包括第二车辆是停放的车辆。

除了这里描述的一个或多个特征之外或作为替代,该方法的进一步实施例可以包括识别物体进一步至少部分地基于车辆操作者的凝视。

除了这里描述的一个或多个特征之外或作为替代,该方法的进一步实施例可以包括识别物体包括生成物体图;在物体图上生成围绕物体的边界框;以及确定边界框的质心。

除了这里描述的一个或多个特征之外或作为替代,该方法的进一步实施例可以包括物体是第一物体,边界框是第一边界框,并且质心是第一质心,该方法还包括识别第二物体。该方法还包括在物体图上生成围绕第二物体的第二边界框。该方法还包括确定第二边界框的第二质心。该方法还包括在物体图上生成围绕第一物体和第二物体的组边界框。该方法还包括确定组边界框的组质心。

除了这里描述的一个或多个特征之外或作为替代,该方法的进一步实施例可以包括至少部分地基于第一物体的类型和第二物体的类型来偏移组质心。

在另一示例性实施例中,提供了一种系统。该系统包括具有计算机可读指令的存储器。该系统还包括用于执行计算机可读指令的处理装置,计算机可读指令控制处理装置执行用于协同照明的操作。操作包括由车辆的处理装置接收第一道路数据。该方法还包括由车辆的处理装置从与车辆相关的传感器接收第二道路数据。该方法还包括由车辆的处理装置至少部分地基于第一道路数据和第二道路数据来识别物体。该方法还包括由车辆的处理装置使物体中的至少一个被照明。

在又一示例性实施例中,提供了一种计算机程序产品。该计算机程序产品包括具有程序指令的计算机可读存储介质,其中该计算机可读存储介质本身不是瞬时信号,程序指令可由处理装置执行以使处理装置执行用于协同照明的操作。操作包括由车辆的处理装置接收第一道路数据。方法还包括由车辆的处理装置从与车辆相关的传感器接收第二道路数据。方法还包括由车辆的处理装置至少部分地基于第一道路数据和第二道路数据来识别物体。方法还包括由车辆的处理装置使物体中的至少一个被照明。

当结合附图时,从以下详细描述中,本公开的上述特征和优点以及其他特征和优点将变得显而易见。

附图说明

其他特征、优点和细节仅通过示例的方式出现在以下详细描述中,该详细描述参考了附图,其中:

图1描绘了根据本文描述的一个或多个实施例的包括用于协同照明的传感器和处理系统的车辆;

图2描绘了根据本文描述的一个或多个实施例的支持协同照明的环境;

图3描绘了根据本文描述的一个或多个实施例的用于协同照明的系统;

图4描绘了根据本文描述的一个或多个实施例的用于协同照明的方法的流程图;

图5描绘了根据本文描述的一个或多个实施例的照明道路危险和VRU的车辆的图示;

图6描绘了根据本文描述的一个或多个实施例的用于协同照明的方法的流程图;以及

图7描绘了根据示例性实施例的用于实现这里描述的技术的处理系统的框图。

具体实施方式

以下描述本质上仅是示例性的,并不旨在限制本公开、其应用或用途。应当理解,在所有附图中,相应的附图标记表示相同或相应的部件和特征。如本文所用,术语模块指的是处理电路,其可以包括专用集成电路(ASIC)、电子电路、执行一个或多个软件或固件程序的处理器(共享、专用或组)和存储器、组合逻辑电路和/或提供所述功能的其他合适部件。

这里描述的技术解决方案提供了协同照明。当车辆穿过道路时,道路危险(例如坑洞、道路上的油、道路上或道路附近的障碍物、雾、洪水等)可能对车辆有害。易受伤害的道路使用者(VRU)比如行人可能会受到车辆的伤害,比如如果车辆撞上VRU。在这两种情况下,可能需要改善道路危险和/或VRU的照明。为此,本技术使用来自车辆的数据和来自其他来源(例如其他车辆、物联网(IoT)设备等)的数据可用于协同照明一个区域、道路危险、VRU等来照明场景。

用于车辆的传统自适应前方照明系统仅考虑主车辆的轨迹和来自感测或地图的前方几何形状来生成照明模式。本文描述的一个或多个实施例利用来自多个交通工具和/或其他设备的所连接的交通工具遥测数据和感知数据来协同照明场景。例如,一个或多个实施例使用多个道路感知实体(例如车辆、IoT设备等)之间的协同来照明VRU和/或道路危险。

图1描绘了根据本文描述的一个或多个实施例的包括用于协同照明的传感器和处理系统110的车辆100。在图1的示例中,车辆100包括处理系统110、相机120、121、122、123、相机130、131、132、133、雷达传感器140和激光雷达传感器141。交通工具100可以是汽车、卡车、货车、公共汽车、摩托车、船、飞机或其他合适的交通工具100。

相机120-123是捕获车辆100外部和附近图像的全景相机。由相机120-123捕获的图像一起形成车辆100的环绕视图(有时称为“俯视图”或“鸟瞰图”)。这些图像对于操作车辆(例如停车、倒车等)是有用的。相机130-133是远程相机,其捕获车辆外部的图像,并且比相机120-123更远离车辆100。例如,这些图像可用于物体检测和避免。应当理解,尽管示出了八个相机120-123和130-133,但在各种实施例中可以实现更多或更少的相机。

捕获的图像可以显示在显示器(未示出)上,以向车辆100的驾驶员/操作者提供车辆100的外部视图。捕获的图像可以显示为活动图像、静止图像或其某种组合。在一些示例中,图像可被组合以形成合成视图,比如环绕视图。

雷达传感器140通过发射电磁波并用传感器测量反射波来测量到目标物体的距离。该信息对于确定目标物体相对于车辆100的距离/位置是有用的。

LiDAR(光探测和测距)传感器141通过用脉冲激光照射目标并用传感器测量反射脉冲来测量到目标物体的距离。该信息对于确定目标物体相对于车辆100的距离/位置是有用的。

车辆100还可以包括发光的灯组件142、143。例如,一个或多个灯组件142、143可以包括一个或多个停车灯、前灯等。灯组件的类型和数量可以变化,并且不限于图1所示的数量和位置。

从相机120-123、130-133、雷达传感器140和/或激光雷达传感器141生成的数据可以用于跟踪相对于车辆100的目标物体。目标物体的示例包括其他车辆、易受伤害的道路使用者(VRU),比如行人、自行车、动物、坑洞、路面上的油、路面上的碎片、雾、洪水等。

处理系统110包括数据/通信引擎112、识别引擎114和照明引擎116。虽然未示出,但处理系统110可以包括其他部件、引擎、模块等,比如处理器(例如中央处理单元、图形处理单元、微处理器等)、存储器(例如随机存取存储器、只读存储器等)、数据存储(例如固态驱动器、硬盘驱动器等)等。

处理系统110可以通信地耦合到远程处理系统150,其可以是作为边缘处理环境的一部分的边缘处理节点(参见例如图3)、作为云处理环境的一部分的云处理节点(参见例如图3)等。例如,处理系统110可以包括网络适配器(未示出)(参见例如图7的网络适配器726)。网络适配器使得处理系统110能够向其他源发送数据和/或从其他源接收数据,其他源比如是其他处理系统、数据仓库等,包括远程处理系统150。例如,处理系统110可以直接和/或经由网络152向远程处理系统150发送数据和/或从其接收数据。

网络152代表不同类型的合适的通信网络中的任何一个或组合,例如有线网络、公共网络(例如因特网)、专用网络、无线网络、蜂窝网络或任何其他合适的专用和/或公共网络。此外,网络152可以具有与其相关的任何合适的通信范围,并且可以包括例如全球网络(例如因特网)、城域网(MAN)、广域网(WAN)、局域网(LAN)或个人区域网(PAN)。此外,网络152可以包括可以承载网络流量的任何类型的介质,包括但不限于同轴电缆、双绞线、光纤、混合光纤同轴(HFC)介质、微波地面收发器、射频通信介质、卫星通信介质或其任意组合。根据本文描述的一个或多个实施例,远程处理系统150和处理系统110经由车辆到基础设施(V2I)、车辆到车辆(V2V)、车辆到行人(V2P)和/或车辆到电网(V2G)通信进行通信。

这里进一步描述处理系统110的部件的特征和功能。车辆100的处理系统110有助于协同照明。参考剩余的附图进一步描述该过程。

具体而言,图2描绘了根据本文描述的一个或多个实施例的支持协同照明的环境200。在该示例中,环境200包括如图所示配置和布置的车辆100、车辆210和车辆212,其中车辆100和210分别沿箭头201、211运动,车辆212静止(例如停放)。环境200还包括两个物体:道路危险220(例如坑洞)和VRU222(例如行人)。可以看出,道路危险220在车辆100的路径上。类似地,行人的预期路径可以穿过车辆100的路径。在任一情况下,都希望照明道路危险220和VRU222。为此,本技术识别道路危险220和VRU222,并使用车辆100、车辆210和/或车辆212的灯组件照明它们。例如,车辆100的处理系统110接收显示道路危险220的基于云的动态地图230形式的全局数据。处理系统110还从两个来源接收本地数据(例如通过V2I通信、V2V通信、边缘通信等):由与灯柱233相关的相机生成的数据232和由与车辆210、212相关的传感器生成的数据234。数据232、234可以包括本地数据,其可以是示出VRU222的位置的本地感知地图的形式。应当理解,诸如与车辆210、212和/或灯柱233相关的相机可以具有视场223。

使用数据230、232、234,道路危险220和/或VRU222可被照明,比如通过车辆100、车辆210、车辆212和/或灯柱233。这使得道路危险220和/或VRU222容易被车辆100、210之一的驾驶员观察到。例如,车辆210可以使凹坑220突出221。类似地,车辆201可以使行人突出224。

作为另一示例,例如,当车辆100和/或车辆210接近车辆212时,可以通过打开其停车灯来照明车辆212。这使得车辆100、210之一的驾驶员更容易观察到车辆212。

图3描绘了根据本文描述的一个或多个实施例的用于协同照明的系统300。在该示例中,三个计算/处理环境描述如下:车辆100的处理系统110、云计算环境310和边缘计算环境320。处理系统110可以与环境310、320中的一个或两个通信。

云计算环境310可以包括一个或多个云计算节点,比如云计算节点312。云计算可以补充、支持或替换处理系统110的元件的一些或全部功能。在图3的示例中,云计算节点312可以是存储全局数据的数据存储。全局数据是不限于紧邻车辆100的数据。在示例中,全局数据可以包括路况、速度信息、悬架数据等。云计算节点312可以通信地耦合到车辆的处理系统110,比如通过蜂窝通信(例如5G)直接和/或经由边缘计算环境320。

边缘计算环境320可以包括一个或多个边缘计算节点,比如边缘计算节点322。相对于云计算环境310,边缘计算环境320在更靠近需要它的地方(例如更靠近车辆100)提供计算和数据存储资源。在一些示例中,云计算环境310可以提供比边缘计算环境320更多的数据,但具有更高的延迟。相比之下,边缘计算环境320提供较低的延迟,但不支持与云计算环境320一样多的数据。在该示例中,边缘计算节点322可以是存储本地数据的数据存储。本地数据是关于紧邻车辆100的区域的数据(例如100英尺内、200码内、0.5英里内等)。边缘计算节点322可以通信地耦合到车辆的处理系统110,比如通过蜂窝(例如5G)、V2I、V2V、V2P和/或V2G通信。

处理系统110包括远程信息处理单元302、传感器304、数据融合单元306和灯控制单元308。远程信息处理单元302实现处理系统110和云计算节点312和/或边缘计算节点322之间的通信。传感器304可以包括一个或多个相机120-123、130-133、驾驶员监视器传感器305、雷达传感器140、激光雷达传感器141等。数据融合单元306获取来自云计算节点312的信息(即全局数据)、来自边缘计算节点322的信息(即本地数据)和来自传感器304的信息,并构建指示检测到的道路危险和/或VRU的地图(物体地图)。例如,数据融合单元306获取常规地图并添加指示检测到的道路危险和/或VRU存在的标记。位置数据用于将检测到的道路危险和/或VRU适当地放置在地图上。灯控制单元308可以照明检测到的道路危险和/或VRU,比如通过改变前灯的光束的亮度、打开/关闭前灯、调整由前灯发射的光束的方向、打开/关闭停车灯或其他类似的灯等,包括其组合。

图4描绘了根据本文描述的一个或多个实施例的用于协同照明的方法400的流程图。

在框402,感知循环开始。感知循环可以是大约每100毫秒,尽管其他持续时间/周期也是可能的,并且在本技术的范围内。

在框404,确定目标车辆(例如车辆100)是否停放。这可以基于从目标车辆接收的车辆运动学数据等。如果确定目标车辆被停放,则在框406确定是否有足够的电池用于照明。该确定可以通过将可用电池水平与阈值进行比较来确定,使得如果满足阈值,则确定存在足够用于照明的电池。如果在框406确定电池不足,则在框408关闭车辆和/或其照明系统。

如果在框406确定电池充足,或者如果在框404确定目标车辆没有停放,则在框410获取目标地图。目标地图指示检测到的道路危险和/或VRU。例如,可以通过添加指示存在检测到的道路危险和/或VRU的标记来补充传统地图以创建目标地图。位置数据用于将检测到的道路危险和/或VRU适当地放置在地图上。从云计算环境310和/或边缘计算环境320接收物体图。

然后在框412确定在物体地图上是否有感兴趣的物体(例如道路危险和/或VRU)。这可以包括确定物体是否沿着车辆100的预期路径、在车辆100的操作者的视野中等。如果在框414没有检测到感兴趣的物体,则在框414,感知循环休眠感知循环的剩余时间。如果在框412检测到感兴趣的物体,则方法400继续在框416创建围绕目标的边界框,在框418基于物体的重量和/或驾驶员凝视从边界框确定质心,并且在框420生成光图案以使质心区域突出。参照图5更详细地描述了框416、418、420。接下来,在框422确定是否存在碰撞风险。也就是说,确定车辆100是否可能与VRU和/或道路障碍物碰撞。例如,这可以通过将车辆100的运动学数据与VRU和/或道路危险的位置进行比较来确定。如果在框422碰撞风险不存在(或不满足阈值),则感知循环可以在框402重新开始。然而,碰撞风险存在,方法400继续在框424提供警报。这可以包括通过人机界面(HMI)提供外部通知,这可以包括鸣响喇叭、打开或点亮灯图案等。方法400然后返回到框402,并且感知循环重新开始。

图5描绘了根据本文描述的一个或多个实施例的照明道路危险510和VRU520的车辆100的图示500。具体地,图5涉及图4的框416、418和420,即在框416创建围绕目标的边界框,在框418基于物体的重量和/或驾驶员凝视从边界框确定质心,并且在框420生成光图案以使质心区域突出。

在该示例中,车辆100被示为沿着路径/轨迹502行驶。还示出了物体地图504,其以围绕车辆100并绕其延伸的区域为界。在这个示例中,检测到两个物体510、520。道路危险510代表另一车辆形式的道路危险。物体520表示VRU。

分别围绕物体510、520创建边界框512、522。根据在此描述的一个或多个实施例,边界框512、522的尺寸被设定为使得它们与相应的物体510、520的尺寸大致相同。生成每个边界框512、522的中心点(或“质心”)。例如,边界框512具有中心点514,边界框522具有中心点524。根据本文描述的一个或多个实施例,中心点514、524是未加权的,使得它们位于相应边界框512、522的中心。

可以基于边界框512、522来创建分组边界框532。根据本文描述的一个或多个实施例,分组边界框532包含边界框512、522中的每个。可以确定分组边界框532的中心点534(或“质心”)。根据本文描述的一个或多个实施例,中心点534不在边界框532的中心;相反,它基于物体510、520的重要性而偏移。在该示例中,如图所示,中心点534偏向VRU(即物体520)。根据本文描述的一个或多个实施例,物体类型的加权可以基于物体的类型(例如VRU与道路危险)和与每个物体相关的风险。例如,幅度较大的坑洞可能比幅度较小的坑洞具有更高的权重。类似地,VRU可以比非VRU具有更高的权重,如图5所示。

在该示例中,车辆100的前灯(未示出)可以配置成使得分组边界框532的加权平均中心(例如中心点534)更加突出。在一些示例中,中心点534也可以基于车辆100的驾驶员的投射凝视。

可以使用以下等式,基于物体位置x

图6描绘了根据本文描述的一个或多个实施例的用于协同照明的方法600的流程图。方法600可以由任何合适的系统或设备来执行,比如图1的处理系统110、图7的处理系统700或任何其他合适的处理系统和/或处理装置(例如处理器)。现在参考图1的元素描述方法600,但不限于此。

在框602,处理系统110接收第一道路数据。根据本文描述的一个或多个实施例,从云计算环境(参见例如图3的云计算环境310)的云计算节点接收第一道路数据。根据本文描述的一个或多个实施例,从边缘计算节点(参见例如图3的边缘计算环境320)接收第一道路数据。根据本文描述的一个或多个实施例,车辆是第一车辆,并且从第二车辆接收第一道路数据,比如从远程处理系统150接收,远程处理系统150可以与第二车辆相关。在这样的示例中,如本文所述,可以经由第一车辆和第二车辆之间的直接车辆间通信协议从第二车辆接收第一道路数据。根据本文描述的一个或多个实施例,第一道路数据包括本地数据和全局数据。本地数据是关于紧邻车辆100的区域的数据(例如100英尺内、200码内、0.5英里内等)。本地数据可以由例如边缘计算环境提供。全局数据是不限于紧邻车辆100的数据。在示例中,全局数据可以包括路况、速度信息、悬架数据等。

在框604,处理系统110从与车辆相关的传感器接收第二道路数据。传感器可以是相机120-123、130-133、雷达传感器140、激光雷达传感器141和/或任何其他合适传感器中的一个或多个。

在框606,处理系统110至少部分地基于第一道路数据和第二道路数据来识别易受伤害的道路使用者或道路危险中的至少一个。根据本文描述的一个或多个实施例,识别易受伤害的道路使用者或道路危险中的至少一个包括通过车辆的处理装置(比如使用数据融合单元306)融合第一道路数据和第二道路数据。根据本文描述的一个或多个实施例,识别易受伤害的道路使用者或道路危险中的至少一个还至少部分地基于车辆操作者的凝视。

根据本文所述的一个或多个实施例(参见例如图5),识别易受伤害的道路使用者或道路危险中的至少一个包括生成物体地图,在易受伤害的道路使用者或道路危险中的至少一个周围生成(在物体地图上)边界框,以及确定边界框的质心。在这样的示例中,易受伤害的道路使用者或道路危险中的至少一个是易受伤害的道路使用者或道路危险中的第一至少一个,边界框是第一边界框,质心是第一质心。在这样的示例中,该方法还包括识别易受伤害的道路使用者或道路危险中的第二至少一个;在物体地图上,围绕易受伤害的道路使用者或道路危险中的第二至少一个产生第二边界框;确定第二边界框的第二质心;在物体地图上,在易受伤害的道路使用者或道路危险中的第一至少一个和易受伤害的道路使用者或道路危险中的第二至少一个周围生成组边界框;以及确定组边界框的组质心。在示例中,至少部分地基于易受伤害的道路使用者或道路危险中的第一至少一个的类型和易受伤害的道路使用者或道路危险中的第二至少一个的类型来偏移组质心。

在框608,处理系统110使易受伤害的道路使用者或道路危险中的至少一个被照明。例如,使易受伤害的道路使用者或道路危险中的至少一个被照明包括使用车辆的灯组件照明易受伤害的道路使用者或道路危险中的至少一个。作为另一示例,照明包括增加(和/或减少)由车辆100的灯组件(例如前灯、停车灯等)发出的光的亮度。根据本文描述的一个或多个实施例,使易受伤害的道路使用者或道路危险中的至少一个被照明包括使用另一车辆(例如车辆210、车辆212)的灯组件照明易受伤害的道路使用者或道路危险中的至少一个。在示例中,另一车辆可以是停放或运行的车辆。

还可以包括额外的过程,并且应该理解,图6中描绘的过程代表说明,并且在不脱离本公开的范围和精神的情况下,可以添加其他过程或者可以移除、修改或重新安排现有过程。

应当理解,本公开能够结合现在已知或以后开发的任何类型的计算环境来实现。例如,图7描绘了用于实现本文描述的技术的处理系统700的框图。在示例中,处理系统700具有一个或多个中央处理单元(处理器)721a、721b、721c等(统称或总称为处理器721和/或处理装置)。在本公开的方面,每个处理器721可以包括精简指令集计算机(RISC)微处理器。处理器721经由系统总线733耦合到系统存储器(例如随机存取存储器(RAM)724)和各种其他部件。只读存储器(ROM)722耦合到系统总线733,并且可以包括控制处理系统700的某些基本功能的基本输入/输出系统(BIOS)。

还描绘了耦合到系统总线733的输入/输出(I/O)适配器727和网络适配器726。I/O适配器727可以是与硬盘723和/或存储设备725或任何其他类似部件通信的小型计算机系统接口(SCSI)适配器。I/O适配器727、硬盘723和存储设备725在此统称为大容量存储器734。用于在处理系统700上执行的操作系统740可以存储在大容量存储器734中。网络适配器726将系统总线733与外部网络736互连,使得处理系统700能够与其他这样的系统通信。

显示器(例如显示监视器)735通过显示适配器732连接到系统总线733,显示适配器732可以包括图形适配器以提高图形密集型应用的性能和视频控制器。在本公开的一方面,适配器726、727和/或732可以连接到一个或多个I/O总线,这些I/O总线通过中间总线桥(未示出)连接到系统总线733。用于连接诸如硬盘控制器、网络适配器和图形适配器之类的外围设备的合适的I/O总线通常包括通用协议,比如外围部件互连(PCI)。附加的输入/输出设备示出为经由用户接口适配器728和显示适配器732连接到系统总线733。键盘729、鼠标730和扬声器731(或其他合适的输入和/或输出,比如信息娱乐系统的触摸屏)可以通过用户接口适配器728互连到系统总线733,用户接口适配器728可以包括例如将多个设备适配器集成到单个集成电路中的超级I/O芯片。一个或多个相机120-123、130-133也连接到系统总线733。

在本公开的一些方面,处理系统700包括图形处理单元737。图形处理单元737是专门的电子电路,其设计成操纵和改变存储器,以加速在帧缓冲器中创建图像,用于输出到显示器。一般而言,图形处理单元737在操纵计算机图形和图像处理方面非常高效,并且具有高度并行的结构,这使得它对于并行处理大数据块的算法来说比通用CPU更有效。

因此,如本文所配置,处理系统700包括处理器721形式的处理能力,包括系统存储器(例如RAM724)和大容量存储器734的存储能力,诸如键盘729和鼠标730的输入装置,以及包括扬声器731和显示器735的输出能力。在本公开的一些方面,系统存储器(例如RAM724)的一部分和大容量存储器734共同存储操作系统740,以协调处理系统700中所示的各种部件的功能。

为了说明的目的,已经给出了本公开的各种示例的描述,但这些描述并不旨在穷举或者限制于所公开的实施例。在不脱离所述技术的范围和精神的情况下,许多修改和变化对于本领域普通技术人员来说是显而易见的。选择本文使用的术语是为了最好地解释本技术的原理、实际应用或对市场上发现的技术的技术改进,或者使本领域的其他普通技术人员能够理解本文公开的技术。

虽然已经参考示例性实施例描述了上述公开,但本领域技术人员将理解,在不脱离其范围的情况下,可以进行各种改变并且等同物可以替代其元件。此外,在不脱离本公开的实质范围的情况下,可以进行许多修改以使特定的情况或材料适应本公开的教导。因此,意图是本技术不限于所公开的特定实施例,而是将包括落入本申请范围内的所有实施例。

相关技术
  • 一种应用于智慧道路照明的车路协同系统及其控制方法
  • 一种车路协同的隧道内照明控制方法、系统及设备
技术分类

06120115606821