可左右滑动选省市

由物理对象触发的人工现实实用新型专利

更新时间:2024-07-05
由物理对象触发的人工现实实用新型专利 专利申请类型:实用新型专利;
源自:美国高价值专利检索信息库;

专利名称:由物理对象触发的人工现实

专利类型:实用新型专利

专利申请号:CN202080054473.3

专利申请(专利权)人:元平台技术有限公司
权利人地址:美国加利福尼亚州

专利发明(设计)人:L·A·邦德,C·J·奥坎波,S·扎内蒂

专利摘要:本公开描述了一种人工现实系统,该系统基于或响应于与物理环境内的一个或多个物理对象的交互,来呈现人工现实内容或人工现实效果。在一个示例中,本公开描述了一种方法,该方法包括确定用户已对触发对象执行触发动作;响应于确定用户已执行触发动作,而生成人工现实内容;在与头戴式显示器相关联的显示器上呈现人工现实内容;确定用户已执行解除触发动作;并且响应于确定用户已执行解除触发动作,而中断人工现实内容的呈现。

主权利要求:
1.一种人工现实系统,包括:
图像捕获系统,被配置为捕获表示物理环境的图像数据,所述物理环境包括多个物理对象;
头戴式显示器HMD(112),由用户佩戴;
测绘引擎(328),被配置为基于所述图像数据确定所述物理环境的地图,所述地图包括关于所述HMD和被包括在所述多个物理对象中的触发对象的位置信息;以及应用引擎(320),被配置为:确定所述用户已对所述触发对象执行触发动作,
响应于确定所述用户已执行所述触发动作,生成包括人工现实内容的人工现实环境,在与所述HMD相关联的显示器上呈现经触发的包括所述人工现实内容的所述人工现实环境,确定所述用户已执行解除触发动作,以及
响应于确定所述用户已执行所述解除触发动作,停止所述人工现实环境的呈现,其中所述应用引擎(320)还被配置为:在确定所述用户已对所述触发对象执行所述触发动作之前,呈现空闲人工现实内容,其中所述空闲人工现实内容是物理环境(120)的图像,或包括叠加在物理环境的图像上的人工现实内容(120)。
2.根据权利要求1所述的人工现实系统,其中所述触发对象是能够支撑所述用户处于坐姿的对象,并且所述触发动作是所述用户坐在所述触发对象上,并且可选地,其中所述解除触发动作是所述用户在坐在所述触发对象上之后站起来。
3.根据权利要求1所述的人工现实系统,其中为了停止经触发的所述人工现实环境的呈现,所述应用引擎(320)还被配置为:呈现所述物理环境的图像。
4.根据权利要求1所述的人工现实系统,其中为了停止经触发的所述人工现实环境的呈现,所述应用引擎(320)还被配置为:呈现所述空闲人工现实内容。
5.根据权利要求1所述的人工现实系统,
其中为了生成被包括在所述人工现实环境中的所述人工现实内容,所述应用引擎(320)还被配置为响应于确定所述用户已执行所述触发动作而执行模式改变;以及其中为了停止经触发的所述人工现实环境的呈现,所述应用引擎(320)还被配置为响应于确定所述用户已执行所述解除触发动作而执行另一模式改变。
6.根据权利要求1所述的人工现实系统,其中所述应用引擎(320)还被配置为:检测标识所述触发对象的输入,其中所述触发对象是所述物理环境内的任意物理对象。
7.根据权利要求1所述的人工现实系统,其中为了生成所述人工现实环境,所述应用引擎(320)还被配置为:将人工现实内容叠加在所述物理环境的图像上,或者
基于关于以下项中的至少一项的信息,来生成所述人工现实内容:所述物理环境的属性、时间、日期、触发对象类型、触发动作类型或环境属性。
8.根据权利要求1所述的人工现实系统,其中所述多个物理对象包括能够接受输入的设备,并且其中为了生成所述人工现实环境,所述应用引擎(320)还被配置为:对所述物理环境的属性执行动作,包括以下项中的一项或多项:改变所述物理环境中的照明、在所述物理环境中呈现音乐或向所述设备提供输入。
9.根据权利要求1所述的人工现实系统,其中为了生成所述人工现实环境,所述应用引擎(320)还被配置为:标识所述用户;以及
基于关于所述用户的信息生成所述人工现实环境。
10.根据权利要求9所述的人工现实系统,其中为了标识所述用户,所述应用引擎还被配置为:基于由所述HMD(112)检测到的生物特征信息来标识所述用户,或者响应于由所述HMD(112)呈现的提示,基于由所述HMD(112)检测到的输入来标识所述用户。
11.根据权利要求9所述的人工现实系统,其中关于所述用户的所述信息是与所述用户相关联的简档信息,或者关于所述用户的所述信息基于所述用户拥有的对象,或者是从由所述用户维护的日历中导出的信息。
12.一种操作人工现实控制台的方法,所述方法包括:
由图像捕获系统捕获表示物理环境的图像数据,所述物理环境包括多个物理对象,所述多个物理对象包括由用户佩戴的头戴式显示器HMD;
由测绘引擎基于所述图像数据确定所述物理环境的地图,所述地图包括关于所述HMD和包括在所述多个物理对象中的触发对象的位置信息;
由应用引擎,确定用户已对所述触发对象执行触发动作;
响应于确定所述用户已执行所述触发动作,生成人工现实内容;
由所述应用引擎,在与所述HMD相关联的显示器上呈现所述人工现实内容;
由所述应用引擎,确定所述用户已执行解除触发动作;
响应于确定所述用户已执行所述解除触发动作,中断所述人工现实内容的呈现,其中在确定所述用户已对所述触发对象执行所述触发动作之前,由所述应用引擎呈现空闲人工现实内容;并且其中所述空闲人工现实内容是物理环境的图像,或包括叠加在物理环境的图像上的人工现实内容。
13.一种非瞬态计算机可读介质,包括用于使根据权利要求1所述的人工现实系统的处理电路系统执行根据权利要求12所述的方法。 说明书 : 由物理对象触发的人工现实技术领域[0001] 本公开总体上涉及人工现实系统,诸如虚拟现实、混合现实和/或增强现实系统,并且更具体地涉及在人工现实应用中的呈现内容和执行操作。背景技术[0002] 人工现实系统正在变得越来越普遍,在很多领域有应用,诸如计算机游戏、健康和安全、工业和教育。举几个示例,人工现实系统正在被并入移动设备、游戏机、个人电脑、电影院和主题公园中。一般而言,人工现实是一种在呈现给用户之前已以某种方式进行调节的现实形式,其可以包括例如虚拟现实(VR)、增强现实(AR)、混合现实(mixedreality)(MR)、混合现实(hybridreality)、或其某种组合和/或衍生物。[0003] 典型的人工现实系统包括用于向用户渲染和显示内容的一个或多个设备。作为一个示例,人工现实系统可以包含头戴式显示器(HMD),该HMD由用户佩戴并且被配置为向用户输出人工现实内容。人工现实内容可以包括多种不同类型的人工现实内容,包括透视AR、叠加AR、完全生成的内容、与捕获内容(例如,真实世界视频和/或图像)组合的生成内容、或其他类型。在操作期间,用户通常与人工现实系统交互以选择内容、启动应用或以其他方式配置系统。发明内容[0004] 本公开描述了一种人工现实系统,该系统根据所附权利要求基于或响应于与物理环境内的一个或多个物理对象的交互,来呈现人工现实内容或人工现实效果。本公开还描述了根据所附权利要求的方法和非瞬态计算机可读介质。本文中描述的技术包括检测关于特定对象(即,“触发对象”)而执行的一个或多个交互(例如,“触发动作(triggeringaction)”或“触发动作(triggeraction)”)。在检测到触发动作时,人工现实系统可以创建和/或呈现各种人工现实内容或效果。在一些实施例中,这样的人工现实内容或效果可以包括开始游戏或通信会话、用人工现实内容增强用户的物理环境的方面、或呈现沉浸式人工现实环境或虚拟世界。本文中描述的技术还包括响应于与触发对象的另一后续交互(例如,“解除触发动作”)而停止这样的人工现实内容的呈现。[0005] 在一个具体实施例中,椅子可以作为触发对象,并且响应于用户坐在椅子上,人工现实系统可以呈现特定人工现实内容。在这样的示例中,人工现实系统稍后可以检测到用户不再坐在椅子上而是站立。作为响应,人工现实系统可以停止人工现实内容的呈现并且呈现物理环境的图像(或者,在其他示例中,呈现不同人工现实内容)。[0006] 在一些实施例中,本公开描述了由根据本公开的一个或多个方面的人工现实系统执行的操作。在一个特定实施例中,本公开描述了一种方法,该方法包括确定用户已对触发对象执行触发动作,并且响应于确定用户已执行触发动作,呈现人工现实内容。[0007] 在另一方面,本公开描述了一种系统,该系统包括:图像捕获系统,被配置为捕获表示包括多个物理对象的物理环境的图像数据;由用户佩戴的头戴式显示器(HMD);测绘引擎,被配置为基于图像数据确定物理环境的地图,该地图包括关于HMD和被包括在多个物理对象中的触发对象的位置信息;以及应用引擎,该应用引擎被配置为:确定用户已对触发对象执行触发动作,响应于确定用户已执行触发动作而生成人工现实环境,在与HMD相关联的显示器上呈现人工现实环境,确定用户已执行解除触发动作,并且响应于确定用户已执行解除触发动作而停止人工现实环境的呈现。[0008] 在根据本发明的系统的一个实施例中,触发对象可以是能够支撑用户处于坐姿的对象,并且触发动作可以是用户坐在触发对象上。[0009] 在根据本发明的系统的一个实施例中,解除触发动作可以是用户在坐在触发对象上之后站起来。[0010] 在根据本发明的系统的一个实施例中,为了停止人工现实环境的呈现,应用引擎还可以被配置为呈现物理环境的图像。[0011] 在根据本发明的系统的一个实施例中,人工现实环境可以是触发式人工现实环境,其中应用引擎还可以被配置为在确定用户已对触发对象执行触发动作之前,呈现空闲人工现实环境。[0012] 在根据本发明的系统的一个实施例中,人工现实环境可以是触发式人工现实环境,其中应用引擎还可以被配置为在确定用户已对触发对象执行触发动作之前,呈现空闲人工现实环境。此外,为了停止触发式人工现实环境的呈现,应用引擎还可以被配置为呈现空闲人工现实环境。[0013] 在根据本发明的系统的一个实施例中,人工现实环境可以是触发式人工现实环境,其中应用引擎还可以被配置为在确定用户已对触发对象执行触发动作之前,呈现空闲人工现实环境。此外,为了生成触发式人工现实内容,应用引擎还可以被配置为响应于确定用户已执行触发动作而执行模式改变;并且为了停止触发式人工现实环境的呈现,应用引擎还可以被配置为响应于确定用户已执行解除触发动作,而执行另一模式改变。[0014] 在根据本发明的系统的一个实施例中,应用引擎还可以被配置为检测标识触发对象的输入,其中触发对象可以是物理环境内的任意物理对象。[0015] 在根据本发明的系统的一个实施例中,为了生成人工现实环境,应用引擎还可以被配置为将人工现实内容叠加在物理环境的图像上。[0016] 在根据本发明的系统的一个实施例中,多个物理对象可以包括能够接受输入的设备,并且为了生成人工现实环境,应用引擎还可以被配置为对物理环境的属性执行动作,包括以下项中的一项或多项:改变物理环境中的照明、在物理环境中呈现音乐或向设备提供输入。[0017] 在根据本发明的系统的一个实施例中,为了生成人工现实环境,应用引擎还可以被配置为基于关于以下项中的至少一项的信息生成人工现实内容:物理环境的属性、时间、日期、触发对象类型、触发操作类型或环境属性。[0018] 在根据本发明的系统的一个实施例中,为了生成人工现实环境,应用引擎还可以被配置为标识用户;并且基于关于用户的信息生成人工现实环境。此外,为了标识用户,应用引擎还可以被配置为基于由HMD检测到的生物特征信息标识用户,或者响应于由HMD呈现的提示基于由HMD检测到的输入标识用户。[0019] 在根据本发明的系统的一个实施例中,为了生成人工现实环境,应用引擎还可以被配置为标识用户;并且基于关于用户的信息生成人工现实环境。此外,关于用户的信息可以是与用户相关联的简档信息,或者关于用户的信息可以基于用户拥有的对象,或者关于用户的信息可以是从由用户维护的日历中导出的信息。[0020] 在另一方面,本公开描述了一种方法,该方法包括:由人工现实系统捕获表示物理环境的图像数据,物理环境包括多个物理对象,包括由用户佩戴的头戴式显示器(HMD);由人工现实系统基于图像数据确定物理环境的地图,该地图包括关于HMD和被包括在多个物理对象中的触发对象的位置信息;由人工现实系统确定用户已对触发对象执行触发动作;响应于确定用户已执行触发动作,生成人工现实内容;由人工现实系统在与HMD相关联的显示器上呈现人工现实内容;由人工现实系统确定用户已执行解除触发动作;并且响应于确定用户已执行解除触发动作,中断人工现实内容的呈现。[0021] 在根据本发明的方法的一个实施例中,人工现实内容可以是触发式人工现实内容,并且该方法还可以包括在确定用户已对触发对象执行触发动作之前,由人工现实系统呈现空闲人工现实内容。[0022] 在另一方面,本公开描述了一种包括指令的计算机可读存储介质,该指令在被执行时将计算系统的处理电路系统配置为:捕获表示物理环境的图像数据,物理环境包括多个物理对象,该多个物理对象包括由用户佩戴的头戴式显示器(HMD);基于图像数据确定物理环境的地图,该地图包括关于HMD和包括在多个物理对象中的触发对象的位置信息;确定用户已对触发对象执行触发动作;响应于确定用户已执行触发动作,生成人工现实内容;在与HMD相关联的显示器上呈现人工现实内容;确定用户已执行解除触发动作;并且响应于确定用户已执行解除触发动作,中断人工现实内容的呈现。[0023] 本公开的一个或多个示例的细节在附图和以下描述中阐述。本公开的其他特征、目的和优点将从描述和附图以及从权利要求中很清楚。附图说明[0024] 图1A是示出根据本公开的一个或多个方面的、生成人工现实内容的示例人工现实系统的概念图。[0025] 图1B是示出根据本公开的一个或多个方面的、响应于与对象的一个或多个交互,而生成人工现实内容的示例人工现实系统的概念图。[0026] 图1C是示出根据本公开的一个或多个方面的、在呈现人工现实内容时,生成用户接口菜单的示例人工现实系统的概念图。[0027] 图1D是示出根据本公开的一个或多个方面的、响应于由用户相对于对象而执行的一个或多个动作,而停止人工现实内容的至少一些方面的呈现的示例人工现实系统的概念图。[0028] 图2是描绘被配置为根据本公开的技术进行操作的示例头戴式显示器的图示。[0029] 图3是示出根据本公开的一个或多个方面的示例控制台和示例HMD的示例实现的框图。[0030] 图4是描绘根据本公开的一个或多个方面的用于人工现实系统的用户设备的示例的框图。[0031] 图5A、图5B和图5C是示出根据本公开的一个或多个方面的、响应于与书桌的交互,而生成人工现实内容的示例人工现实系统的概念图。[0032] 图6A和图6B是示出根据本公开的一个或多个方面的、响应于与地面空间的一部分的交互,而生成人工现实内容的示例人工现实系统的概念图。[0033] 图7是示出根据本公开的一个或多个方面的、由示例人工现实控制台执行的操作的流程图。具体实施方式[0034] 图1A、图1B、图1C和图1D是示出根据本公开的一个或多个方面的由示例人工现实系统执行的操作的一系列概念图。在图1A、图1B和图1C中的每个图中,人工现实系统100被描绘为在物理环境120内或在物理环境120上操作。物理环境120被示出为房间,该房间包括用户101和多个真实世界或物理对象,物理对象包括HMD112、窗户108、座位110和挂钟114。诸如灯107和图片109等其他物理对象被包括在物理环境120内,但未与物理环境120一起具体在图1A中示出。然而,例如,灯107和图片109的图像在图1A的人工现实内容122A内示出。[0035] 人工现实系统100包括头戴式显示器(HMD)112、控制台106、一个或多个外部传感器190、以及相机192A和192B(统称为“相机192”,表示任何数目的相机)。尽管在一些示例中,外部传感器190和相机192可以是固定设备(例如,固定到墙壁),但在其他示例中,外部传感器190和/或相机192中的一个或多个可以被包括在HMD112内、在用户设备(未示出)内、或在任何其他设备或系统内。如图1A、图1B、图1C和图1D中的每个所示,HMD112通常由用户101佩戴,并且包括用于向用户呈现人工现实内容122A的电子显示器和光学组件。此外,在一些示例中,HMD112可以包括用于跟踪HMD的运动的一个或多个传感器(例如,加速度计),并且可以包括用于捕获周围环境的图像数据的一个或多个图像捕获设备,例如,相机、线扫描仪等。[0036] 人工现实系统100可以使用从真实世界或物理三维(3D)环境中获取的信息来渲染人工现实内容以供HMD112显示,从而将该内容呈现给用户101。在图1A、图1B、图1C和图1D所示的示例中的每个中,用户101查看和/或被呈现由在控制台106和/或HMD112上执行的人工现实应用构建和渲染的人工现实内容。在图1A的示例中,用户101被呈现和/或查看人工现实内容122A。类似地,在图1B中,用户101查看人工现实内容122B,在图1C中,用户101查看人工现实内容122C,在图1D中,用户101查看人工现实内容122D。在每种情况下,人工现实内容可以包括物理环境120内的物理对象的图像,包括灯107、窗户108和图片109(参见人工现实内容122A和122D),或者在其他情况下,人工现实内容可以包括很少或者没有物理对象的图像(例如,人工现实内容122B和122C)。[0037] 如本文中进一步描述的,一些物理对象可以是特殊对象或“触发对象”。触发对象可以是如下对象:当针对这样的对象执行某些交互时,人工现实系统100执行一个或多个特定或特殊操作。例如,在一些示例中,座位110可以用作触发对象。在这样的示例中,当人工现实系统100确定用户101已执行导致用户101坐在座位110上的运动时,人工现实系统100可以确定该运动符合触发动作的条件。作为另一示例,当人工现实系统110确定用户101坐在座位110上时,人工现实系统100可以确定用户已执行符合触发动作的条件的运动。人工现实系统100可以响应于触发动作而执行一个或多个特定操作,该操作可以包括在用户101佩戴的HMD112内呈现特定人工现实内容。[0038] 在图1A、图1B、图1C和图1D的图示中的每个中,控制台106被示出为单个计算设备,诸如游戏控制台、工作站、台式计算机或膝上型计算机。在其他示例中,控制台106可以分布在多个计算设备上,诸如分布式计算网络、数据中心或云计算系统。如图所示,HMD112、控制台106、外部传感器190和相机192可以经由网络104通信耦合,网络104可以是有线或无线网络,诸如Wi‑Fi、网状网络或短距离无线通信介质。在一些示例中,用户101可以使用一个或多个控制器(未示出)来执行手势或其他动作。在这样的示例中,这样的控制器可以使用近场通信或短距离无线通信(诸如Bluetooth)、使用有线通信链路、或使用另一类型的通信链路与HMD112通信。尽管HMD112在图1A、图1B、图1C和图1D中的每个中被示出为与控制台106通信(例如,绑定在其上)或与控制台106无线通信,但是在一些实现中,HMD112作为独立的移动的人工现实系统操作。因此,在本公开中归因于控制台106的一些或所有功能可以分布在一个或多个用户设备之间,诸如HMD112的一个或多个实例。[0039] 在一些示例中,在控制台106和/或HMD112上执行的人工现实应用,基于用户101的当前查看视角向用户101呈现人工现实内容。即,例如,在图1A中,人工现实应用通过跟踪和计算HMD112的参考系的姿势信息来构建人工内容,并且使用从HMD112、外部传感器190和/或相机192接收的数据,来捕获真实世界物理3D环境120内的3D信息,诸如用户101的运动、和/或关于用户101和一个或多个物理对象的跟踪信息,以用于计算更新后的HMD112(或另一用户设备)的对应参考系的姿势信息。作为一个示例,人工现实应用可以基于针对HMD112而确定的当前查看视角,来渲染人工现实环境,包括人工现实内容122A,在一些情况下,人工现实内容122A具有叠加在物理或真实世界对象(例如,窗户108)上的人工现实内容。此外,从HMD112的角度来看,人工现实系统100基于用户101和其他物理对象的估计位置和姿势来渲染人工现实内容。[0040] 在图1A的示例中,根据本公开的一个或多个方面,人工现实系统100可以呈现人工现实环境,该人工现实环境包括在HMD112内的内容122A。例如,在可以参考图1A描述的示例中,HMD112、外部传感器190和/或相机192捕获物理环境120内的图像。HMD112检测关于用户101的当前姿势的信息。控制台106接收这样的图像和关于用户101的当前姿势的信息,并且确定物理环境120内物理对象(包括用户101和座位110)的位置。控制台106基于物理环境120内物理对象的位置和姿势信息,确定用户101在物理环境120内正站在座位110附近。基于位置信息和姿势信息,控制台106生成人工现实内容122A。控制台106使HMD112以图1A所示的方式向HMD112内的用户101呈现人工现实内容122A。[0041] 人工现实系统100可以检测到用户101已执行触发动作,并且作为响应,呈现人工现实内容122B。例如,继续该示例并且现在参考图1B,HMD112、外部传感器190和/或相机192捕获物理环境120内的图像,并且HMD112捕获关于用户101的当前姿势的信息。控制台106接收图像和姿势信息,并且确定用户101已移动,从而用户101坐在座位110上,如图1B所示。控制台106确定用户101的移动对应于触发动作。响应于触发动作,控制台106生成人工现实内容122B。控制台106使HMD112以图1B所示的方式向HMD112内的用户101呈现人工现实内容122B。[0042] 在图1B中,人工现实内容122B包括与驾驶场景相对应的内容,诸如可以为人工现实驾驶游戏或人工现实驾驶体验而呈现。人工现实内容122B包括可以与人工现实汽车内包括的对象相对应的虚拟仪表板141和虚拟方向盘142。在人工现实内容122B内,示出了来自正在沿着虚拟道路143行驶的这样的人工现实汽车的视图。在一些示例中,虚拟方向盘142(或人工现实内容122B的其他方面)可以对应于用户101拥有或附近的物理对象,但在其他示例中,虚拟方向盘142可以只是虚拟方向盘142。[0043] 人工现实内容122B可以由人工现实系统100基于先前配置来选择,该先前配置指示每次用户101坐在人工现实系统100上时,可以呈现与人工现实内容122B相对应的游戏或其他人工现实应用。在这样的示例中,坐在座位110上可以具有一致且已知的结果,并且用户101可以通过简单地坐在座位110上来发起与人工现实内容122B相关联的人工现实体验。在其他示例中,座位110可以发起另一种类型的体验,诸如虚拟电影院、虚拟野生动物园或虚拟世界,或者可以发起应用,诸如通信或视频会议会话。在一些示例中,坐在座位110上可以使或使得用户101能够接听电话或视频电话并且进入或发起电话会议或视频会议。在一些示例中,由人工现实内容122呈现的体验可以基于关于用户101的上下文信息,诸如来自由用户101维护的日历的信息(基于用户日历上的约会的电话会议会话,或在假期期间,如果用户101庆祝,则适当的装饰可以被包括在人工现实内容122B中)。在其他示例中,人工现实内容122B可以基于用户101的先前活动(每天早上,用户101向亲戚发起呼叫,或者花时间在特定人工现实环境中阅读,或者在周末,用户101经常喜欢去他或她父母家,或重温旧的记忆)。为了标识用户,HMD112可以使用生物特征信息和/或来自用户101的输入(例如,用户名或密码)。[0044] 所呈现的人工现实体验还可以基于如何执行触发动作而不同。例如,在一些示例中,坐在座位110上可以发起一种类型的人工现实体验,而站在座位110上可以发起另一种类型的人工现实体验。在另一示例中,人工现实体验可以基于用户101的条件来呈现,诸如可以基于生物特征信息来确定。例如,在一个这样的示例中,当HMD112确定用户101表现出压力迹象时,可以向用户101呈现平静的人工现实体验(例如,参观童年的家)。更进一步地,如结合图6进一步描述的,可以基于用户101的手中拥有或持有的一个或多个对象(例如,操纵杆或方向盘)来选择人工现实内容122B。[0045] 人工现实系统100可以响应于与用户接口的交互而执行操作。例如,仍然继续相同的示例并且参考图1C,HMD112检测由用户101执行的移动和/或手势。控制台106接收关于该移动和/或手势的信息,并且确定它们对应于呈现用户接口的请求。控制台106生成包括用户接口菜单124的人工现实内容122C。控制台106使HMD112以图1C所示的方式向HMD112内的用户101呈现人工现实内容122C。控制台106可以接收关于以下内容的指示:用户101已执行用于与用户接口菜单124的一个或多个用户接口元素126交互的移动。控制台106可以将这样的移动解释为用于执行操作的命令。作为响应,控制台106可以执行操作以执行这样的命令,该操作可以包括对人工现实内容122C的修改,诸如改变呈现在HMD112内的内容、或改变与呈现在人工现实内容122B和人工现实内容122C中的内容相对应的游戏的配置选项。[0046] 人工现实系统100可以确定用户101已执行解除触发动作,并且作为响应,停止人工现实内容122C的呈现。例如,仍然继续所描述的示例,并且现在参考图1C和图1D,HMD112、外部传感器190和/或相机192捕获图像和姿势信息。控制台106接收图像和姿势信息,并且确定用户101正站在座位110附近并且不再坐在座位110上,如图1D所示。控制台106确定用户101的移动对应于解除触发动作。响应于检测到解除触发动作,控制台106生成人工现实内容122D。在所描述的示例中,解除触发动作在某些方面可以与触发动作相反(即,在坐在椅子上之后站立可以被认为与坐在椅子上相反)。控制台106使HMD112以图1D所示的方式向HMD112内的用户101呈现人工现实内容122D。[0047] 在图1D中,人工现实内容122D包括与图1A的人工现实内容122A中呈现的内容类似的内容。具体地,人工现实内容122D包括灯107、窗户108和图片109,它们中的每个被呈现为来自物理环境120的物理对象的图像。因此,在站起来时,用户101被呈现人工现实内容122D,人工现实内容122D与图1A的人工现实内容122A非常相似。因此,在图1A至图1D所示的示例中,用户101坐在座位110上(即,执行触发动作)并且然后在坐在座位110上之后站起来(即,执行解除触发动作)的效果是,坐在座位110上激活模式改变,使人工现实内容被呈现。然而,在坐在座位110上之后站起来也会导致模式改变,诸如使该人工现实内容的呈现停止(或暂停、中止、保持或终止)。[0048] 因此,在所描述的示例中,用户101可以使用座位110来简单地通过坐在座位110上来自动触发已知的人工现实体验的呈现。坐在座位110上可以是一种用于发起人工现实体验的有效、直观、流畅和自然的方式,并且用户101可以将各种物理对象(即,触发对象)与通过对这样的触发对象执行动作而触发的各种人工现实体验相关联。[0049] 此外,在所描述的示例中,在被呈现人工现实内容122C(图1C中)之后,用户101还可以简单地通过在坐在座位110上之后站起来来逃避、停止、暂停或以其他方式退出该人工现实体验。这也可以是一种用于退出人工现实体验的有效、直观、流畅和自然的方式,在一些示例中,以针对用户101提供一种已知的方式来转变到更基于现实或不同的体验,在这种体验中,很少或没有提供人工现实内容。[0050] 在这样的示例中,站立(或以其他方式执行“解除触发”动作)可以将用户101转变到不涉及沉浸式或密集型人工现实体验的“安全”状态。这样的安全状态可以被认为是其中呈现空闲人工现实内容的“空闲”状态,这可以主要涉及具有很少或没有人工现实内容的物理世界的图像。然而,在其他示例中,这样的“空闲”状态可以涉及叠加在物理元素上的大量人工现实内容或甚至沉浸式人工现实体验。[0051] 图2是描绘被配置为根据本公开的技术进行操作的示例HMD112的图示。图2的HMD112可以是图1A、图1B、图1C和/或图1D的任何HMD112的示例。HMD112可以是诸如人工现实系统100等人工现实系统的一部分,或者可以操作为被配置为实现本文中描述的技术的独立的、移动的人工现实系统。HMD112可以包括能够从HMD112的本体移除的移动设备(例如,智能电话)。[0052] 在图2的示例中,HMD112包括前刚性本体和用于将HMD112固定到用户的带。此外,HMD112包括面向内部的电子显示器203,电子显示器203被配置为向用户呈现人工现实内容。电子显示器203可以是任何合适的显示技术,诸如液晶显示器(LCD)、量子点显示器、点阵显示器、发光二极管(LED)显示器、有机发光二极管(OLED)显示器、阴极射线管(CRT))显示器、电子墨水或单色、彩色、或任何其他类型的能够生成视觉输出的显示器。在一些示例中,电子显示器是用于向用户的每只眼睛提供单独图像的立体显示器。在一些示例中,当跟踪HMD112的位置和取向用于根据HMD112和用户的当前查看视角来渲染人工现实内容时,电子显示器203相对于HMD112的前刚性本体的已知取向和位置被用作参考系,也称为局部原点。[0053] 在图2的示例中,HMD112还包括一个或多个运动传感器206,诸如输出指示HMD112的当前加速度的数据的一个或多个加速度计(也称为惯性测量单元或“IMU”)、输出指示HMD112的位置的数据的GPS传感器、输出指示HMD112与各种对象的距离的数据的雷达或声纳传感器、或者提供HMD112或物理3D环境内的其他对象的位置或取向的指示的其他传感器。此外,HMD112可以包括一个或多个集成传感器设备208,诸如麦克风、音频传感器、摄像机、激光扫描仪、多普勒雷达扫描仪、深度扫描仪等,集成传感器设备208被配置为输出表示周围的真实世界环境的音频或图像数据。HMD112包括内部控制单元210,内部控制单元210可以包括内部电源和一个或多个印刷电路板,该印刷电路板具有一个或多个处理器、存储器和硬件以提供用于执行可编程操作以处理感测数据并且在电子显示器203上呈现人工现实内容的操作环境。内部控制单元210可以是诸如智能电话等可移动计算设备的一部分。[0054] 虽然在图2中示出为具有特定配置和结构,但是HMD112可以采用多种形式中的任何一种。例如,在一些实现中,HMD112可以类似于眼镜或者可以具有不同形式。此外,虽然HMD112可以配置有用于呈现物理内容的表示或图像的电子显示器203,但在其他示例中,HMD112可以包括透明或部分透明的观察透镜,从而实现透视人工现实(即,“STAR”)。此外,HMD可以实现基于波导或其他STAR技术的功能。[0055] 根据本文中描述的技术,控制单元210被配置为在可以包括一个或多个触发对象的物理环境的上下文内呈现内容。例如,HMD112可以基于由运动传感器206生成的感测数据和/或由传感器设备208捕获的音频和图像数据,来计算HMD112的参考系的当前姿势。控制单元210可以包括姿势跟踪单元,姿势跟踪单元可以执行用于处理感测数据和/或图像以计算当前姿势的软件。控制单元210可以存储物理环境的主3D地图并且将处理后的图像与主3D地图进行比较以计算当前姿势。备选地或附加地,控制单元210可以基于由运动传感器206生成的传感器数据计算当前姿势。基于所计算的当前姿势,控制单元210可以为人工现实应用渲染与主3D地图相对应的人工现实内容,并且控制单元210可以经由电子显示器203显示人工现实内容。[0056] 作为另一示例,控制单元210可以针对HMD112在其中正在操作的物理3D环境生成测绘信息,并且经由(多个)有线或无线通信会话向控制台或一个或多个其他计算设备(诸如一个或多个其他HMD)发送测绘信息。以这种方式,HMD112可以贡献测绘信息,用于协作生成针对物理3D环境的主3D地图。例如,测绘信息可以包括由传感器设备208捕获的图像、以指示所计算的局部姿势的形式的跟踪信息、或提供指示物理3D环境内HMD112的位置或取向的跟踪信息(诸如由运动传感器206生成的传感器数据)。[0057] 在一些示例中,根据本文中描述的技术,控制单元210可以与HMD112的一个或多个控制器(图2中未示出的控制器)对等。控制单元210可以从控制器接收传感器数据,该传感器数据提供物理3D环境内或相对于HMD112的用户输入或控制器取向或位置的指示。控制单元210可以将传感器数据的表示发送到控制台以供人工现实应用处理,其中该指示可以是人工现实应用的事件数据。控制单元210可以执行人工现实应用以处理传感器数据。[0058] 图3是示出根据本公开的一个或多个方面的示例控制台和示例HMD的示例实现的框图。虽然图3所示的框图参考HMD112进行描述,但是在其他示例中,归属于HMD112的功能和/或操作可以由不同设备或系统执行,诸如结合图1A所参考的用户设备。[0059] 在图3的示例中,HMD112包括一个或多个处理器302和存储器304,在一些示例中,处理器302和存储器304提供用于执行操作系统305的计算机平台,该操作系统305可以是嵌入式和接近(或看似接近)实时的多任务操作系统。进而,操作系统305提供用于执行一个或多个软件组件307的多任务操作环境。处理器302耦合到电子显示器203(参见图2)。HMD112被示出为包括耦合到处理器302的运动传感器206和传感器设备208,但是在其他示例中,HMD112可以不包括运动传感器206和/或传感器设备208或者仅包括其中的一个。在一些示例中,处理器302和存储器304可以是单独的分立的组件。在其他示例中,存储器304可以是与处理器302并置在单个集成电路内的片上存储器。存储器304、处理器302、操作系统305和应用引擎340组件可以共同表示图2的内部控制单元210的示例。[0060] HMD112可以包括用户输入设备,诸如电子显示器203的触摸屏或其他存在敏感屏幕示例、麦克风、控制器、按钮、键盘等。应用引擎340可以经由电子显示器203生成和呈现登录界面。HMD112的用户可以使用用户接口设备来使用登录界面输入用户的登录信息。HMD112可以将登录信息发送到控制台106以将用户登录到人工现实系统中。[0061] 操作系统305提供用于执行一个或多个软件组件的操作环境,该软件组件包括应用引擎306,应用引擎306可以被实现为任何类型的适当模块。应用引擎306可以是具有一个或多个进程的人工现实应用。应用引擎306可以使用I/O接口(图3中未示出),经由网络或其他通信链路,将由运动传感器206生成的传感器数据或由传感器设备208生成的图像的表示,作为测绘信息发送到控制台106。例如,人工现实应用可以是例如电话会议应用、游戏应用、导航应用、教育应用、或者训练或模拟应用。[0062] 控制台106可以由能够与人工现实系统的用户设备(例如,HMD112)对接的任何合适的计算系统来实现。在一些示例中,控制台106与HMD112接口以增强可以在物理环境120内的内容、或者呈现由在相对于触发对象的特定位置而被执行的动作或手势所触发的人工现实内容。在一些示例中,控制台106至少基于从一个或多个HMD112、外部传感器190和/或相机192接收的测绘信息,来生成用户、物理设备和其他物理对象位于其中的物理3D环境的主3D地图。在一些示例中,控制台106是单个计算设备,诸如工作站、台式计算机、膝上型计算机。在一些示例中,控制台106的至少一部分(诸如处理器352和/或存储器354)可以分布在一个或多个计算设备、云计算系统、数据中心或网络上,诸如互联网、另一公共或私有通信网络,例如宽带、蜂窝、Wi‑Fi和/或其他类型的通信网络,以在计算系统、服务器和计算设备之间传输数据。[0063] 在图3的示例中,控制台106包括一个或多个处理器312和存储器314,处理器312和存储器314提供用于执行操作系统316的计算机平台。进而,操作系统316提供用于执行一个或多个软件组件317的操作环境。处理器312耦合到I/O接口315,I/O接口315提供一个或多个I/O接口以用于与诸如键盘、游戏控制器、显示设备、图像捕获设备等外部设备通信。此外,I/O接口315可以包括用于与诸如网络104(参见例如图1A)等网络通信的一个或多个有线或无线网络接口卡(NIC)。处理器302、312中的每个可以包括多核处理器、控制器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)、或者等效的分立或集成逻辑电路系统中的任何一种或多种。存储器304、314可以包括用于存储数据和可执行软件指令的任何形式的存储器,诸如随机存取存储器(RAM)、只读存储器(ROM)、可编程只读存储器(PROM)、可擦除可编程只读存储器存储器(EPROM)、电子可擦除可编程只读存储器(EEPROM)和/或闪存。控制台106的软件组件317操作以提供整体人工现实应用。在图3的示例中,软件组件317由如本文中描述的模块表示,包括应用引擎320、渲染引擎322、姿势跟踪器326、测绘引擎328和用户接口引擎329。[0064] 应用引擎320包括用于提供和呈现人工现实应用的功能,例如电话会议应用、游戏应用、导航应用、教育应用、训练或模拟应用等。在一些示例中,应用引擎320和应用引擎340可以协作地提供和呈现人工现实应用。应用引擎320可以包括例如一个或多个软件包、软件库、硬件驱动和/或应用程序接口(API),以用于在控制台106上实现人工现实应用。响应于应用引擎320的控制,渲染引擎322通过HMD112的应用引擎340生成3D人工现实内容以显示给用户。[0065] 渲染引擎322根据由姿势跟踪器326确定的参考系(通常是HMD112的查看视角)的当前姿势信息,来渲染由应用引擎320构建的人工内容以显示给用户101。基于当前查看视角,渲染引擎322构建可以至少部分叠加在HMD112所在的物理3D环境上的3D人工现实内容。在该过程中,姿势跟踪器326可以对从HMD112接收的感测数据(诸如移动信息和用户命令)、以及在一些示例中来自外部传感器190和/或相机192的数据(如图1A、图1B和图1C所示)进行操作以捕获物理3D环境内的3D信息,诸如HMD112、其用户、控制器的运动、和/或关于其用户的特征跟踪信息。[0066] 姿势跟踪器326确定与用户在物理环境内的姿势有关的信息。例如,控制台106可以从HMD112接收测绘信息,并且测绘引擎328可以随着时间逐渐生成其中HMD112正在操作的区域的地图,HMD112在该区域周围移动。姿势跟踪器326可以使用任何上述方法将HMD112定位到该区域的地图。姿势跟踪器326还可以尝试将HMD112定位到使用来自其他用户设备的测绘信息而生成的其他地图。在某一时刻,姿势跟踪器326可以计算HMD112要处于物理3D环境的区域中的局部姿势,由使用从不同用户设备接收的测绘信息而生成的地图来描述该区域。使用从位于和定向于所计算的局部姿势的HMD112接收的测绘信息,测绘引擎328可以将使用HMD112的测绘信息而生成的该区域的地图、结合到使用不同用户设备的测绘信息而生成的该区域的地图,以关闭循环并且生成主3D地图的组合地图。测绘引擎328将这样的信息存储为地图数据330。基于由外部传感器190、相机192、HMD112或其他源收集的感测数据,姿势跟踪器326确定HMD112的参考系的当前姿势,并且根据当前姿势将这样的信息提供给应用引擎320以用于生成人工现实内容。然后,该人工现实内容可以被传送到HMD112以经由电子显示器203显示给用户。[0067] 测绘引擎328可以被配置为使用从用户设备接收的测绘信息生成物理3D环境的地图。例如,测绘引擎328可以接收以由传感器设备208在HMD112的局部姿势处捕获的图像的形式的测绘信息、和/或HMD112的跟踪信息。测绘引擎328处理图像以标识用于确定图像中场景的地形的地图点,并且使用地图点生成描述其中HMD112正在操作的物理3D环境的区域的地图数据。地图数据330可以包括物理3D环境的至少一个主3D地图,该主3D地图表示由测绘引擎328使用地图信息所确定的当前最佳地图。[0068] 测绘引擎328可以从在物理3D环境的不同区域中操作的多个不同用户设备接收图像,并且生成针对不同区域的不同地图。不同地图可以是不相交的,因为在某些情况下,地图不会交叠以描述物理3D环境的任何相同区域。然而,对于整个物理3D环境,不同地图仍然可以是主3D地图的不同区域。[0069] 姿势跟踪器326确定与用户在物理环境内的姿势有关的信息。例如,控制台106可以从HMD112接收测绘信息,并且测绘引擎328可以随着时间逐渐生成HMD112在其中正在操作的区域的地图,HMD112在该区域周围移动。姿势跟踪器326可以使用任何上述方法将HMD112定位到该区域的地图。姿势跟踪器326还可以尝试将HMD112定位到使用来自其他用户设备的测绘信息而生成的其他地图。在某一时刻,姿势跟踪器326可以计算用于HMD112处于物理3D环境的区域中的局部姿势,该区域由使用从不同用户设备接收的测绘信息而生成的地图来描述。使用从位于和定向于所计算的局部姿势的HMD112接收的测绘信息,测绘引擎328可以将使用HMD112的测绘信息而生成的该区域的地图,结合到使用不同用户设备的测绘信息而生成的该区域的地图,以关闭循环并且生成主3D地图的组合地图。测绘引擎328将这样的地图存储为地图数据330。基于由外部传感器190、相机192、HMD112或其他源收集的感测数据,姿势跟踪器326确定HMD112的参考系的当前姿势,并且根据当前姿势将这样的信息提供给应用引擎320以用于生成人工现实内容。然后,该人工现实内容可以被传送到HMD112以经由电子显示器203显示给用户。[0070] 测绘引擎328可以使用从HMD112接收的测绘信息更新主3D地图,该测绘信息可以被包括在地图数据330中。在一些示例中,测绘引擎328可以确定与用于生成主3D地图的先前测绘信息相比,测绘信息是否更优选。例如,测绘引擎328可以确定地图信息在时间上较近、分辨率较高或质量较好、指示更多或不同类型的对象、已由具有较高分辨率定位能力(例如,较好惯性测量单元或导航系统)或较好光学特性或较强处理能力或者其他方面更优选的用户设备生成。如果优选,则测绘引擎328根据从HMD112接收的测绘信息生成更新后的主3D地图。测绘引擎328以这种方式逐渐改进主3D地图。[0071] 在一些示例中,测绘引擎328可以与主3D地图的不同地图数据相关联地生成和存储健康数据。例如,一些地图数据可能是陈旧的,因为用于生成地图数据的测绘信息是在一段时间之前接收的,或者地图数据可能质量较差,因为用于生成地图数据的图像质量较差(例如,分辨率较差、照明较差等)。地图数据的这些特性可以与相对较差的健康相关。相反,高质量的地图信息与相对较好的健康相关。地图数据的健康值可以使用得分、描述符(例如,“良好”、“好”、“差”)、生成日期或其他指示符来指示。在一些情况下,如果地图数据的健康满足阈值健康值(例如,低于某个得分),则测绘引擎328可以更新区域的主3D地图的地图数据。如果阈值健康值满足,则测绘引擎328使用从在该区域中操作的HMD112接收的测绘信息,针对主3D地图的该区域生成更新后的区域。否则,测绘引擎328丢弃测绘信息。[0072] 在一些示例中,地图数据330包括用于物理3D环境的不同区域的不同主3D地图。姿势跟踪器326可以使用从HMD112接收的图像将HMD112定位到该区域中的一个中的位置。作为响应,应用引擎320可以选择针对该区域主3D地图,姿势跟踪器326将HMD112定位在在该区域内,并且将主3D地图发送到HMD112,以用于人工现实应用。因此,HMD112可以使用HMD112所在的区域的适当主3D地图,来生成和渲染人工现实内容。[0073] 在一些示例中,地图数据包括物理3D环境的相同区域的不同主3D地图,不同主3D地图表示物理环境的不同状态。例如,第一主3D地图可以描述第一时间(例如,2015年8月)的区域,而第二主3D地图可以描述第二时间(例如,2016年10月)的该区域。例如,应用引擎320可以响应于来自用户的请求或响应于人工现实应用内的触发而确定使用第一主3D地图。测绘引擎328可以在地图数据330中指示第一主3D地图是要用于为人工现实应用渲染人工现实内容的主3D地图。以这种方式,包括控制台106的人工现实系统可以使用描述物理3D环境的历史地图数据来渲染人工现实内容,因为它在早期出现。例如,这种技术可以有利于与教育相关的人工现实应用。[0074] 用户接口引擎329可以执行与当用户正在或已与触发对象(例如,座位110)交互时、和/或当用户执行手势或动作(例如,坐在座位110)时,生成用户接口相关的功能。用户接口引擎329可以从应用引擎320、姿势跟踪器326和/或测绘引擎328接收信息,并且基于该信息生成用户接口(例如,具有用户接口元素126的用户接口菜单124)。用户接口引擎329可以向渲染引擎322输出关于用户接口的信息,使得渲染引擎322可以在HMD112的电子显示器203处呈现叠加在其他物理和/或人工现实内容上的用户接口。因此,用户接口引擎329可以从一个或多个其他模块接收信息和向其输出信息,并且可以以其他方式与控制台106的一个或多个其他引擎或模块交互和/或与其一起操作。[0075] 在一些示例中,诸如以结合图4描述的方式,归因于姿势跟踪器326、渲染引擎322、配置接口332、分类器324和应用引擎320的一些或全部功能可以由HMD112执行。[0076] 图3所示(例如,操作系统316、应用引擎320、渲染引擎322、姿势跟踪器326、测绘引擎328、用户接口引擎329、操作系统305和应用引擎306)、图4所示和/或本公开的其他地方示出或描述的模块或引擎,可以使用驻留在一个或多个计算设备中和/或在一个或多个计算设备处执行的软件、硬件、固件、或硬件、软件和固件的混合来执行所描述的操作。例如,计算设备可以使用多个处理器或多个设备来执行这样的模块中的一个或多个。计算设备可以执行这样的模块中的一个或多个,作为在底层硬件上执行的虚拟机。这样的模块中的一个或多个可以作为操作系统或计算平台的一个或多个服务来执行。这样的模块中的一个或多个可以在计算平台的应用层作为一个或多个可执行程序执行。在其他示例中,由模块提供的功能可以由专用硬件设备实现。[0077] 虽然某些模块、数据存储、组件、程序、可执行文件、数据项、功能单元、和/或一个或多个存储设备内包括的其他项可以被单独示出,但是这些项中的一个或多个可以组合并且操作作为单个模块、组件、程序、可执行文件、数据项或功能单元。例如,一个或多个模块或数据存储可以组合或部分组合,使得它们作为单个模块操作或提供功能。此外,一个或多个模块可以彼此交互和/或结合彼此操作,使得例如一个模块用作另一模块的服务或扩展。此外,存储设备内示出的每个模块、数据存储、组件、程序、可执行文件、数据项、功能单元或其他项可以包括多个组件、子组件、模块、子模块、数据存储、和/或未示出的其他组件或模块或数据存储。[0078] 此外,存储设备内示出的每个模块、数据存储、组件、程序、可执行文件、数据项、功能单元或其他项可以以各种方式实现。例如,存储设备内示出的每个模块、数据存储、组件、程序、可执行文件、数据项、功能单元或其他项可以实现为可下载或预安装的应用或“app”。在其他示例中,存储设备内示出的每个模块、数据存储、组件、程序、可执行文件、数据项、功能单元或其他项可以实现为在计算设备上执行的操作系统的一部分。[0079] 图4是描绘根据本公开的一个或多个方面的用于人工现实系统的用户设备的示例的框图。在图4中,HMD112可以操作为独立设备,即,未绑定到控制台,并且可以表示任何用户设备的实例,包括结合图1A、图1B、图1C和图1D描述的HMD112。虽然图4所示的设备112主要被描述为头戴式设备,但是在其他示例中,图4所示的设备可以实现为不同设备,诸如平板电脑。然而,在图4的具体示例中,并且以类似于图3的方式,HMD112包括一个或多个处理器302和存储器304,在一些示例中,处理器302和存储器304提供用于执行操作系统305的计算机平台,该操作系统305可以是嵌入式多任务操作系统。进而,操作系统305提供用于执行一个或多个软件组件417的操作环境。此外,处理器302耦合到电子显示器203、运动传感器206和传感器设备208。[0080] 在图4的示例中,软件组件417操作以提供整体人工现实应用。在该示例中,软件组件417包括应用引擎420、渲染引擎422、姿势跟踪器426、测绘引擎428和用户接口(UI)引擎429。在各种示例中,软件组件417的操作类似于图3的控制台106的对应组件(例如,应用引擎320、渲染引擎322、姿势跟踪器326、测绘引擎328和用户接口引擎329)。[0081] 图4的一个或多个方面在本文中可以在包括图1A、图1B、图1C和图1D在内的其他图的上下文内描述。在各种示例中,HMD112可以生成地图信息,确定姿势,检测输入,标识一个或多个触发对象,确定用户已针对对象执行触发动作和解除触发动作,并且呈现人工现实内容。[0082] 根据本公开的一个或多个方面,图1A和图4的HMD112可以生成地图信息。例如,在可以参考图1A和图4描述的示例中,外部传感器190、相机192、传感器设备208中的每个收集关于物理环境120的信息。外部传感器190和相机192将每个收集的信息传送到HMD112,并且这样的信息可以通过网络104或通过其他方式传送到HMD112。HMD112从外部传感器190和/或相机192接收信息,并且将关于物理环境120的信息输出到测绘引擎428。HMD112的传感器设备208还收集关于物理环境120的信息,并且将关于物理环境120的信息输出到测绘引擎428。测绘引擎428基于从外部传感器190、相机192和/或传感器设备208接收的信息确定物理环境120的地图。测绘引擎428将关于地图的信息存储为地图数据430。[0083] HMD112可以确定姿势信息。例如,再次参考图1A和图4,运动传感器206和/或传感器设备208检测关于HMD112的位置、取向和/或地点的信息。姿势跟踪器426从测绘引擎428接收关于HMD112的位置、取向和/或地点的信息。姿势跟踪器426基于该信息确定HMD112的参考系的当前姿势。[0084] HMD112可以将物理环境120内的一个或多个对象标识为触发对象。例如,继续该示例并且参考图1A和图4,测绘引擎428基于从外部传感器190、相机192和/或传感器设备208接收的信息标识具有椅子、长凳、书桌、桌子、地板表面(例如,地毯)或其他对象的形式的一个或多个物理对象。测绘引擎428向应用引擎420输出信息。应用引擎420确定所标识的对象中的一个或多个将被视为触发对象。例如,在一些示例中,应用引擎420可以预先配置(例如,由管理员或通过默认设置)以将能够支撑用户101处于坐姿的任何类型的对象视为触发对象。在这样的示例中,应用引擎420可以在地图数据430中存储将图1A的座位110标识为触发对象的信息。在一些示例中,应用引擎420可以仅将某些类型的座位110识别为触发对象,诸如具有如图1A所示的长凳的形式的对象。然而,在其他示例中,应用引擎420可以备选地或附加地将支撑用户处于坐姿的其他类型的对象识别为触发对象,诸如沙发、或带靠背的椅子、带扶手的椅子、和/或斜倚的椅子。应用引擎420更新地图数据430以反映被标识为触发对象的对象。[0085] 在一些示例中,HMD112和/或人工现实系统,通常可以标识(无论是自动地还是响应于用户输入或以其他方式)在某些意义上可能被认为是任意和/或普通物理对象的触发对象。这样的任意或普通物理对象的示例可以包括椅子或桌子或挂在墙上的装饰品,并且在某些示例中,可以不包含作为人工现实系统的一部分的某些对象,诸如可能定期与人工现实系统的其他组件(例如,控制台106)通信的操纵杆或控制器或设备。[0086] HMD112可以响应于用户输入而标识物理环境120内的一个或多个触发对象。在一些示例中,HMD112可以自动标识触发对象,诸如基于外观、对象的图像和/或先前配置,如上所述。然而,在其他示例中,HMD112可以标识由用户101(或另一用户,诸如管理员)标识的触发对象。例如,在这样的示例中,并且仍然参考图1A和图4,外部传感器190、相机192和/或传感器设备208检测用户101的移动,并且将关于运动的信息输出到姿势跟踪器426。姿势跟踪器426确定运动对应于由用户101执行的手势。姿势跟踪器426向应用引擎420输出关于手势的信息。应用引擎420确定手势对应于用户101将座位110标识为触发对象。在一些示例中,用户101可以指向座位110并且执行应用引擎420识别为用户101将座位110标识为触发对象的手势。在其他示例中,用户接口引擎429可以响应于手势而使用户接口被呈现在HMD112A内,以提示用户101对一个或多个触发对象的标识。在一些示例中,HMD112A可以检测对象,并且提示用户101将检测到的对象配置为触发对象或者确认或拒绝将其用作触发对象。[0087] 此外,在一些示例中,当触发对象被配置时,一个或多个用户接口可以呈现一组配置选项。这样的配置选项可以包括定义要与对象相关联的触发动作(坐在对象上、站在对象上、触摸对象、移动对象、拿起对象、投掷对象)或者配置对这样的动作的响应(开始或恢复游戏、驾驶、飞行或其他模拟器、发起与其他用户或系统的通信)。[0088] HMD112可以确定用户101在物理环境120内但没有坐在座位110上。例如,再次,在可以参考图1A和图4描述的示例中,测绘引擎428向应用引擎420输出关于物理环境120的测绘信息的信息。姿势跟踪器426向应用引擎420输出关于针对HMD112的参考系而确定的当前姿势的信息。应用引擎420基于测绘信息和姿势信息确定用户101正站在座位110附近,但没有坐在座位110上。[0089] HMD112可以在用户101站立时在HMD112内呈现人工现实内容。例如,在图1A中并且参考图4,应用引擎420生成人工现实内容122A。应用引擎420将关于人工现实内容122A的信息输出到渲染引擎422。渲染引擎422使人工现实内容122A以图1A所示的方式被呈现在HMD112内的电子显示器203处。[0090] 在图1A中,人工现实内容122A可以仅对应于物理环境120的图像,其中在物理环境120上叠加有很少或没有人工现实内容。在所示示例中,人工现实内容122A包括窗户108,窗户108是在物理环境120中示出的窗户108的图像。人工现实内容122A还包括灯107和图片109,灯107和图片109两者都是物理环境120内的三维对象(在图1A中,灯107和图片109沿着与窗户108相同的墙壁定位,但未被包括在物理环境120的说明中)。图1A的人工现实内容122A被示出为可以在HMD112内呈现的内容的示例,通常仅示出物理环境120中对象的图像或三维表示。然而,在其他示例中,人工现实内容122A可以包括人工现实内容,包括叠加在物理环境120内的物理对象的图像上的人工现实内容。在至少一些示例中,物理对象从任何角度被渲染以看起来是三维的。[0091] HMD112可以确定用户101已执行关于座位110的触发动作。例如,继续进行参考图1B和图4描述的示例,运动传感器206检测运动并且传感器设备208捕获图像。运动传感器206和传感器设备208将关于检测到的运动和所捕获的图像的信息输出到姿势跟踪器426。姿势跟踪器426确定用户101的当前姿势。姿势跟踪器426向应用引擎420输出关于针对HMD112的参考系而确定的当前姿势的信息。测绘引擎428向应用引擎420输出关于物理环境120的当前测绘信息的信息。应用引擎420基于测绘信息和姿势信息确定用户101已移动使得用户101坐在座位110上,如图1B所示。应用引擎420确定由用户101执行的移动(即,坐在座位110上)符合触发动作的条件。[0092] HMD112可以响应于触发动作而在HMD112内呈现人工现实内容。例如,参考图1B和图4,应用引擎420基于关于触发动作的信息和关于座位110的测绘信息,确定应当呈现与驾驶场景相关的人工现实内容。应用引擎420生成人工现实内容122B。应用引擎420将关于人工现实内容122B的信息输出到渲染引擎422。渲染引擎422使人工现实内容122B以图1B所示的方式被呈现在112内的电子显示器203处。[0093] 在图1B的示例中,与驾驶场景相对应的内容被呈现,诸如用于游戏或其他人工现实应用。在其他示例中,人工现实内容122B可以对应于根据其他类型的应用而渲染的内容,包括但不限于社交互动应用、视频会议应用、运动指令应用、替代世界应用、导航应用、教育应用、游戏应用、训练或模拟应用、增强现实应用、虚拟现实应用、或实现人工现实的其他类型的应用。[0094] 通常,响应于触发动作而呈现的内容将与由用户101执行的触发动作具有某种同等性。例如,如果触发动作涉及从站姿移动到坐姿,则可以向用户101呈现其中用户101处于坐姿的触发内容,如图1B所示。类似地,如果触发动作涉及与桌子的交互,则可以预期人工现实内容或触发内容包括其中用户101正在使用桌子的内容。如果用户101正在跑步以执行触发动作,则响应于这样的触发动作而呈现的人工现实内容可以涉及与跑步动作一致的内容。[0095] 当用户101坐在座位110上时,HMD112可以继续呈现人工现实内容122B。例如,仍然参考图1B和图4,当用户101坐在座位110上时,运动传感器206检测运动并且传感器设备208捕获图像。运动传感器206和传感器设备208向姿势跟踪器426输出关于检测到的运动和图像的信息。姿势跟踪器426确定当前姿势,并且向应用引擎420输出关于当前姿势的信息。测绘引擎428可以向应用引擎420输出关于物理环境120的当前测绘信息的信息。应用引擎420响应于用户101的移动以及响应游戏的进展、或在HMD112中呈现的驾驶体验,而生成更新后的人工现实内容122B(例如,随着用户101沿着虚拟道路143行驶,风景发生变化)。[0096] HMD112可以响应于用户输入而呈现用户接口菜单。例如,现在参考图1C和图4,应用引擎420可以确定用户101的运动或由用户101执行的手势指示用户试图修改一个或多个选项,该一个或多个选项与通过HMD112正向用户101呈现的驾驶体验相对应。响应于这样的确定,应用引擎420向用户接口引擎429输出信息。用户接口引擎429生成用户接口,并且将关于用户接口的信息输出到应用引擎420。应用引擎420生成人工现实内容122C。应用引擎420将关于人工现实内容122C的信息输出到渲染引擎422。渲染引擎422使人工现实内容122C以图1C所示的方式被呈现在HMD112内的电子显示器203处。[0097] 在图1C中,人工现实内容122C包括用户接口菜单124,并且人工现实内容122C类似于人工现实内容122B,增加了叠加在人工现实内容122B上的菜单124。用户接口菜单124内包括一个或多个用户接口元素126。[0098] HMD112可以响应于与用户接口菜单124的交互而执行操作。例如,再次参考图1C和图4,HMD112可以检测用户101的移动,由应用引擎420确定该移动与对用户接口菜单124内的一个或多个用户接口元素126的选择相对应。应用引擎420可以响应于这样的移动而执行一个或多个操作。在一些示例中,这样的操作可以使用户接口引擎429生成另外的用户接口或修改人工现实内容122C的方面。在这样的示例中,应用引擎420更新人工现实内容,并且使渲染引擎422在电子显示器203处向用户呈现更新后的内容。[0099] HMD112可以确定用户101已执行解除触发动作。例如,在可以参考图1D和图4描述的示例中,运动传感器206检测运动并且传感器设备208捕获图像。运动传感器206和传感器设备208将关于检测到的运动和捕获的图像的信息输出到姿势跟踪器426。姿势跟踪器426确定用户101的当前姿势。姿势跟踪器426向应用引擎420输出关于针对HMD112的参考系而确定的当前姿势的信息。测绘引擎428向应用引擎420输出关于物理环境120的当前测绘信息的信息。应用引擎420基于测绘信息和姿势信息确定用户101正站在座位110附近并且是不再坐在座位110上,如图1D所示。应用引擎420确定由用户101执行的动作(即,在坐在座位110上之后站起来)符合解除触发动作的条件。[0100] HMD112可以响应于确定用户101已执行解除触发动作而停止触发内容的呈现。例如,现在参考图1D和图4,应用引擎420基于关于解除触发动作的信息,确定与驾驶场景(图1B和图1C所示)相关的人工现实内容不应当再呈现。应用引擎420生成人工现实内容122D。应用引擎420将关于人工现实内容122D的信息输出到渲染引擎422。渲染引擎422使人工现实内容122D以图1D所示的方式被呈现在HMD112内的电子显示器203处,从而停止人工现实内容122C的呈现。[0101] 在一些示例中,当停止人工现实内容122C的呈现时,人工现实内容122D可以简单地被呈现为物理环境120的图像,而没有来自图1C的人工现实内容122C的任何内容。然而,在其他示例中,来自人工现实内容122C的内容或部分内容的某种指示可以继续呈现在122D中,即使在检测到解除触发动作之后。如图1D所示,例如,游戏得分指示符145被包括在人工现实内容122D中,游戏得分指示符145可以指示当检测到解除触发动作时用户101获取的得分。即使在解除触发动作之后,游戏得分指示符145也可以无限期地或在有限时间段内呈现在人工现实内容122D内,或直到响应于用户输入而被移除。在一些示例中,当呈现在人工现实内容122D中时,游戏得分指示符145的外观可以被修改(例如,用虚线绘制,如图1D所示),从而指示游戏得分指示符145对应于先前呈现在人工现实内容122C中的内容。[0102] 图5A、图5B和图5C是示出根据本公开的一个或多个方面的响应于与书桌的交互而生成人工现实内容的示例人工现实系统的概念图。在图5A、图5B和图5C中的每个中,人工现实系统500被描绘在物理环境520内。物理环境520被示出为房间,该房间包括用户101和多个真实世界或物理对象,包括HMD112、窗户108、书桌510和挂钟114。[0103] 在图5A、图5B和图5C的示例中,人工现实系统500包括在图1A(和其他图示)的人工现实系统100中描述的相同元素中的很多,并且图5A、图5B和图5C中的每个中示出的元素可以对应于在图1A中由相同编号的附图标记标识的图1A所示的元素。一般而言,这样的相同编号的元素可以以与结合图1A或本文中其他地方提供的对应元素的描述一致的方式实现,尽管在一些示例中,这样的元素可以涉及具有更多、更少和/或不同能力和属性的替代实现。因此,图5A、图5B和图5C的人工现实系统500可以被描述为图1A的人工现实系统100的替代示例或实现。[0104] 根据本公开的一个或多个方面,HMD112可以将书桌510标识为触发对象。例如,在可以参考图4和图5A描述的示例中,测绘引擎428基于存储在地图数据430中的信息将书桌510标识为触发对象,其中当用户坐在书桌510处并且在一些示例中将至少一只手臂放在书桌510的表面上时,动作被触发。在一些示例中,测绘引擎428可以预先配置(例如,由管理员)以将书桌510标识为这样的触发对象。然而,在其他示例中,测绘引擎428可以响应于来自用户101的输入而确定书桌510将用作触发对象。[0105] HMD112可以在用户101正站在书桌510附近时呈现人工现实内容522A。例如,再次参考图4和图5A,应用引擎420基于测绘信息和姿势信息确定用户101正站在座位110附近。应用引擎420生成人工现实内容522A。应用引擎420将关于人工现实内容522A的信息输出到渲染引擎422。渲染引擎422使人工现实内容522A以图5A所示的方式被呈现在HMD112内的电子显示器203处。在图5A中,人工现实内容522A可以呈现物理环境520的图像,包括从HMD112的视角从书桌510的图像中导出的虚拟书桌540。[0106] HMD112可以确定用户101已在书桌510上执行触发动作。例如,现在参考图5B,运动传感器206和传感器设备208检测由应用引擎420确定为与用户101坐在书桌510处并且将至少一只手臂放在书桌510上相对应的运动。应用引擎420生成人工现实内容522B。应用引擎420将人工现实内容522B输出到渲染引擎422,渲染引擎422使人工现实内容522B以图5B所示的方式被呈现在HMD112内的电子显示器203处。[0107] 在图5B中,人工现实内容522B包括用户接口菜单124和虚拟书桌540。用户接口菜单124包括一个或多个用户接口元素126,用户接口元素126提供关于将向用户呈现哪种类型的人工现实体验的选项。在一些示例中,在人工现实内容522B中呈现的虚拟书桌540可能只是来自物理环境520的书桌510的图像,而没有任何人工现实内容叠加在图像上。[0108] HMD112可以基于与人工现实内容522B的交互来呈现人工现实内容522C。例如,现在参考图5B和图5C,运动传感器206和传感器设备208检测由应用引擎420确定为与图5B的用户接口菜单124的交互相对应的运动。应用引擎420确定交互对应于用户对要响应于触发动作(即,坐在书桌510处)而呈现的人工现实体验的选择。应用引擎420基于选择生成人工现实内容522C。应用引擎420将人工现实内容522C输出到渲染引擎422,渲染引擎422使人工现实内容522C以图5C所示的方式被呈现在HMD112内的电子显示器203处。[0109] 在图5C中,人工现实内容522C包括虚拟书桌540、虚拟桌灯546和虚拟窗户547。人工现实内容522C可以改变物理环境520内呈现的照明,诸如通过虚拟桌灯546为虚拟书桌540提供附加光。虚拟窗户547可以提供由用户101选择和/或以其他方式为用户101而选择的特定视图。在一些示例中,人工现实内容522C可以与由用户101选择的音乐一起呈现,或者以其他方式基于用户101的所确定的音乐兴趣来选择。[0110] 在先前结合图1A至图1D描述的至少一些示例中,在检测到关于座位110的触发动作时呈现(例如,自动地,而无需另外的用户输入)人工现实内容。该人工现实内容可以基于用户101的身份、与用户101相关联的用户简档、时间、星期、由用户101维护或使用的日历、或其他基于时间的信息来选择。然而,在刚刚参考图5A、图5B和图5C描述的示例中,HMD112在检测到关于书桌510的触发动作时呈现用于选择人工现实内容的选项。然后基于用户101与用户接口(例如,用户接口菜单124)的交互来呈现人工现实内容。因此,在一些示例中,可以在检测到触发动作时自动呈现人工现实内容。在其他示例中,可以在检测到触发动作时向用户101呈现人工现实内容的选项,并且然后可以响应于所选择的选项而呈现人工现实内容。[0111] 图6A和图6B是示出根据本公开的一个或多个方面的响应于与地面空间的一部分的交互而生成人工现实内容的示例人工现实系统的概念图。在图6A和图6B中的每个中,人工现实系统600被描绘为在物理环境620内。物理环境620被示出为房间,该房间包括用户101和多个真实世界或物理对象,包括HMD112、窗户108、地毯610和挂钟114。此外,人工现实系统600包括由用户101持有的上下文对象611。上下文对象611可以是用于选择或帮助选择在检测到触发动作时呈现的特定人工现实体验的对象,如本文所述。[0112] 在图6A和图6B的示例中,人工现实系统600包括在图1A的人工现实系统100中描述的相同元素中的很多,并且图6A和图6B所示的元素可以对应于在图1A中由相同编号的附图标记标识的图1A所示的元素。一般而言,这样的相同编号的元素可以以与结合图1A或本文中其他地方提供的对应元素的描述一致的方式实现,尽管在一些示例中,这样的元素可以涉及具有更多、更少和/或不同能力和属性的替代实现。因此,图6A和图6B的人工现实系统600可以再次被描述为图1A的人工现实系统100的备选示例或实现。[0113] 根据本公开的一个或多个方面,HMD112可以标识地毯610和上下文对象611。例如,在可以参考图4和图6A描述的示例中,测绘引擎428基于存储在地图数据430中的信息将地毯610标识为触发对象。测绘引擎428基于存储在地图数据430中的信息,进一步将上下文对象611标识为用于选择在与地毯610交互时呈现何种类型的人工现实内容的对象。[0114] HMD112可以在用户101没有站在地毯610上时呈现人工现实内容622A。例如,仍然参考6A,应用引擎420基于测绘信息和姿势信息确定用户101正站在物理环境620内,但是在不在地毯610上的位置处。应用引擎420生成人工现实内容622A。应用引擎420将622A输出到渲染引擎422。渲染引擎422使人工现实内容622以图6A所示的方式被呈现在HMD112内的电子显示器203处。[0115] 在图6A中,人工现实内容622A呈现物理环境620内的墙壁的图像。物理环境620包括具有灯107、窗户108和图片109的墙壁。在图6A的图示中,窗户108在物理环境620中是可见的。在人工现实内容622A中,沿着物理环境620中的墙壁的对象的图像被示出,包括灯107、窗户108和图片109。在一些示例中,人工现实内容可以被叠加在人工现实内容622A内呈现的物理环境620的图像上,但在所示示例中,仅呈现有物理环境620的图像。[0116] HMD112可以确定用户101已在地毯610上执行触发动作。例如,现在参考图6B,运动传感器206和传感器设备208检测由应用引擎420确定为与用户101走到地毯610并且站在地毯610上相对应的运动。应用引擎420基于来自运动传感器206、传感器设备208的信息、和/或来自地图数据430的当前测绘信息确定用户101正手持上下文对象611。应用引擎420识别出站在地毯610上的用户101对应于在地毯610上执行的触发动作。应用引擎420生成人工现实内容622B,并且使用关于持有上下文对象611的用户101的信息来选择要包括在人工现实内容622B中的内容。应用引擎420将人工现实内容622B输出到渲染引擎422。渲染引擎422使人工现实内容622B以图6B所示的方式被呈现在HMD112内的电子显示器203处。[0117] 在图6B中,人工现实内容622B中的虚拟远景623替换人工现实内容622A中呈现的物理环境620的图像。在一些示例中,虚拟远景623可以是真实地点的副本,可能是用户101之前访问过的地点。在一些示例中,虚拟远景623中描绘的地点可以与上下文对象611具有某种相关性,这表示,例如上下文对象611被用于选择虚拟远景623。例如,在一个示例中,上下文对象611可以是当访问虚拟远景623中描绘的地点时购买的纪念品用户101。应用引擎420可以基于来自用户101、管理员的先前输入、或通过上下文对象611的图像识别来确定上下文对象611以某种方式与虚拟远景623中描绘的地点相关联。因此,在这样的示例中,应用引擎420使用上下文对象611来选择虚拟远景623以呈现给HMD112内的用户101。[0118] 图7是示出根据本公开的一个或多个方面的由示例人工现实控制台106执行的操作的流程图。下面在图1A至图1D的人工现实系统100的上下文中描述图7。在其他示例中,图7中描述的操作可以由一个或多个其他组件、模块、系统或设备来执行。此外,在其他示例中,结合图7描述的操作可以被合并,以不同顺序执行,被省略,或者可以包含未具体示出或描述的附加操作。[0119] 在图7所示的过程中,并且根据本公开的一个或多个方面,控制台106可以使空闲人工现实内容被呈现在HMD112内(701)。例如,参考图1A,HMD112、外部传感器190和/或相机192中的每个捕获物理环境120内的图像。控制台106接收这样的图像并且确定物理环境120内物理对象的位置,物理对象包括用户101、HMD112和座位110。控制台106生成描述物理环境的地图数据(例如,图3中的地图数据330)。控制台106基于用户输入、图像识别、先前配置或以其他方式将座位110标识为触发对象。控制台106生成人工现实内容122A并且使人工现实内容122A被呈现在HMD112内。在一些示例中,人工现实内容122A可以被视为“空闲”人工现实内容,因为它可能不是响应于触发动作而呈现的人工现实内容。空闲人工现实内容可以只是物理环境120的图像,或者可以包括叠加在物理环境120的图像上的人工现实内容。[0120] 控制台106可以确定用户101是否已执行触发动作(702)。例如,参考图1B,控制台106和/或HMD112检测运动并且捕获图像。控制台106使用检测到的运动和图像来确定用户101的姿势。控制台106使用姿势和/或测绘信息来确定用户101坐在座位110上,如图1B所示。控制台106确定由用户101执行的动作(例如,坐在座位110上)符合触发动作的条件(来自702的“是”路径)。在其中控制台106确定用户101没有坐在座位110上的示例中,控制台106继续呈现空闲内容(来自702的“否”路径)。[0121] 控制台106可以使触发式人工现实内容被呈现在HMD112内(703)。例如,参考图1B,控制台106生成人工现实环境,包括反映驾驶体验的人工现实内容122B。控制台106使人工现实内容122B被呈现在HMD112内。在图1B的示例中,人工现实内容122B可以呈现不包括来自物理环境120的物理元素的沉浸式驾驶体验。然而,在其他示例中,人工现实内容122B可以用人工现实内容来增强物理环境120的方面,而不是提供沉浸式体验。[0122] 控制台106可以确定用户101是否已执行解除触发动作(704)。例如,参考图1D,控制台106和/或112检测运动并且捕获图像。控制台106使用检测到的运动和所捕获的图像来确定用户101的姿势。控制台106确定用户101在坐在座位110上之后站起来,并且控制台106进一步确定用户101站立的运动符合解除触发动作的条件。[0123] 控制台106可以停止触发式人工现实内容的呈现(705)。例如,再次参考图1D,控制台106生成人工现实内容122D,人工现实内容122D类似于人工现实内容122A,人工现实内容122D包括物理环境120的图像。控制台106使人工现实内容122D被呈现在HMD112内。在一些示例中,人工现实内容122D可以基本上类似于人工现实内容122A,并且可以对应于呈现在检测触发动作之前呈现的相同类型的“空闲”内容。因此,控制台106在检测到用户101坐在座位110上之后站起来时,停止人工现实内容122C的呈现并且用空闲人工现实内容(例如,122D)替换人工现实内容122C。[0124] 对于本文中(包括在任何流程图或流程图中)描述的过程、装置和其他示例或说明,本文中描述的任何技术中包括的某些操作、动作、步骤或事件可以以不同顺序执行,可以被添加、合并或完全排除(例如,并非所有描述的动作或事件对于技术的实践都是必要的)。此外,在某些示例中,操作、动作、步骤或事件可以同时执行,例如,通过多线程处理、中断处理或多个处理器来执行,而不是顺序执行。另外的某些操作、动作、步骤或事件可以自动执行,即使没有被明确标识为自动执行。此外,被描述为自动执行的某些操作、动作、步骤或事件可以替代地不是自动执行,而是在一些示例中,这样的操作、动作、步骤或事件可以响应于输入或另一事件而执行。[0125] 为便于说明,在附图中和/或在本文中引用的其他说明中仅示出有限数目的设备(例如,HMD112、控制台106、外部传感器190、相机192、网络104等)。然而,根据本公开的一个或多个方面的技术可以用更多这样的系统、组件、设备、模块和/或其他项目来执行,并且对这样的系统、组件、设备、模块和/或其他项目的统称可以表示任何数目的这样的系统、组件、设备、模块和/或其他项目。[0126] 本文中包括的图均示出了本公开的一方面的至少一个示例实现。然而,本公开的范围不限于这样的实现。因此,除了图中所示的那些之外,本文中描述的系统、方法或技术的其他示例或替代实现在其他情况下可能是合适的。这样的实现可以包括图中包括的设备和/或组件的子集,和/或可以包括图中未示出的附加设备和/或组件。[0127] 上面阐述的详细描述旨在作为对各种配置的描述,而不旨在表示可以实践本文中描述的概念的唯一配置。详细描述包括用于提供对各种概念的充分理解的特定细节。然而,这些概念可以在没有这些具体细节的情况下实践。在某些情况下,众所周知的结构和组件在参考图中以框图形式示出以避免混淆这样的概念。[0128] 因此,虽然可以参考特定附图描述各种系统、设备和/或组件的一种或多种实现,但是这样的系统、设备和/或组件可以以多种不同方式来实现。例如,在本文中的图中(例如,图1A、图1B、图1C、图1D、图2和/或图3)中示出为单独设备的一个或多个设备可以替代地实现为单个设备;示出为单独组件的一个或多个组件可以替代地实现为单个组件。此外,在一些示例中,在本文中的图中示出为单个设备的一个或多个设备可以替代地实现为多个设备;示出为单个组件的一个或多个组件可以替代地实现为多个组件。这样的多个设备和/或组件中的每个可以经由有线或无线通信直接耦合,和/或经由一个或多个网络远程耦合。此外,可以在本文中的各个图中示出的一个或多个设备或组件可以替代地实现为在这样的图中未示出的另一设备或组件的一部分。以这种方式和其他方式,本文中描述的功能中的一些可以通过由两个或更多个设备或组件进行的分布式处理来执行。[0129] 此外,某些操作、技术、特征和/或功能在本文中可以被描述为由特定组件、设备和/或模块执行。在其他示例中,这样的操作、技术、特征和/或功能可以由不同组件、设备或模块来执行。因此,在本文中可以被描述为归因于一个或多个组件、设备或模块的一些操作、技术、特征和/或功能在其他示例中可以归因于其他组件、设备和/或模块,即使本文中没有以这种方式具体描述。[0130] 虽然已结合一些示例的描述确定了具体优点,但是各种其他示例可以包括所列举的优点中的一些、没有一个或全部。通过本公开,本领域普通技术人员可以清楚其他技术或其他优点。此外,尽管本文中已公开了具体示例,但是本公开的方面可以使用任何数目的技术来实现,无论当前是否已知,并且因此,本公开不限于在本公开中具体描述和/或图示的示例。[0131] 本公开中描述的技术可以至少部分以硬件、软件、固件或其任何组合来实现。例如,所描述的技术的各个方面可以在一个或多个处理器内实现,包括一个或多个微处理器、DSP、专用集成电路(ASIC)、现场可编程门阵列(FPGA)、或任何其他等效的集成或离散逻辑电路系统、以及这样的组件的任何组合。术语“处理器”或“处理电路系统”通常可以是指任何前述逻辑电路系统(单独的或与其他逻辑电路结合)、或任何其他等效电路系统。包括硬件的控制单元也可以执行本公开的技术中的一种或多种。[0132] 这样的硬件、软件和固件可以在同一设备内或在单独的设备内实现以支持本公开中描述的各种操作和功能。此外,所描述的单元、模块或组件中的任何一个可以一起或单独地实现为分立但可互操作的逻辑设备。将不同特征描述为模块或单元旨在强调不同功能方面,而并不一定暗示这样的模块或单元必须由单独的硬件或软件组件实现。相反,与一个或多个模块或单元相关联的功能可以由单独的硬件或软件组件来执行或者集成在公共或单独的硬件或软件组件中。[0133] 本公开中描述的技术还可以在包含指令的计算机可读介质(诸如计算机可读存储介质)中体现或编码。嵌入或编码在计算机可读存储介质中的指令可以使可编程处理器或其他处理器执行该方法,例如,当指令被执行时。计算机可读存储介质可以包括随机存取存储器(RAM)、只读存储器(ROM)、可编程只读存储器(PROM)、可擦除可编程只读存储器(EPROM)、电子可擦除可编程只读存储器(EEPROM)、闪存、硬盘、CD‑ROM、软盘、磁带、磁介质、光学介质或其他计算机可读介质。[0134] 如本文中通过各种示例的方式所描述的,本公开的技术可以包括人工现实系统或者结合人工现实系统来实现。如上所述,人工现实是一种在呈现给用户之前已以某种方式进行调节的现实形式,其可以包括例如虚拟现实(VR)、增强现实(AR)、混合现实(mixedreality)(MR)、混合现实(hybridreality)、或其某种组合和/或衍生物。人工现实内容可以包括完全生成内容或与捕获内容(例如,真实世界照片)相结合的生成内容。人工现实内容可以包括视频、音频、触觉反馈或其某种组合,并且其中的任何一个都可以在单个通道或多个通道中呈现(诸如对查看者产生三维效果的立体视频)。此外,在一些示例中,人工现实可以与应用、产品、附件、服务或其某种组合相关联,例如,该应用、产品、附件、服务或其某种组合用于在人工现实中创建内容和/或用于(例如,在其中执行活动)人工现实。提供人工现实内容的人工现实系统可以在各种平台上实现,包括连接到主机系统的头戴式显示器(HMD)、独立HMD、移动设备或计算系统、或者能够向一个或多个观看者提供人工现实内容的任何其他硬件平台。

专利地区:美国

专利申请日期:2020-08-08

专利公开日期:2024-06-18

专利公告号:CN114174959B

电话咨询
读内容
搜本页
回顶部