Skip to main content
 首页 » AR资讯

什么是基于地理位置的增强现实应用?

2018年01月22日 08:47:05734080yivian

苹果于去年推出ARKit以来,移动增强现实迎来了一轮兴起之潮。ARKit能够在iOS设备上实现准确的6自由度运动追踪,支持Unity或苹果自家的SceneKit等3D渲染引擎,是在iPhone和iPad上创建增强现实应用程序的关键技术。谷歌随后推出了自家的AR追踪库版本ARCore,并且为少数的安卓设备提供支持。自那时起,App Store上出现了一系列利用位置追踪和3D渲染的游戏和应用,而这些应用程序已经开始展示出AR作为未来数字交互媒介的潜力。

在本文中,映维网将与大家一起探讨如何通过价值主张的四个维度对AR应用进行分类:(1)3D可视化;(2)情景信息;(3)沉浸式体验;(4)自然用户界面。我们知道,由于手机形态的限制,在一个既不身临其境,也不自然的用户界面上创建沉浸式体验或自然界面是非常困难的事情。这意味着大量的移动AR将需要通过情景3D可视化和信息来证明其价值,而这里的关键要素是“情景”。

根据这个定义,我们实际上通过它们“增强”的内容来区分增强现实应用:(1)什么也不增强;(2)增强一个对象;(3)增强一个位置。对于“增强”,这是指内容是否在情景下与周围事物相联系?例如,AR中的国际象棋游戏就属于“什么也不增强”的范畴,因为它与物质世界的唯一关系就是它所依赖的平面。另一方面,名片上的AR叠加层允许你单击电子邮件标签并撰写电子邮件,从而实现了增强一个对象的效果。

什么是基于地理位置的增强现实应用? AR资讯

这篇文章主要是探讨第三类AR应用程序,亦即“增强一个位置”。我们将看看如何考虑如何设计包含位置,技术要求和最新技术的AR应用程序,最后我们将讨论基于位置的AR的未来路线图。

我们首先看看为什么一些AR应用需要物理空间感。假设你正在开发一款AR应用,希望帮助人们先在自家客厅中可视化家具,然后再决定要不要下单购买。你的AR应用可支持人们浏览椅子,桌子,沙发等目录,并且允许用户设计整个虚拟房间,体验最终的效果。借助ARKit,用户可以在AR视图中添加3D内容并对其进行可视化,但你无法永远在房间中保存相关对象的位置。因此,如果你的用户有意或无意关闭了应用程序,但又希望稍后恢复应用程序会话,这时你就必须从头开始,将所有的虚拟家具再次放置在客厅的正确区域。

能够保存家具设计会话只是将用户环境的“记忆”纳入UX中的原因之一。比方说,你正在为一个商场或街头艺术节开发这么一款应用程序:用户可以走到任何商店并通过寻宝游戏来收集特殊的优惠券。这时,你将不可避免地需要通过一种方法来设计一个位置“触发器”,以便根据位置在正确的时刻将正确的内容推送给用户。

当然,基于位置的应用程序并不是什么新概念。Yelp,Foursquare和谷歌地图都是基于位置的应用程序。根据这一分类方法,它们基本上都属于增强现实应用程序,至少从广义上讲,它们能够在物理世界中增加数字层面的情景信息。在这种情况下,GPS足以追踪应用程序所需的位置。即便是在室内,诸如Wifi和蓝牙信标这样的追踪技术也可以帮助创建基于位置的体验,而其性能足以创建室内导航,甚至是室内版《Pokemon GO》等等。

在AR作为沉浸式3D媒介的狭义定义中,有各种不同精度的位置追踪技术可以帮助构建基于位置的体验。但在深入研究之前,我们不妨先把可以集成位置的增强现实应用进行分类,并且假定我们已经解决了在智能手机上实现完美的厘米级别精确位置检测问题。

1. 两种基于位置的AR应用

对于基于位置的体验而言,两个关键要素是(1)区域的地图,以及(2)在该地图内检测用户位置的方法。我们可以粗略地将AR的位置情景分为两种:

1. 1 把地图带到应用

在这种依赖位置的体验中,位置对于每个用户环境来说都十分个性化。这些应用通常依赖于与每个用户相关的多个小地图,而地图主要是用于保存和共享情景内容。例如,家中的家具可视化需要一张“只是与你相关”的房屋地图。每个用户都需要一个专注于自己的环境地图来保存会话。在许多情况下,用户可能需要自己创建这些地图。对此,位置为应用程序提供了两个主要的好处:(1)保存内容相对于物理空间的特定位置;(2)在多个同时观看者之间调整内容位置,以创建共享虚拟体验的幻觉。

这些应用程序中的每张地图在共享多人AR游戏环境等情形下可能是短暂的,而在家具设计或工厂机械AR培训手册等会话中则可能持续更长时间。

1.2 把应用带到地图

在这种依赖位置的体验中,内容是专为一张地图创建,如在商场内导航,在博物馆提供导游指引,在特定会议中心寻宝等等。应用程序中的所有内容都围绕着这张地图的物理空间和上下文情景。《Pokemon GO》,Yelp和Foursquare等应用也属于这一类别,因为它们基本上只通过一张地图来对应所有内容,只不过他们这一张“地图”基本上就是地球。

2. 当前的位置检测技术

从广义上讲,定位检测可以分为2部分系统。第一部分是外部参考地图或空间的“指纹”;第二部分是能够记录相对于地图的位置的内部传感器。以GPS为例,这里的外部参考是指对地静止卫星,而内部传感器则是一个GPS接收机,其能够根据4个或更多卫星的数据对其位置进行三角测量。

对于增强现实,你将会发现当前存在4个主要的位置检测系统。

  1. GPS:GPS并不仅仅只是为手机上的位置启用应用提供支持(如Yelp,Foursquare和Uber等等),同时也是大多数基于位置的AR应用程序的基础(如《Pokemon GO》)。实际上,你可以轻松找到示例代码来将ARKit的本地追踪与iOS核心位置服务相结合,从而创建一个基于位置的ARKit应用程序。《Pokemon Go》最近的更新也使用了这种集成。不过,这样做的问题在于GPS数据只能精确到大约5到20米之内。虽然这足以导航到街道地址,但不足以将3D内容渲染至一个特定的位置,无法精细至建筑物的大门或者是在一座小桥之下。请注意,《Pokemon Go》不会在特定位置渲染宠物小精灵。相反,它们利用GPS来定位一个普通的位置,并在靠近该Lat/Lon位置的用户面前放置一个宠物小精灵。

  2. 信标:Wifi或蓝牙信标是室内的GPS替代品。在这个系统中,外部参考信号是一个安装在机场等物理空间周围的信标网络,内部传感器则是可以通过距离和航向测量对多个信标进行三角测量的智能手机。虽然这是一个相当优秀的GPS替代方案,但它却面临着一些问题,如准确度低,对基础设施高度依赖。另外,安装和维护的费用一般都相当昂贵。

上述两种方法都适用于室内导航等应用,亦即对于是在距离实际位置约2-5米的范围内定位你的位置。

然而,我们可以想象一下这种情况:你打开一款允许你导航公寓的应用程序。你可以通过智能手机扫描公寓,在接近于路由器,恒温器或额外毛巾等确切位置发现AR图标,甚至可以输入“叉子”来搜索包含餐具的抽屉。这样做意味着你的智能手机需要知道它在房间内的确切位置和方向,而且需要精确至厘米。当前唯一可行的方法是采用名为“即时定位与地图构建(SLAM)”的技术,以一种高度精确的方式解析视觉场景和追踪位置。

实现这种视觉定位的一个方式是:通过自定义标记图像和二维码来提供高度显眼的视觉特征,以帮助智能手机测量其相对于该标记的位置。具体的工作原理是,如果你知道空间内的标记或一组标记的位置,则这些标记将用作该区域的参考地图,从而将相对于标记点“星座”的内容进行定位。

在诸如谷歌Tango或微软HoloLens之类的设备中,其搭载的3D深度传感器和摄像头可实现无标记映射和定位系统,从而使得这些设备能够存储空间的3D地图,并且通过比较摄像头中视觉特征与地图预录制中视觉特征关键帧来重新定位空间。3D点云地图基本上是该系统的外部参考。

厂商目前正在努力在iOS和安卓手机实现这样的视觉映射与定位功能,比如说Vertical开发的Placenote。这是一款基于云的映射系统,能够把HoloLens和谷歌Tango设备上的视觉映射与定位功能带到iOS和安卓设备。这意味着移动AR开发者能够访问目前仅供头显开发者使用的同一套工具,而且能够覆盖更多的用户群体。

令人感到惊奇的是网页端和移动端的用户界面设计在过去10年间已经变得如此直观,令人感觉像是第二自然。然而,在沃尔玛中寻找货物或者弄清楚如何使用办公室打印机这样的真实日常体验却仍然停留在石器时代?增强现实将会令真实世界中的导航变成网页导航版轻松,而基于位置的体验将成为实现这一愿景的关键技术里程碑。

评论列表暂无评论
发表评论