唯一不同的是,你得腾出一只手来拿iPhone,只能用另一只手控制。
不需要额外的硬件就可以体验AR,这大概是苹果ARKit最让人惊叹的地方。在手势跟踪领域,Clay也想做到这样的效果。
开发人员一定很熟悉Clay,它是一种SDK(软件开发包工具),允许智能手机应用程序通过摄像头以3D的形式来实现用户手势跟踪。它可以识别多达30多种手势,从而实现无控制器的导航体验。
过去,该公司已经展示了这个技术用在计算机交互和移动端VR方面的应用。如下视频:
自苹果上个月向世界公布ARKit之后,Clay团队也要将该功能集成到其SDK中,Clay团队将在未来一两周内完成这个工作。
这意味着,当用户在iOS 11系统中启动ARKit时,可以获取简单易懂的手部控制效果。目前,我们已经可以在微软的HoloLens中看到类似的解决方案,用户可以双手来与现实世界中的虚拟对象和界面进行交互。
但不同的是,iPhone不是AR头显(至少目前还不是),所以你还得腾出一只手来拿手机,另一只手控制。
Clay SDK已经兼容Unity引擎,并且计划将实现对三星Galaxy手机的支持。