苹果在昨日盛大的iPhone11发布会上并没有展示任何与AR相关的技术,不过。有位开发者在最新发布的iOS 13和XCode 11中发现了一些新的代码,它们显示出一个名为StarBoard的立体增强现实功能,这似乎暗示苹果正在内部测试自己的增强现实头显。
据Engadget报道,iOS 13最新发布的一份自述文件简要介绍了员工如何在不需要AR头显的情况下在iPhone上运行立体AR应用。该文件是由iOS开发人员Steve Troughton-Smith发现的,其中提到了代号“StarBoard”,即“支持立体声增强现实的应用程序系统”。readme还使用代码名“Garta”,即AR设备本身,文件将其命名为“HME”。
StarBoard看起来类似于iOS的CarPlay功能,该功能使用iPhone为汽车的外部触摸显示器生成图形。与为2D仪表板显示器输出单个图像的CarPlay不同,StarBoard似乎专注于为3D立体头显输出两个图像,这将与用于AR导航的新的基于触摸的控制器配对。代码表明,您的手将抓住类似于Siri Remote或Oculus Go控制器的东西,将触摸表面和运动控制与触发器和主页按钮相结合。
9to5Mac的Guilherme Rambo证实,iOS 13.0 gold master和iOS 13.1测试版都包含了苹果的StarBoard。此前,《DigiTimes》在7月份发表了一篇未经证实的报道,称苹果已搁置了AR头显的研发工作,据称这导致了团队的重组和项目暂停。然而,几个月前,知名行业分析师Ming-Chi Kuo的一份报告显示,苹果可能会在2019年第四季度至2020年第二季度之间的某个时候开始生产AR头显,并将依赖iPhone进行计算、渲染、互联网连接和定位服务。
让《DigiTimes》的报告进一步受到质疑的是,自那以后,苹果开始在多个领域大举招聘AR/VR专业人士,包括AR软件专家、硬件设计师,以及一位能够“输送复杂新技术,最好是在AR/VR领域”的产品经理。
苹果还利用最近三次WWDC活动发布了ARKit的后续版本。ARKit是苹果的开发工具包,允许开发者开发iPhone和基于ipad的AR应用程序。更重要的是,这些应用程序将被移植到未来的AR头显上运行,如果对开发者来说非常简单,这将为公司未来的AR头显提供一套现成的兼容立体声AR应用程序。通过ARKit,苹果至少动员了一些软件合作伙伴,在AR应用程序开发方面进行了低风险的尝试。