当乔布斯和 苹果 宣布了一些新功能和API,这些功能和API将在 即将进行的iPhone OS 4.0升级,他们设法潜入了一个鲜为人知的功能。在显示少量新API的幻灯片上,“完全访问静态和摄像机数据”静静地坐在屏幕底部,当乔布斯(Jobs)命名了一些API时,他把这个API排除在外了。移动增强现实(AR)开发人员,他们一直争先恐后地访问iPhone原始数据 向苹果请愿,立即注意到了该功能。

但是等等’应用程序已经可以访问相机了吗?在OS 4.0之前,这仅是部分正确。是的,开发人员可以访问相机并将静止图像或视频包含在其应用程序中,但是实际分析实时视频供稿的能力受到严重阻碍。以前,应用程序可以以每秒15帧左右的速度提取视频源的屏幕快照,但是现在这些应用程序将能够分析原始视频源。

这将帮助当前依赖于分析视频静止图像的应用程序更快地完成其任务,并将为新应用程序打开大门,以处理新型视觉感知应用程序的实时数据。移动AR开发人员以前被迫创建“blind AR”仅将视频供稿用作放置地理标记的背景的应用程序。通过访问原始视频数据,从摄像机捕获的环境现在将能够在将这些标记准确地放置到3D空间中发挥更大的作用。

在科罗拉多州期间 博尔德创业周 I’我有幸与一些对iPhone OS 4.0中的实时视频访问感到兴奋的开发人员和工程师谈论了AR。布伦丹·奥’Connor from 简单地理 和来自的Vikas Reddy 枕骨的 同意这个新的API是移动AR应用程序的一大进步–两家公司都希望在不久的将来进一步深入研究。

星期四通过电子邮件与我聊天的Layar首席执行官Raimo van der Klein表示,新iPhone OS的进步是“改善增强现实体验的绝佳机会”跨移动平台。“我们对这个额外的API感到非常兴奋,” he added.

随着开发人员开始发现利用实时视频数据的新方法,观看移动AR和其他领域的进步将非常有趣。随着传闻中的前置摄像头出现在下一代iPhone上,移动AR也可以向前迈出一些步,从而获得与使用网络摄像头的基于桌面的应用程序类似的体验。为此,开发人员需要访问实时视频数据。现在他们有了。