苹果增强了AR功能的iPad Pro面世已经有几个月了,但到目前为止,利用该设备新的激光雷达深度传感器的AR应用程序相对较少。这个后置传感器可能是下一代iphone技术的一个预展,这意味着早期的iPad Pro应用程序可以提供一个窗口,让人们了解苹果下一步将涉足什么领域。
随着下周苹果的WWDC开发者大会的临近,苹果很可能会把重点放在新的增强现实工具上。Occipital新推出的房屋扫描应用Canvas可能是下一波深度增强应用的最清晰标志。
Occipital是一家位于科罗拉多州Boulder的公司,多年来生产深度感应相机硬件和软件,类似于Google早期的Tango平板电脑和手机上使用的那种技术。Occipital的结构相机可以测量房间的深度,结合图像捕捉,并建立一个空间的3d映射网格。此后的几年里,6D等公司纷纷效仿。ai(最近被Pokemon Go制造商Niantic收购)已经找到了完全不需要额外深度传感硬件就能测量和绘制空间的方法。此后,Occipital已将其扫描工具转移到基于软件的方法。
Occipital的最新Canvas应用程序使用常规的iPhone和iPad相机快速对房间进行网格化和地图绘制。但是该公司还增加了对苹果iPad Pro激光雷达传感器的支持,因为它具有更大的深度感应范围。该公司认为,额外的深度数据会添加到它已经拥有的工具中。
2020年的iPad Pro机型在所有Apple AR-ready设备中都只占很小的一部分,因此极少有开发人员会选择iPad Pro独特的激光雷达深度传感器。随着深度感应技术跨线扩展到手机和其他iPad,Occipital追求的目标很可能也会发生在其他公司。
Occipital的产品经理Alex Schiff表示:“这是一个相当不错的假设,您也将在高端iPhone上也开始看到这种情况。”他指的是苹果今年晚些时候可能会升级iPhone,据报道它具有深度感应后置摄像头。功能非常类似于iPad Pro。
iPad Pro的激光雷达不是相机:它是一个独立的无相机传感器,它收集的深度图更像是空间中的点阵列,形成了网格或3D映射。Occipital的应用程序还可以使用相机数据将照片拉伸到模拟3D网格中,但是过程是分开的。但是,未来的AR相机可能会同时融合这两种功能。Occipital认为深度数据在训练相机中也可以用来计算深度。
Occipital产品副总裁Anton Yakubenko表示:“您不仅可以识别地板或墙壁等基本特征,还可以看到整个场景。” “它还考虑了语义识别。将几何和图像信息结合在一起。这不是完美的方法,但是它可以启用新一代的应用程序,这些应用程序不仅涉及几何信息,还涉及语义信息。这就是我们要发展的方向。 ” Occipital将家用扫描仪转换成CAD文件供专业设计人员使用,但是,“下一步是要知道这部分CAD模型是窗户、门还是踢板。”
从Occipital的Canvas应用程序进行的3D房间扫描,通过在iPad Pro上深度感应激光雷达实现。接下来想象一下在iPhone上。
Schiff认为,随着算法的不断改进,扫描变得越来越有价值:“您可以捕获房屋并永久地重新访问该数据,并且当您使用各种可用的算法重新处理数据时,这些数据将变得更好或更有趣。时间。数据的可重访性使空间的3D映射与AR有所不同。”
作为一个仍然呆在家里,避免上门维修的人,我可以看到扫描我的房间以远程获取分析和专家意见的吸引力。苹果可能会在下周的WWDC远程开发者大会上宣布其AR工具的重大变化,但更多的激光雷达传感器功能以及它与相机数据的关系可能是iPhone的下一步。