6 月 10 日消息,苹果发布了 iOS 16、iPadOS 16 系统,并且已经发布了首个开发者预览版 Beta。
iOS 16 引入了多个新 API,允许开发人员扩展其应用程序的功能。例如,有用于锁屏小组件、步话机、交互式地图、天气数据等的新 API。有趣的是,苹果还更新了 Nearby Interaction API (附近交互)以将 U1 芯片集成到 ARKit 中,因为有传言称苹果将推出一款新的混合现实 MR 设备。
Nearby Interactions API 是在 iOS 14 中引入的,它允许开发人员利用 iPhone 11 及更高版本中提供的超宽带 U1 芯片。U1 芯片可实现设备的精确定位和空间感知,可用于检测一部 iPhone 与另一部 iPhone 之间的距离等事情。
在 iOS 15 和 watchOS 8 中,苹果已将这些功能扩展到 Apple Watch,因为 Apple Watch Series 6 及更高版本也配备了 U1 芯片。今年,iOS 16 为使用 Nearby Interaction API 的开发人员带来了有趣的新选项,即通过 ARKit 将 U1 芯片与增强现实集成的能力。
正如该公司在 WWDC22 会议上所详述的那样,iOS 已经使用 U1 芯片与 ARKit 结合使用精确查找功能来定位 AirTag。借助 U1 芯片提供的数据与 iPhone 的摄像头相结合,Find My 应用能够精确地引导用户找到他们的 AirTag。
现在,开发人员还可以使用 U1 芯片和 ARKit 在他们的应用程序中创建类似的体验,这使得有关距离和方向的信息更加一致和准确。苹果表示,此 API 的最佳用例是引导用户到特定附近对象的体验,例如放错位置的物品、感兴趣的对象或用户想要与之交互的对象。
例如,应用程序可以告诉用户他们正在寻找的对象是在面前还是在身后。
U1、ARKit 和苹果 AR / VR 设备
最近有多个谣言指出,苹果公司将在 2022 年末或 2023 年初的某个时间发布一款新的混合现实设备。尽管该产品并未在 WWDC22 上宣布,而且该公司在 WWDC 开幕主题演讲中有很多关于 AR 和 VR 的内容。
对于预计具有多个摄像头和先进传感器(包括超宽带芯片)的设备而言,显然它具有精确的空间感知能力。尽管由于尚未正式宣布新设备且没有 SDK,但苹果似乎真的希望开发人员在 MR 设备发布之前为这种交互准备他们的应用程序。
当该公司首次发布 iPhone 11 的 U1 芯片时,它提到更快的 AirDrop 等体验只是开始。U1 现在用于钱包应用程序中的车钥匙和查找 AirTag 等功能,但该芯片肯定会在苹果的混合现实设备中发挥重要作用。
与此相关的是,ARKit 在 iOS 16 中也进行了更新,包括对 4K HDR 视频和高级室内扫描的支持,这是向 AR / VR 设备迈出的重要一步。