苹果发布ARKit 4:功能小幅升级,更加依赖LiDAR
在今天的WWDC20开发者大会上,苹果并没有注重介绍ARKit 4部分,而是在官网低调地进行了更新。本次更新,着重为LiDAR进行深度信息优化等功能,功能点不算多。
实际上,在2020款iPad Pro发布时苹果就为其搭载的LiDAR推送了ARKit 3.5更新,该更新充分利用了LiDAR激光雷达的特性,加入场景几何(识别并区分场景内不同的物体)、即时AR体验、改进动作捕捉和人体遮挡等新功能。
ARKit 4的主要特性也是围绕LiDAR来展开,如无意外,LiDAR模组在未来苹果AR体验(尤其是穿戴式设备上)中将占据主导地位。ARKit 4的主要更新如下:深度API、位置锚定、脸部追踪支持更多设备。
深度API:该功能基于LiDAR数据,通过LiDAR对每个像素的深度信息进行分析,并与场景几何的3D网格数据结合使用,让虚拟物体与显示物体的融合更逼真、自然。同时,还可进一步提升AR测距应用的准确性。
该特性仅支持iPad Pro 2020款设备,后续具备LiDAR的设备(据悉iPhone 12最大号的那一款也会配备LiDAR)也会支持。
位置锚定:可将AR虚拟物体放在现实中特定位置,例如一个著名景区,通过位置锚定即可为AR虚拟物体加上经纬度、海拔等信息,从而与地理位置永久性的融合。
该功能跟ARKit 2中的持久性体验(基于保存与加载地图特性)不同,ARKit 2持久性体验基于视觉部分,非永久固定,没有结合地图的GPS数据。仅支持iPhone Xs、iPhone Xs Max、iPhone XR以及更新的iPhone 11系列机型,同时目前仅支持部分地区,因此对于苹果地图扩展能力也是一个考验。
脸部追踪扩展:将面部追踪功能扩展到更多设备上,让更多设备支持AR照片和视频的玩法。其中,新款iPhone SE仅支持单用户追踪,而具备原深感相机TureDepth的设备可同时识别追踪三个人脸信息,共同实现Memoji、Snapchat等基于前置镜头的AR玩法。
该功能仅支持使用A12 Bionic及更新芯片的设备,实际上就是为新款iPhone SE提供了前置AR能力,因为此前AR人脸追踪仅支持具备原深感相机的设备。
由此可见,ARKit 4在重大功能迭代方面的确表现并没有之前亮眼,因此我们对于后续功能和体验上的优化我们也更为期待。
另外,在iPadOS 14的介绍图中还出现了AR video texttures的功能,后续我们也会持续关注。
原文来自ARinChina :http://www.arinchina.com/article-11281-1.html