AI+XR技术是虚拟现实产业的新风口
随着5G网络的逐渐商用铺开,如何将高带宽低时延的网络性能利用到更多用户的日常生活中也重新进入了更多人的视野,几年前曾引发业界热议的增强现实(AR)、虚拟现实(VR)等技术也希望能结合5G的各项优势,焕发出新的生命力。而在这些新概念中,我们越来越多地听到不少行业人士与上游厂商开始强调,5G与AI对于XR产业新一轮发展所起到的关键作用。
这里必须要先介绍一下XR这一概念的历史——在2019年,XR(扩展现实)概念作为一种融合了当前增强现实(AR)、虚拟现实(VR)和混合现实(MR)的混合型设备概念被高通所提出。高通希望通过整合上述三种增强现实显示技术的同时,加入当前日渐成熟的终端侧AI计算能力,从而在保留显示模式优势的同时,减少设备使用时的弊端,同时借助5G智能手机+XR眼镜分体式设计等新兴算力平台的加持,将这些设备拓展至更多日常使用场景。
自此以后,高通首先发布了第一代针对XR头显设备的骁龙XR1平台,同时联合不少OEM厂商推出如GoogleGlassEnterpriseEdiTIon2等混合显示设备,向外界展示了XR技术所能实现的可能性,包括我们现在熟悉的不少一体式VR设备,实际上都是基于高通骁龙XR平台开发而来。
AR/VR眼镜设备主要分为两大发展方向,其中一类是主打实用前沿的功能探索——比如MagicLeap的One系列设备,其实都已经向我们展示了AR技术在实际应用中的广阔场景。但上述这些产品都在经过了发布初期的火爆之后逐渐销声匿迹。
这种现象的出现,归根结底是因为,目前这些设备虽然能实现不少功能,但相比于智能手机这样的智能设备来讲,更像是一款尚未走出实验室的设备,无法真正融入到行业应用乃至更多用户的实际使用需求中。
除此之外,目前也有一些主打时尚设计而非重点强调功能性的AR眼镜等设备:比如Vuzix(Blade)等产品,看起来几乎与我们一般使用的眼镜无异,但这一设计理念让这些设备的功能性自然也不能与上述的几款AR混合显示设备相提并论。
而高通提出的“无界XR(BoundlessXR)”,实际上是希望在不牺牲时尚设计的前提下,借助于高通在智能手机移动平台上已经更显成熟的AIEngine等深度学习引擎框架,打造出一款能适应更多使用场景、高性能的XR眼镜或是头显设备,来为用户提供更贴近日常使用场景的更多体验。
同时,借助高效的AI算力,也能通过优化XR头显设备能效的方式,进一步提升使用续航,还能凭借不断的深度学习计算来优化用户体验,在提高计算效率的同时,让XR眼镜变为更加符合用户日常使用习惯的可穿戴设备。
除此之外,随着分布式设备平台的算力提升以及5G在智能手机终端的全面铺开,新一代XR平台需要借助这些新环境,来满足更多用户的广泛需求:XR设备的增强显示交互,实际上就是将信息以更加具有沉浸感的方式来传输。同时为了保证用户体验,终端设备的时延不能超过20毫秒,构建新一代使用体验的XR平台,自然也更加强调终端对5G+AI等技术的支持以及自身性能的提升。
上述的限制几乎是所有AR/VR设备在早期构建应用场景时所要面临的挑战。高通在2019年12月推出的骁龙XR2平台,是全球首个支持5G的扩展现实(XR)平台。其相比于前代的一大亮点就是能借助来自智能手机的算力,结合手机本身的AI硬件算力以及5G网络传输能力,通过USBType-C线材或是无线传输到用户的XRViewer显示设备上。此外,AI已帮助骁龙XR2平台提升视觉、交互性和音频等多项特性,以便让用户沉浸在更智能的现实中。
在今年2月,高通又随后推出全球首款支持5G的XR参考设计,同时也是基于骁龙XR2平台所打造。与目前已被广泛采用的骁龙XR1平台相比,基于骁龙XR2平台的参考设计实现了性能的显著提升,包括2倍的CPU和GPU性能提升、4倍视频带宽提升、6倍分辨率提升和11倍AI性能提升。该参考设计不仅能实现低时延六自由度(6DoF)手柄和外设追踪,且不受视距限制,还能借助头显自带的摄像头实现高精度扫描,同时识别面部表情等更多细节,此外骁龙XR2平台本身就是基于高通成熟的手机移动平台SoC打造而来,内置的AI硬件加速模块也能进一步优化终端侧AI运行场景中的语音交互、手势追踪以及物体检测与识别等更多AI算法使用场景。
在融合5G与AI的强大支持之后,这些XR设备不仅能做的体积更小,同时运行速度与数据加载还能更快。实现与所处环境更加无缝的整合,这些优势不仅在商业、工业等一行业应用场景中派上用场,同时还能在文化旅游宣传、影视娱乐、游戏等面对普通消费者的toC使用场景中提升新一代XR设备的实际体验。
在未来面向普通用户的XR设备使用场景中,只需戴上一副XR眼镜,就可以通过全息影像体验日常AR功能,还可以看到一个大小几乎无限制的屏幕呈现在眼前。你可以使用XR眼镜在地铁里看电影、看新闻、甚至玩游戏,在实际功能性上甚至能取代如今的智能手机。同时内置的诸多AI硬件加速模块也让这一界面渲染过程变得更加流畅自然,实现真正的AR+VR式的混合交互方式。
同时,在不少垂直行业,比如3D行业级建模,以及家居选装/装修场景中,我们都已经能看到很多XR设备实际运用的实例,但是借助分布式AI计算以及5G高速传输速度的支持之后,还能进一步减少这些实际使用场景目前存在的种种限制,不仅能让使用者的实际使用体验得到提升,同时还能进一步给开发者更多利用硬件性能的开发空间,让更多应用场景得到XR的加入,这也是包括一众手机厂商以及全球运营商都在进行相关的研发的原因:比如现阶段高通骁龙XR2平台的AI算力已经可以实现更成熟的双6DoF、手势识别等交互体验,同时借助AI硬件性能的提升探索XR生态的更多交互方式;在5G当下处于的关键节点上,行业也迫切需要XR技术加入进来,拓展5G的更多使用场景。
为了满足兼容性需求,高通在2019年宣布了拓展HMD加速器计划,将智能手机和XR头显之间的组件和性能涵盖其中,同时支持相关软件优化与硬件标准化的验证机制:通过Qualcomm®XR眼镜适配计划,设备厂商与开发者就能以最少的工作量确保用户能在不同设备上体验到一致的效果。
虽然,过去我们常常将VR、AR甚至MR分开单独讨论,但未来我们可能只会讨论XR(ExtendedReality,扩展现实)。在这一大框架下,不仅有面向游戏玩家的高性能无线XR设备,同时还有如OPPO、vivo、黑鲨、一加、小米等手机厂商面向下一代穿戴设备推出的解决方案。甚至还有包括爱奇艺这样的内容供应方加入进来,为XR生态打造更多的视听体验。
今年高通还宣布,在全球联合15家大型运营商来推广XR的更多实际使用场景,预计在明年,我们就能看到更多搭载高通骁龙XR平台的XR设备出现在我们的生活之中。随着5G与XR技术的不断成熟,AI技术也能在XR领域迸发释放更多创新的可能性,成为下一个时代最主流的移动计算平台。
原文来自电子发烧友:http://www.elecfans.com/vr/1316901.html