研究员开发新数学模型,帮助AR/VR精确预测注视点,减少眨眼误差
根据一篇论文,俄罗斯的研究人员开发了一个可以帮助精确预测下一个注视点,以减少因眨眼造成的误差的数学模型。
这篇发表在SID Symposium Digest of Technical Papers的研究论文表明,所述模型能够提升追踪注视点渲染的精度。
俄罗斯人民友谊大学的研究员维克托·贝尔亚耶夫(Viktor Belyaev)表示:“我们已经有效地解决了在大量VR系统中存在的注视点渲染问题。“
对于人类的视觉系统,中央凹为视场中心提供了更清晰的视觉,而外围视场的视觉质量则相对更低。注视点渲染利用这一特性,集中资源来重点渲染注视点区域,并减少头显外围视觉的空间分辨率,从而降低每像素的计算。
然而,由于人眼运动是一个复杂的、很大程度上是随机的过程,注视点渲染技术在预测下一个注视点的速度和精度方面存在限制。
为了解决这个问题,俄罗斯的研究人员开发了一种数学建模方法以帮助提前计算下一个注视点。
模型的预测是基于对扫视运动的研究。这种快速的节奏性眼球运动是指目光从一个对象转移到另一个对象,而这可以暗示下一个注视点。所以,研究人员专注于一个能够帮助获取扫视运动参数的数学模型,然后再利用相关数据计算图像的注视点区域。
团队对VR头显和AR眼镜进行了实验验证。基于所述数学模型的眼动追踪器能够检测到轻微的眼球运动(3.4分钟,相当于0.05度)。另外,研究小组同时设法消除了因眨眼造成的计算误差:模型中的一个过滤器将误差降低了10倍。
他补充说:“未来,我们计划校准我们的眼动追踪器,以减少显示器或头显移动对用户头部的影响。”
原文转载自映维网:https://news.nweon.com/82800
感谢朋友们一路的支持和提出的宝贵建议