苹果新专利:动动眼睛就能“移动”光标,手机电脑 AR 眼镜都能用,全国各地梳理细化落实疫情防控措施
据外媒 AppleInsider 报道,近日苹果公布一项新专利申请,该项新专利可以让你动动眼睛就能移动光标,方便你输入文本信息。该项专利不但可以应用于 iPhone、iPad 等我们常用的移动设备中,而且还可以用在 VR/AR 等头显设备上。
“用凝视来选择文本输入的区域(selecting a text input field using eye gaze,以下简称‘凝视选择’)”功能指的是当用户注视某个软件或者网站的文本框时,光标就会移动到该文本框,用户就可以直接填写相关信息。这意味着未来的用户可能只需看一眼就可以在某个文本框里输入文本。
专利文件显示,该功能将通过寻找“用户瞳孔的中心,或者用户眼球的旋转中心”,来确定“用户眼睛的视轴(visual axis)”,了解用户正在看向屏幕的哪一块区域,从而移动到该区域选中文本。
此次专利由三位研究人员共同发明,其中包括 Earl M. Olson,他此前曾参与研究过 AR 环境中如何确定虚拟对象相对于真实物理对象的位置。
▲ 苹果新专利“用凝视选择文本输入区域”功能(来源:美国专利商标局)
01.用注视来移动光标
与常见选择文本输入区域方式不同
“凝视选择”功能与常见选择文本输入区域的方式不同,前者只需要注视不同的文本框即可移动光标,后者则需要手动选择某个文本框。
我们平常填写某个表单时,需要不断地将光标从一个文本框中移动到另一个文本框时,这样浏览器能知道我们正在填写哪一块区域。而拥有“凝视选择”功能后,我们只需要注视某个文本框,该处文本框就会弹出光标,让我们直接输入文本信息。
“光线会分别沿着用户的左眼和右眼的视轴投射(例如投影)”,苹果表示,“并且可以用于确定用户的注视方向或光线投射中的凝视深度。”
▲ AppleInsider 网站公布苹果的“用凝视选择文本输入区域”新专利
02.关注你的“视线”
头显将用传感器监测凝视目标
专利文件表示,该功能不但可以应用于台式电脑、笔记本电脑、平板电脑等传统设备上的用户界面,而且还能“用于虚拟现实、增强现实和混合现实设备和应用......”。
但它也提到这两种设备会有不同之处,比如说,在 AR 设备中,执行注视跟踪功能(gaze tracking)的设备是头显,像“Apple Glass”等,它将通过头显中位于眼睛附近的传感器来确认凝视的目标,而传统设备如 iPhone、iPad 需要在距离眼睛较远的地方实现注视跟踪功能。
03.实时扫描你的眼球
看别人 iPhone 也会弹窗吗?
外媒 AppleInsider 认为,苹果可能会让设备不断扫描用户的眼睛,来确认用户注视的位置变化。无论用户何时激活该项“凝视选择”功能,该功能都会寻找到眼睛凝视的特定区域,并确定“用户的注视方向或注视深度”。
苹果还提到,系统应该会要求用户在激活该项功能时设置一定使用时间,这样的话,当你走在苹果体验店时,不会每一台苹果设备都在你看向它的时候,都弹出光标让你去填写订单的详细信息。
04.结语:视觉交互技术应用前景广阔
苹果新专利“凝视选择”功能主要通过确认用户的视线轴来确认用户选择输入哪块区域的文本框。用户只要通过注视即可移动光标,这不但能方便我们日常输入文本,省去移动光标的时间,而且会在 VR/AR 上带来新的应用场景。
与“凝视选择”的原理相似,如今市场上还存在一种眼动追踪(Eye tracking)技术。眼动追踪技术可以通过测量眼睛的注视点的位置或者眼球相对头部的运动而实现对眼球运动的追踪,从而确定眼睛注视的方向。
据全球研究公司 Marketsand Markets 认为眼动追踪技术的市值在 2023 年或许会达到 14 亿美元。由此可见,诸如“凝视选择”、眼动追踪这类视觉交互技术,不但能够提高人机交互的流畅性,还拥有较为广阔的发展前景。
特别声明:本文版权归文章作者所有,仅代表作者观点,不代表爱思助手观点和立场。本文为第三方用户上传,仅用于学习和交流,不用于商业用途,如文中的内容、图片、音频、视频等存在第三方的知识产权,请及时联系我们删除。