|
本篇文章将从技术角度出发,并以最近推出的苹果 MR 为例,分析 AR 世界里所需要依托的三个关键技术点:眼动追踪、手动识别和空间计算。让我们一起看看作者对这三个技术点的分析吧 ~
. A3 b7 t+ G2 x. i9 w. h9 e4 ~9 E! C/ f" h" J
2 F5 S, H1 F7 f* u5 b$ H
. D: E7 ?2 a7 g. _用眼睛看,用手操作,是我们在物理世界里再自然不过的交互方式了。但要在 AR 世界里延续这种自然交互,却需要依托的三个关键技术点。
1 z; r2 t+ {. |$ P2 D6 d% MApple Vision Pro 的发布没有让我们失望,在里面,我看到了这三个技术带给自然交互的力量。# ^/ c) `9 S8 Z1 r( T, x$ {5 b
一、眼动追踪技术9 ~, o0 i G6 N3 ]
我们在现实中如果需要与哪个物体有进一步的交互,都会自然地将视线集中在它的身上,当我们耗费注意力让视线聚焦在它身上的时候,就已经代表了我们的选择。) i" @; m' z3 a: c
这个过程涵盖了目前界面领域上的两个状态:激活态(聚焦)和点击态(选择)。眼动追踪技术,实现的是看到聚焦这个过程。* R; }3 J9 k V$ o
这个技术当然并不是首创。AR 眼镜的先驱,Microsoft Holoens 第 2 代的交互就主打了 Eye-gaze,就是用眼睛来聚焦的功能。
1 K7 D2 t( m( v" ~/ M+ Q而在之前,Microsoft Holoens 第 1 代的头动(Head-gaze)交互其实也已经有用眼睛来看和激活的概念了。但 Head-gaze 里使用头部微微移动来控制屏幕中心的一个点(Gaze)来激活内容,和我们本来的自然交互始终是有差距的,因为实际上我们聚焦一个物体,并不需要每次都靠头动,靠眼睛动就行了。
3 T7 G# @, o! N/ M; j0 w: z3 ?不过,虽然眼动追踪技术更解决自然交互的标准,但头动交互并不是没有可取之处,比如我团队目前自研的眼镜还只能支持 Head-gaze 交互。这种交互手段的成本和技术难度更低,比起用手 / 鼠标 / 遥控器等去聚焦激活的方式,它更加贴近我们用眼睛看这个自然交互理念。% O; k0 M1 x# `7 f- w: B
另外,眼动追踪技术实现了激活态,却还没真正实现选择,也就是那个点击态。作用是告诉机器我确认是它了。
/ ]% i: `1 F+ S* g严格来说,对于不需要操作的东西,省去手这个确认操作是很有必要的。比如,我一边吃零食一边追剧的时候,就很希望不用每次操作前都要擦一擦我的脏手……在制造领域,类似这种解放双手的需求也经常被客户提出。
# Q2 e1 Q0 K3 b为了更自然的交互,也许这也可以成为我们畅想的一部分。之前我写过一个专利,就是靠脑电波技术来进行简单的确认。# P) C9 O* s x: U7 {( _3 X+ a
二、手势识别技术
2 X; `+ E% _& N6 ~9 q$ r眼动追踪满足用眼睛看这部分的交互,用手操作,则需要手势识别技术。
: o% n" @' Z5 K' g# [" f这也不是什么新技术了,之前很多 ARVR 的设备上都有搭载,当然实现程度还要实际体验再确认。: k: r/ A. r! f$ _- r0 G
Vision Pro 的宣传视频里,手势识别看上去很自然,手甚至都不需要抬起来,这应该是依靠 4 组下视角相机(这大概也是需要 12 个摄像头配置的原因之一吧)。
" A6 q! C: Q5 [& s
1 g$ Q5 c0 R; P8 |& r R- `; I# Q1 j7 M6 M/ K6 _9 B
8 N6 d0 [/ @8 E7 Y
相比 Hololens2 的宣传视频,可以看出手势是在头顶摄像头涵盖范围的。
0 i' f8 C# N8 J! j( |7 a l. Q, {8 s4 ~7 L% I" ]
8 d( J5 J1 j. D! ?0 w
/ C0 S4 Q! h/ @8 x
因为手势识别是需要依托摄像头的(计算机需要输入才能知晓你的手在怎么动),那么同样的手势从不同角度拍摄的结果就不一样,识别的结果也会受到影响。# P* W& Y) M5 Q7 F. U; r
另外,2D 手势识别和 3D 手势识别技术的体验感也不太一样。6 I6 U5 a) J: l
三、空间计算
2 z& ]" {% V% l9 j. h7 X& w- U6 g要让眼睛看得更爽,用手操作得更自然,设备需要有对空间的理解能力。空间计算,也是 Vision Pro 想主推的,对于这个能力的注重,让他们认为这块能力可以划分一个时代。6 `0 ?8 l h+ C7 V
" 空间计算时代 "。- }; A. p7 v- A/ {4 _* J
没有空间计算能力,也就是如果机器不能理解空间的话,很多交互都自然不起来。我们现在所听到的 Nerf、SLAM、3DOF、6DOF,都属于空间计算技术的一员。
" X7 o0 W# t6 g" |" j ^从体验角度来说,空间深度所带来的物体之间、物体与用户之间的距离感知; 用户在不同位置和姿态下的视角朝向所带来的物体形状变化;真实环境中因时间和天气等光线不同所导致的色彩感知变化;甚至不同空间位置所传来的声音等,空间计算能给予设计师更多自然交互的空间。
! u; j& X7 b) |4 d7 Y可以说,空间计算,是能让 AR 在未来,成为不同于普通屏幕界面的、我们真正所期待的 " 凡所看之处,皆可成为界面 " 的关键技术。
4 W4 d8 b. E- _专栏作家* H" R) S9 U! R$ [$ k
林影落,微信公众号:林间有影落,人人都是产品经理专栏作家。一枚会玩卡的用户体验设计师,《AR 界面设计》作者,10 年 +UIUX 设计经验,专注于 AR 及智能化领域用户体验设计 6 年;设计 & 心理学教育背景,国家职业认证高级 OH 卡师 / 天赋挖掘教练。愿意用我的一份努力,让设计这个领域在智能化的未来更有价值,让设计师这个职业更加值钱!* F4 Z" O- ^) I% e. ]3 }# N( Y" `" U2 @& b
本文原创发布于人人都是产品经理,未经许可,禁止转载。
" g2 ]( t& w! W+ ], i题图来自 Unsplash,基于 CC0 协议 |
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
×
|