|
|
|
机器之心报道 5 |# E" t* Y5 M$ W# N# G# k! D
机器之心编辑部用来刷脸解锁的 Face ID 也可以被「对抗样本」攻击了。最近,来自莫斯科国立大学、华为莫斯科研究中心的研究者们找到的新型攻击方法,让已经广泛用于手机、门禁和支付上的人脸识别系统突然变得不再靠谱。
0 H) `1 ]* B) m: h9 [ 在这一新研究中,科学家们只需用普通打印机打出一张带有图案的纸条贴在脑门上,就能让目前业内性能领先的公开 Face ID 系统识别出错,这是首次有 AI 算法可以在现实世界中实现攻击:' j" g8 N0 K/ \6 ^# [
+ |& @9 Q" b# w. L7 v
# M: F0 ~9 j6 E3 D6 P
AI 人脸识别系统在正常情况下的分类效果,它识别出了特定的人:Person_1。
( O8 T9 m Q' L1 R1 I
% D5 u& p) z0 a; s$ f5 A) f
/ i+ i/ w/ X+ g1 [, l6 q贴上纸条以后,即使没有遮住脸,系统也会把 Person_1 识别成另外一些人「0000663」和「0000268」等。; _! I/ n# a$ \' C1 O, h( E
6 C* W* P! g8 \9 N+ e
8 C# ?! }+ P3 x) M: _" a W. n6 c
变换角度、改变光照条件都不会改变错误的识别效果。加了贴纸后,我们可以看到 Person_1 的概率非常低。
7 s, s: |2 Q, |; e7 P. }
1 H) j& L. C$ V' K" g0 o使用对抗样本攻击图像识别系统,在人工智能领域里已经不算什么新鲜事了,但是想要在现实世界里做到无差别攻击,还是人脸识别这种数千万人都在使用的应用技术,这就显得有些可怕了。使用这种新方法,人们可以轻松地打印一个破解纸条贴在脑门上,随后让 AI 识别的准确率显著下降。
7 H- h4 R [% Q+ @6 w3 s( D' ^0 o9 Y( J) L; Q
从上面的动图可以看出,研究者实现的是非定向的攻击,且对抗信息都集成在贴纸上。那么如果我们要找到一种定向的攻击方式,让系统将我们识别为特定的某个人,然后解锁 ta 的手机,这也并不遥远,只要我们将以前定向攻击的方式迁移到贴纸上就行了。+ v1 Z- b5 ]( L" s. X
0 m1 W, t! U G9 E2 d5 Z
研究人员不仅发布了论文:https://arxiv.org/abs/1908.08705! P' ~, f2 U4 l- W
, ^0 a( X& t9 ^
更是直接公开了项目的代码:https://github.com/papermsucode/advhat
& C7 h2 \. Q# Y$ |" l1 ?' c
' [# C, N1 C5 F; T: p: J「对抗样本」是人工智能的软肋,这是一种可以欺骗神经网络,让图像识别 AI 系统出错的技术,是近期计算机视觉,以及机器学习领域的热门研究方向。
- {# N. n8 c, r2 P/ d. q- w5 Q( o; G$ i, b4 Q
在这篇论文中,研究者们提出了一种全新且易于复现的技术 AdvHat,可以在多种不同的拍摄条件下攻击目前最强的公共 Face ID 系统。想要实现这种攻击并不需要复杂的设备——只需在彩色打印机上打印特定的对抗样本,并将其贴到你的帽子上,而对抗样本的制作采用了全新的算法,可在非平面的条件下保持有效。
8 U+ b6 D6 q1 s& c; Y- q0 w L1 Y9 A' e( Y# V& \
研究人员称,这种方法已经成功地破解了目前最先进的 Face ID 模型 LResNet100E-IR、ArcFace@ms1m-refine-v2,其攻击方式也可以迁移到其他 Face ID 模型上。
& q( a" N; r/ t
8 ^8 D3 Q# a' ?8 f4 H现实 Face ID 也能被攻击0 C0 }8 L3 W0 Z F# \
0 k8 p. A, H0 @: z* x: V! n以前对抗攻击主要体现在虚拟世界中,我们可以用电子版的对抗样本欺骗各种识别系统,例如通用的图像识别或更细致的人脸识别等。但这些攻击有一些问题,例如人脸识别攻击只能是在线的识别 API,将对抗样本打印出来也不能欺骗真实系统。
+ ]# A+ r+ {- Y+ I( m
9 z0 E0 K, T9 A( K
6 |# M6 c/ o% n- C/ P3 c一个标准的线上人脸对抗样本,它只能攻击线上人脸识别模型或 API,无法用于线下的真实人脸识别场景。
6 b3 T7 h% _4 t, m: J9 k, z
8 j+ O H* t( ?( N对抗样本的这种局限性,很大程度在于真实识别系统不止有人脸识别模块,还有活体检测等其它处理模块。只要活体检测判断对抗样本不是真人,那么它自然就失去了效果。因此,很多研究者在思考,我们能不能将对抗信息打印出来,贴在脸上或头上某个位置,那么这不就能攻击真实的人脸识别了么。甚至,我们可以把对抗信息嵌入到帽子或其它饰品内,这样不会更方便么。5 V& l" D5 U0 k0 T# B
* k* i; B+ I! _沿着这样的思路,华为莫斯科研究中心的两位研究者就创造了这样的对抗样本。他们表示在以前 Face ID 模型还需要大量的私有数据,而随着大规模公开数据的发布,ArcFace 等研究模型也能与微软或谷歌的模型相媲美。如果他们的对抗样本能攻击到 ArcFace,那么差不多就能攻击业务模型。
8 x) {1 A6 y" T6 H2 ?! P1 i0 P M" [- e P
研究者表示他们提出的 AdvHat 有如下特点:. J$ r2 }% R" E1 ?' |. O$ z
: I5 ]7 ]: Q: i0 e6 J4 n& ?; v- E4 B* L' M2 m, O7 h
- AdvHat 是一种现实世界的对抗样本,只要在帽子加上这种「贴纸」,那么就能攻击顶尖的公开 Face ID 系统;7 Z- D9 i1 J/ O0 I
- 这种攻击是非常容易实现的,只要有彩印就行; C! k6 k6 Z4 k. |$ E7 j
- 该攻击在各种识别环境下都能起作用,包括光照、角度和远近等;
3 a% _1 ]% h% N7 T) @3 q( Z - 这种攻击可以迁移到其它 Face ID 系统上。$ S2 z5 O- g: |( H
" _2 t' K4 ~% u. E v; _0 Y6 D
1 w9 v$ B2 }# _9 t
Face ID 该怎样攻击
) z; I+ h' u9 t- c {* s( ?) n' [' F: ~+ T, o, O0 s$ }
在 Face ID 系统的真实应用场景中,并非捕获到的每张人脸都是已知的,因此 top-1 类的预测相似度必须超过一些预定义的阈值,才能识别出人脸。! L. [8 N) t& \1 x
! b1 R$ |* F E这篇论文的目的是创造一个可以粘贴在帽子上的矩形图像,以诱导 Face ID 系统将人脸与 ground truth 相似度降到决策阈值之下。
* V6 n$ m8 R& ^2 c& [; ]
6 H# m" C1 y. A1 d/ K这种攻击大概包含以下流程:! ]" s3 F2 y7 x. W) f
9 L h7 ?+ [( g3 @: K7 o" z: \
/ z1 H' D* x2 v5 y- 将平面贴纸进行转换以凸显三维信息,转换结果模拟矩形图像放在帽子上后的形状。& y7 |' c: | l8 y/ H$ y0 `7 j3 e2 D
- 为了提高攻击的鲁棒性,研究者将得到的图像投影到高质量人脸图像上,投影参数中含有轻微的扰动。; Z7 Q1 a3 i2 P/ d. N
- 将得到的图像转换为 ArcFace 输入的标准模板。
3 j4 r2 h9 Y+ T - 降低初始矩形图像的 TV 损失以及余弦相似度损失之和,其中相似性是原图嵌入向量与 ArcFace 算出嵌入向量之间的距离。- S4 y! z& l4 k- G$ y- O8 d# H
7 b/ n9 h9 u( Y% H
7 }7 ^- h. m0 g! a, A4 q$ p流程图如下图 2 所示:+ a1 F$ l8 Y, a5 y- ~+ h+ ]& r8 W
: }) v8 q, k' g2 ^. J& I9 F* a
; x0 P# `" O/ E/ i
图 2:攻击流程示意图。7 H* j: z; T' q: }) Y s {0 @
# N( `& y6 G" A( a
首先,研究者将贴纸重塑成真实大小和外观的图像,之后将其添加到人脸图像上,然后再使用略为不同的转换参数将图像转换为 ArcFace 输入模板,最后将模板输入到 ArcFace 中。由此评估余弦相似度和 TV 损失,这样就可以得到用于改进贴纸图像的梯度信号。9 |" D- T( t# E" q/ p" [( t! v
2 O& X, y" P, q. ~

6 i3 ?7 R5 h4 o0 c# h: d" v图 3:步骤 1 转换贴纸的示意图。
% g3 _: T8 I R( y. M/ c8 m5 `5 W% {: s/ @/ q7 c$ Z2 O
贴纸攻击试验细节* k; H: B X0 R. P- k8 T1 f1 F! k( C
3 Z, Q$ s l$ C4 u* B
如前所言,在将图像输入到 ArcFace 之前,研究者对其进行了随机修改。他们构造了一批生成图像,并通过整个流程计算在初始贴纸上的平均梯度。可以用一种简单的方法计算梯度,因为每个变换都是可微分的。
& {$ A4 b) L! M! \9 Z! A( q
! M( `6 Y$ \. A1 R5 |注意,在每一次迭代中,批中的每一个图像上的贴纸都是相同的,只有转换参数是不同的。此外,研究者使用了带有动量的 Iterative FGSM 以及在实验中非常有效的几个启发式方法。: @5 Z* R* f( Q- E: j
' D; w: Y. b% ^! Q
研究者将攻击分为两个阶段。在第一阶段,研究者使用了 5255 的步长值和 0.9 的动量;在第二阶段,研究者使用了 1255 的步长值和 0.995 的动量。TV 损失的权重一直为 1e − 4。
n" P& G; j1 ~1 r! P; J
3 j$ S" t; B- z0 ]# F研究者利用一张带有贴纸的固定图像进行验证,其中他们将所有参数都设置为看起来最真实的值。
8 X! h, Y* t4 |' Z8 p$ r4 _! o5 A# ~4 Q4 v3 j# Z
他们使用了最小二乘法法,并通过线性函数来插入最后 100 个验证值:经历了第一阶段的 100 次迭代和第二阶段的 200 次迭代。如果线性函数的角系数不小于 0,则:1)从第一阶段过渡到第二阶段的攻击;2)在第二阶段停止攻击。
5 m" l: O+ ?9 J) f( E
2 {5 _; G+ n% i* `9 i. S {. _% S( p「对抗样本贴」效果怎么样
' F) r& _1 L% l+ V; f5 {
: y& n" g7 D) K' b5 U8 p- ]研究者在实验中使用一张 400×900 像素的图像作为贴纸图像,接着将这张贴纸图像投射到 600×600 像素的人脸图像上,然后再将其转换成 112×112 像素的图像。
4 Y7 d( h7 e4 C$ V- i
0 p' {! m0 S0 K6 f# a0 J' I K+ |; C为了找出最适合贴纸的位置,研究者针对贴纸定位进行了两次实验。首先,他们利用粘贴在 eyez 线上方不同高度的贴纸来攻击数字域中的图像。然后,他们根据空间 transformer 层参数的梯度值,在每次迭代后变更贴纸的位置。- Z0 \/ ^0 A2 L! C
* ?& P: V8 C0 i7 Y5 S5 a下图 4 展示了典型对抗贴纸的一些示例。看起来就像是模特在贴纸上画了挑起的眉毛。
# c' h; R9 |0 @! W
8 G7 u4 p: o% R6 N
0 W) S; Z/ E4 s. c$ u8 ]2 q% n图 4:对抗贴纸示例。8 |9 v% I) C; j/ ^ ^3 o8 f2 e
T* X' E* u- k$ m* \为了检测 AdvHat 方法在不同拍摄条件下的鲁棒性,研究者为最开始 10 个人中的 4 人另拍了 11 张照片。拍摄条件示例如下图 6 所示:' W0 @% `! i. q+ ?
* Z5 Q( g' y) D
- G1 w8 z" Y9 f- a: M- i: {
图 6:研究者为一些人另拍了 11 张照片,以检测不同拍摄条件下的攻击效果。
9 b7 P1 a5 a0 ]9 V: p
2 _. _; |: ~- Q& ~9 |) s) m- R检测结果如下图 7 所示:虽然最终相似度增加了,但攻击依然有效。
( M. Y0 v# k. W( { L) ^. H4 @( V
7 @( m* m1 }7 K8 \5 M6 m# L
图 7:各种拍摄条件下的基线和最终相似度。图中不同颜色的圆点代表不同的人。圆表示对抗攻击下的相似性,而 x 表示基线条件下的相似性。
+ Q% n2 f; d8 G$ M' U( G/ O2 z- t. b+ D
最后,研究人员检验了该方法对于其他 Face ID 模型的攻击效果。他们选取了 InsightFace Model Zoo 中的一些人脸识别方法。在每个模型上均测试了 10 个不同的人。
/ m3 V8 G8 {( B3 J2 i" g4 Q( Y
+ j# U& ^1 e( s/ M* x& R( ` . v( ~ M% L& G8 t! t" r
图 8:不同模型中,基线和最终相似度的差异。
% `. U3 e8 W$ V) p, C+ U- a3 S: ~- O% @/ p
虽然 AdvHat 生成的对抗样本很简单,但这种攻击方式看起来已适用于大多数基于摄像头的人脸识别系统。看来想要不被人「冒名顶替」,我们还是需要回到虹膜识别?
2 h. ]5 T$ Y2 |- N: G: F, N/ C1 g* N) K$ b7 r3 f
本文为机器之心报道,转载请联系本公众号获得授权。
3 P5 o3 R2 d \✄------------------------------------------------加入机器之心(全职记者 / 实习生):hr@jiqizhixin.com投稿或寻求报道:content@jiqizhixin.com广告 & 商务合作:bd@jiqizhixin.com2 s8 U" N9 s0 c7 Z' ?! y2 ^3 F
来源:http://mp.weixin.qq.com/s?src=11×tamp=1566896404&ver=1815&signature=*oejD6KZNIeFBedjGfko-HVWxUK5JqJymcLMEI2vQKpnGBbeLDP70080UA4XKxKdpIqy8GtZ8Ak8dD6y3mZXTrdi2HDgNe5e17ZDjbih8ZOWHLwlikFYQ99AEVxcEl0F&new=12 ]: {4 I6 F* ^0 M8 f, I, L' S" }
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作! |
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
×
|