|
|
|
机器之心报道
4 B' N( Z3 {8 T, h3 \3 z机器之心编辑部用来刷脸解锁的 Face ID 也可以被「对抗样本」攻击了。最近,来自莫斯科国立大学、华为莫斯科研究中心的研究者们找到的新型攻击方法,让已经广泛用于手机、门禁和支付上的人脸识别系统突然变得不再靠谱。# H. v6 Y0 u. f/ V4 t# S. T* Z# f- Y* K
在这一新研究中,科学家们只需用普通打印机打出一张带有图案的纸条贴在脑门上,就能让目前业内性能领先的公开 Face ID 系统识别出错,这是首次有 AI 算法可以在现实世界中实现攻击: D! v; c; F4 i! Y
1 C! X) h* t; C) J
! S* I8 ^- S, T* J" D! K+ R! q7 ?AI 人脸识别系统在正常情况下的分类效果,它识别出了特定的人:Person_1。$ E2 b( `! n$ u1 w$ l+ w: N3 `' |$ |
# T- R( B- `2 y- a `
# h' O2 X. | }' U4 C% L+ P贴上纸条以后,即使没有遮住脸,系统也会把 Person_1 识别成另外一些人「0000663」和「0000268」等。: E) L" D8 ]# X* b; U; A/ A5 J
# @" [7 t9 l5 P! m
# x4 X2 j! D/ ~: o" V/ s变换角度、改变光照条件都不会改变错误的识别效果。加了贴纸后,我们可以看到 Person_1 的概率非常低。
! }( |# l, e1 @; T0 M
* ^9 F2 C8 R) A( d" F% \# w使用对抗样本攻击图像识别系统,在人工智能领域里已经不算什么新鲜事了,但是想要在现实世界里做到无差别攻击,还是人脸识别这种数千万人都在使用的应用技术,这就显得有些可怕了。使用这种新方法,人们可以轻松地打印一个破解纸条贴在脑门上,随后让 AI 识别的准确率显著下降。+ G0 x% M# {4 Y1 o- Q
+ `* J; Z+ q0 q从上面的动图可以看出,研究者实现的是非定向的攻击,且对抗信息都集成在贴纸上。那么如果我们要找到一种定向的攻击方式,让系统将我们识别为特定的某个人,然后解锁 ta 的手机,这也并不遥远,只要我们将以前定向攻击的方式迁移到贴纸上就行了。
9 r, H) `0 N1 x2 _( h" ?9 N& [; ]' |' V+ F: Z" ]- x3 d7 |5 @
研究人员不仅发布了论文:https://arxiv.org/abs/1908.08705$ A* {8 M: F3 z$ K* z
9 A# g& \$ p0 S
更是直接公开了项目的代码:https://github.com/papermsucode/advhat( b/ ]! B* l$ K( P
3 C- ]1 c' ]3 B8 p: x
「对抗样本」是人工智能的软肋,这是一种可以欺骗神经网络,让图像识别 AI 系统出错的技术,是近期计算机视觉,以及机器学习领域的热门研究方向。
2 D* u0 T0 Z0 l N+ x) I% o, g# r: w/ `7 K4 l
在这篇论文中,研究者们提出了一种全新且易于复现的技术 AdvHat,可以在多种不同的拍摄条件下攻击目前最强的公共 Face ID 系统。想要实现这种攻击并不需要复杂的设备——只需在彩色打印机上打印特定的对抗样本,并将其贴到你的帽子上,而对抗样本的制作采用了全新的算法,可在非平面的条件下保持有效。
! V* X9 K* B9 I" I, b0 n' Y0 k% w( ] O# n
研究人员称,这种方法已经成功地破解了目前最先进的 Face ID 模型 LResNet100E-IR、ArcFace@ms1m-refine-v2,其攻击方式也可以迁移到其他 Face ID 模型上。
2 I1 w$ M X6 j: c5 a( j R' ?% f, W: w6 F: P0 P+ }" k
现实 Face ID 也能被攻击1 f: Q+ ?- w1 D
) [" [, M; I2 Q5 L% e. E以前对抗攻击主要体现在虚拟世界中,我们可以用电子版的对抗样本欺骗各种识别系统,例如通用的图像识别或更细致的人脸识别等。但这些攻击有一些问题,例如人脸识别攻击只能是在线的识别 API,将对抗样本打印出来也不能欺骗真实系统。# m" O* A9 L: \' m
' |3 k3 ]' v; `2 j8 D- S
# ^" |5 N( Q4 H$ |一个标准的线上人脸对抗样本,它只能攻击线上人脸识别模型或 API,无法用于线下的真实人脸识别场景。- _" n/ r1 R4 }0 q4 p
) ?& @) o3 v# A3 f' W对抗样本的这种局限性,很大程度在于真实识别系统不止有人脸识别模块,还有活体检测等其它处理模块。只要活体检测判断对抗样本不是真人,那么它自然就失去了效果。因此,很多研究者在思考,我们能不能将对抗信息打印出来,贴在脸上或头上某个位置,那么这不就能攻击真实的人脸识别了么。甚至,我们可以把对抗信息嵌入到帽子或其它饰品内,这样不会更方便么。. V0 K2 L. k# L' R
1 h9 e8 j+ J4 v* a4 z, a J$ p沿着这样的思路,华为莫斯科研究中心的两位研究者就创造了这样的对抗样本。他们表示在以前 Face ID 模型还需要大量的私有数据,而随着大规模公开数据的发布,ArcFace 等研究模型也能与微软或谷歌的模型相媲美。如果他们的对抗样本能攻击到 ArcFace,那么差不多就能攻击业务模型。& n3 S" \0 K+ T) {) x( I4 Y
" @- G6 c9 f0 d研究者表示他们提出的 AdvHat 有如下特点:/ }0 o6 b0 E' W. H* s' E3 \
6 @) F9 b# W% C( w) {; M% F
3 y! B& f8 b! _- AdvHat 是一种现实世界的对抗样本,只要在帽子加上这种「贴纸」,那么就能攻击顶尖的公开 Face ID 系统;2 y0 [! @( q9 u
- 这种攻击是非常容易实现的,只要有彩印就行;' y9 I& l9 g' z* h( @; c* W6 r/ n. V
- 该攻击在各种识别环境下都能起作用,包括光照、角度和远近等;
; t( ^0 I+ s- w - 这种攻击可以迁移到其它 Face ID 系统上。
1 X) p7 j6 g2 t5 |4 D
. {" X/ V5 m% g% D7 {. ~7 }: v8 u' X; }8 b; U
Face ID 该怎样攻击
( A7 C8 w6 _( {: c6 f
# [0 m, u, A: r& s- V/ S8 N1 d在 Face ID 系统的真实应用场景中,并非捕获到的每张人脸都是已知的,因此 top-1 类的预测相似度必须超过一些预定义的阈值,才能识别出人脸。) G% O0 Z$ l M$ y. W- h' P5 }9 f
$ G/ t0 _0 A4 `0 b. X, e这篇论文的目的是创造一个可以粘贴在帽子上的矩形图像,以诱导 Face ID 系统将人脸与 ground truth 相似度降到决策阈值之下。
; H' s) b, ~. s5 G: p# P" n) f O9 k& P
这种攻击大概包含以下流程:
/ b- k6 v( Q; j: f- J U; G$ ?7 d# _" N5 Y$ ~+ R0 M
q- w) I9 J& A- t& ^ t- 将平面贴纸进行转换以凸显三维信息,转换结果模拟矩形图像放在帽子上后的形状。
7 g' P* E* b% E: k - 为了提高攻击的鲁棒性,研究者将得到的图像投影到高质量人脸图像上,投影参数中含有轻微的扰动。6 i8 n8 j- G# a4 m
- 将得到的图像转换为 ArcFace 输入的标准模板。8 K: i. {9 w, g/ W1 K8 B
- 降低初始矩形图像的 TV 损失以及余弦相似度损失之和,其中相似性是原图嵌入向量与 ArcFace 算出嵌入向量之间的距离。2 b. A7 d& d% }2 k. W7 v
" h" n: |* z1 L$ x/ t6 _$ d2 ]: E: P4 C
流程图如下图 2 所示:! z$ i4 b% L% X: o" y
8 ?2 ?. K9 l$ {/ L1 k) X9 f& L2 p
4 J/ p! u/ c% \0 \0 s4 I/ m图 2:攻击流程示意图。+ ^( y( @9 f% r2 G
3 B/ \$ n* q; t' V5 a# j3 O6 G- z首先,研究者将贴纸重塑成真实大小和外观的图像,之后将其添加到人脸图像上,然后再使用略为不同的转换参数将图像转换为 ArcFace 输入模板,最后将模板输入到 ArcFace 中。由此评估余弦相似度和 TV 损失,这样就可以得到用于改进贴纸图像的梯度信号。: Z5 y7 y+ D- ?3 R3 |. W/ b8 [; F
$ K: [- K1 z7 U

8 P/ ^ y) ?5 X4 U图 3:步骤 1 转换贴纸的示意图。' i# m4 x* M2 _ ~( o! ]
- G' Y/ P* b0 j3 N" K/ y5 O
贴纸攻击试验细节
4 u1 m4 x7 C8 l9 X- F+ i$ h/ A8 a8 |5 ]
如前所言,在将图像输入到 ArcFace 之前,研究者对其进行了随机修改。他们构造了一批生成图像,并通过整个流程计算在初始贴纸上的平均梯度。可以用一种简单的方法计算梯度,因为每个变换都是可微分的。
% \& U1 a. g9 o$ J& d9 V! Z
/ c; B# W4 y9 U注意,在每一次迭代中,批中的每一个图像上的贴纸都是相同的,只有转换参数是不同的。此外,研究者使用了带有动量的 Iterative FGSM 以及在实验中非常有效的几个启发式方法。
: }8 Y2 @) ^: q4 D1 m0 x% o5 z3 M8 ~* `- ]' e
研究者将攻击分为两个阶段。在第一阶段,研究者使用了 5255 的步长值和 0.9 的动量;在第二阶段,研究者使用了 1255 的步长值和 0.995 的动量。TV 损失的权重一直为 1e − 4。$ V4 J( ?3 I8 f3 [7 Z2 |2 Y
0 B" x0 [) a: X7 H8 T5 d
研究者利用一张带有贴纸的固定图像进行验证,其中他们将所有参数都设置为看起来最真实的值。
7 j4 ^; u2 H( Y/ t. x4 r# x: Y+ m0 W* B
他们使用了最小二乘法法,并通过线性函数来插入最后 100 个验证值:经历了第一阶段的 100 次迭代和第二阶段的 200 次迭代。如果线性函数的角系数不小于 0,则:1)从第一阶段过渡到第二阶段的攻击;2)在第二阶段停止攻击。' V9 ?- G/ h# }( D- `
& h+ P( e& b7 `3 ~! R6 W' v6 Z「对抗样本贴」效果怎么样
' D( C) S% n0 f$ |, I/ T/ k
1 r: U/ }9 O; H2 c" |0 S# _/ g9 `' u研究者在实验中使用一张 400×900 像素的图像作为贴纸图像,接着将这张贴纸图像投射到 600×600 像素的人脸图像上,然后再将其转换成 112×112 像素的图像。
& ]! `6 a H; w* y9 e4 Q
% _$ {( @2 }6 M! a3 B为了找出最适合贴纸的位置,研究者针对贴纸定位进行了两次实验。首先,他们利用粘贴在 eyez 线上方不同高度的贴纸来攻击数字域中的图像。然后,他们根据空间 transformer 层参数的梯度值,在每次迭代后变更贴纸的位置。
& [ n4 Z: o/ u3 h' p5 w4 a8 C9 `4 n
下图 4 展示了典型对抗贴纸的一些示例。看起来就像是模特在贴纸上画了挑起的眉毛。( s* S1 n- S' |) q" S- `5 l
( @+ M2 N c- W. `3 M0 k+ Q
9 Z- o8 H0 q7 o5 r/ ~% B
图 4:对抗贴纸示例。
$ @2 |" l7 n& P |, B, W: o
+ g! X- p) G& {为了检测 AdvHat 方法在不同拍摄条件下的鲁棒性,研究者为最开始 10 个人中的 4 人另拍了 11 张照片。拍摄条件示例如下图 6 所示:2 B8 ^( `, w( n
0 b6 n3 x J) M% e& ]' Z) N1 W
h" u/ S P3 y4 K4 N/ ]图 6:研究者为一些人另拍了 11 张照片,以检测不同拍摄条件下的攻击效果。, G: _% G, z9 `( b3 e
: F) W% X1 S# u$ P
检测结果如下图 7 所示:虽然最终相似度增加了,但攻击依然有效。' a, u) m# l; r) W+ }' k d+ Y* S
: ?* O! U; r; S
. Y4 S1 c- l5 _图 7:各种拍摄条件下的基线和最终相似度。图中不同颜色的圆点代表不同的人。圆表示对抗攻击下的相似性,而 x 表示基线条件下的相似性。
& r! Y2 t& x9 u- E0 I9 K
/ W5 R; p/ V/ ` R* P. x0 @最后,研究人员检验了该方法对于其他 Face ID 模型的攻击效果。他们选取了 InsightFace Model Zoo 中的一些人脸识别方法。在每个模型上均测试了 10 个不同的人。( O* C" p5 s; b1 B6 P: L
; P: O/ r" a) g/ Z+ f9 P
6 M7 x" w& q$ p8 @& f图 8:不同模型中,基线和最终相似度的差异。
) c8 p2 R1 ^2 Y7 Z! W- i5 E
- Q# W& O' z, f- ?% F; C虽然 AdvHat 生成的对抗样本很简单,但这种攻击方式看起来已适用于大多数基于摄像头的人脸识别系统。看来想要不被人「冒名顶替」,我们还是需要回到虹膜识别?7 o' l- `9 J- w8 r6 d; y
) i" p& C; T3 ?! h( i+ i% e本文为机器之心报道,转载请联系本公众号获得授权。) r8 s) f7 k4 _
✄------------------------------------------------加入机器之心(全职记者 / 实习生):hr@jiqizhixin.com投稿或寻求报道:content@jiqizhixin.com广告 & 商务合作:bd@jiqizhixin.com$ G$ y% N% c) v9 y5 m6 v
来源:http://mp.weixin.qq.com/s?src=11×tamp=1566896404&ver=1815&signature=*oejD6KZNIeFBedjGfko-HVWxUK5JqJymcLMEI2vQKpnGBbeLDP70080UA4XKxKdpIqy8GtZ8Ak8dD6y3mZXTrdi2HDgNe5e17ZDjbih8ZOWHLwlikFYQ99AEVxcEl0F&new=1+ d7 V: X: M) I9 F5 c& Z, S
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作! |
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
×
|