|
机器之心报道 ' {/ l" ^4 p6 z, J% l0 Z
机器之心编辑部用来刷脸解锁的 Face ID 也可以被「对抗样本」攻击了。最近,来自莫斯科国立大学、华为莫斯科研究中心的研究者们找到的新型攻击方法,让已经广泛用于手机、门禁和支付上的人脸识别系统突然变得不再靠谱。
6 I. R' q% k3 ~, w( ~8 D 在这一新研究中,科学家们只需用普通打印机打出一张带有图案的纸条贴在脑门上,就能让目前业内性能领先的公开 Face ID 系统识别出错,这是首次有 AI 算法可以在现实世界中实现攻击:
0 o! |) ^* U3 u0 I: J y
1 q) ^! ^+ I4 v+ ?6 K* x* P! w& @
! V) X6 h/ `3 s7 y$ e- S+ `, G H6 }8 GAI 人脸识别系统在正常情况下的分类效果,它识别出了特定的人:Person_1。3 t9 j. b2 d0 u5 z
1 k; p, {7 e) w4 D5 `. d+ ^4 }+ q8 R: j) }$ e+ {$ O8 Z
贴上纸条以后,即使没有遮住脸,系统也会把 Person_1 识别成另外一些人「0000663」和「0000268」等。( h6 q! w9 {, G; y
1 J, v6 m3 t( b! ?
$ Y: N6 f" ?* m变换角度、改变光照条件都不会改变错误的识别效果。加了贴纸后,我们可以看到 Person_1 的概率非常低。* F6 i% X6 J) P* U$ a
; `9 |; G7 c' e8 z0 Z" X. ^使用对抗样本攻击图像识别系统,在人工智能领域里已经不算什么新鲜事了,但是想要在现实世界里做到无差别攻击,还是人脸识别这种数千万人都在使用的应用技术,这就显得有些可怕了。使用这种新方法,人们可以轻松地打印一个破解纸条贴在脑门上,随后让 AI 识别的准确率显著下降。
1 Z+ y$ C, ]: H2 c6 b6 p" i8 W0 f1 f3 a- P
从上面的动图可以看出,研究者实现的是非定向的攻击,且对抗信息都集成在贴纸上。那么如果我们要找到一种定向的攻击方式,让系统将我们识别为特定的某个人,然后解锁 ta 的手机,这也并不遥远,只要我们将以前定向攻击的方式迁移到贴纸上就行了。
5 A1 g0 |) I2 Z3 y; Q. x2 R( o$ R0 {
研究人员不仅发布了论文:https://arxiv.org/abs/1908.08705
/ Y) o2 h( [' \" _8 Y/ q8 T2 L$ O2 F% w3 d: k! T
更是直接公开了项目的代码:https://github.com/papermsucode/advhat- l+ g+ S) }( @. G2 T( C
z: a& i& a# b' R5 }9 L
「对抗样本」是人工智能的软肋,这是一种可以欺骗神经网络,让图像识别 AI 系统出错的技术,是近期计算机视觉,以及机器学习领域的热门研究方向。7 U! a4 G+ Y/ _ O% g# e+ [# `
2 f# L9 P' `. y/ I0 L4 D
在这篇论文中,研究者们提出了一种全新且易于复现的技术 AdvHat,可以在多种不同的拍摄条件下攻击目前最强的公共 Face ID 系统。想要实现这种攻击并不需要复杂的设备——只需在彩色打印机上打印特定的对抗样本,并将其贴到你的帽子上,而对抗样本的制作采用了全新的算法,可在非平面的条件下保持有效。 V/ O& e+ S4 J2 J- R( C9 D, T3 w
, E2 `' w2 F' v, \% ?( J研究人员称,这种方法已经成功地破解了目前最先进的 Face ID 模型 LResNet100E-IR、ArcFace@ms1m-refine-v2,其攻击方式也可以迁移到其他 Face ID 模型上。
7 C! V( b. d8 K9 ~& A
- Y/ c) `( y' m/ \6 m# T2 s+ c现实 Face ID 也能被攻击7 Z: g2 w# h$ M1 T
+ u4 ^9 g8 i% ^以前对抗攻击主要体现在虚拟世界中,我们可以用电子版的对抗样本欺骗各种识别系统,例如通用的图像识别或更细致的人脸识别等。但这些攻击有一些问题,例如人脸识别攻击只能是在线的识别 API,将对抗样本打印出来也不能欺骗真实系统。
' V! Q6 \+ ]$ v+ ^+ [3 @
; ]* U1 A2 ^4 M 8 `. Z" ~9 e3 a$ Z6 z
一个标准的线上人脸对抗样本,它只能攻击线上人脸识别模型或 API,无法用于线下的真实人脸识别场景。5 p0 x7 V+ W' {3 r1 M& G
6 C2 k( ^; X" b$ w
对抗样本的这种局限性,很大程度在于真实识别系统不止有人脸识别模块,还有活体检测等其它处理模块。只要活体检测判断对抗样本不是真人,那么它自然就失去了效果。因此,很多研究者在思考,我们能不能将对抗信息打印出来,贴在脸上或头上某个位置,那么这不就能攻击真实的人脸识别了么。甚至,我们可以把对抗信息嵌入到帽子或其它饰品内,这样不会更方便么。- x% u! L: y2 D. F; X1 O3 `
/ O. O/ m2 J/ R
沿着这样的思路,华为莫斯科研究中心的两位研究者就创造了这样的对抗样本。他们表示在以前 Face ID 模型还需要大量的私有数据,而随着大规模公开数据的发布,ArcFace 等研究模型也能与微软或谷歌的模型相媲美。如果他们的对抗样本能攻击到 ArcFace,那么差不多就能攻击业务模型。' X' H6 b# G* ^$ j, F, a6 o- N( l
$ N! i) V# Z$ v& O# \
研究者表示他们提出的 AdvHat 有如下特点:
( d8 W; @1 B9 k/ V- }) e% Z
2 `+ |) h% w: D" g
% y5 I8 t5 }* ^* f0 G1 K- AdvHat 是一种现实世界的对抗样本,只要在帽子加上这种「贴纸」,那么就能攻击顶尖的公开 Face ID 系统;
' y6 ~! Z3 }0 u5 x; }- ^5 M4 | - 这种攻击是非常容易实现的,只要有彩印就行;( T i8 w. U+ v
- 该攻击在各种识别环境下都能起作用,包括光照、角度和远近等;5 Q4 v6 {% o. o4 p+ ^# G" W( ~
- 这种攻击可以迁移到其它 Face ID 系统上。' h" p( S* {+ P$ \* m2 g
/ W0 _4 S: H# e& e. ?7 {
2 F* M5 G0 R+ D* I" x
Face ID 该怎样攻击" C' y" v7 _3 Y6 V, K
0 U2 m% j c; |2 P
在 Face ID 系统的真实应用场景中,并非捕获到的每张人脸都是已知的,因此 top-1 类的预测相似度必须超过一些预定义的阈值,才能识别出人脸。. e$ g1 k; _" A
' G c& @# K' ~+ E/ X% f这篇论文的目的是创造一个可以粘贴在帽子上的矩形图像,以诱导 Face ID 系统将人脸与 ground truth 相似度降到决策阈值之下。. W3 S' ~1 U- W1 H( {
2 Y" w& ?6 ^. B5 s p% L% I L: \% \这种攻击大概包含以下流程:
9 S' F% J3 @7 v" u
, [8 ] y/ e; _ ]" q7 i6 y. B. Z& I8 B0 h3 b: ^
- 将平面贴纸进行转换以凸显三维信息,转换结果模拟矩形图像放在帽子上后的形状。
: L2 ?* ~" L8 n) f0 c. A9 c - 为了提高攻击的鲁棒性,研究者将得到的图像投影到高质量人脸图像上,投影参数中含有轻微的扰动。
+ r. K1 J u5 L8 L# g - 将得到的图像转换为 ArcFace 输入的标准模板。
- m; G3 O3 a1 o# r& R5 Q3 X) t" I$ |" O - 降低初始矩形图像的 TV 损失以及余弦相似度损失之和,其中相似性是原图嵌入向量与 ArcFace 算出嵌入向量之间的距离。
C+ P* v! N0 b# N$ ?% f% q" V2 L
. N# o _5 u4 O9 G: q. x
. r' c+ {1 D C% b5 E' Y流程图如下图 2 所示:
* V8 {1 ^& O& i( @
3 c5 r, N: @8 |. f9 w% k
! U" O C, ^! C' J u# {图 2:攻击流程示意图。
+ ~. C' k4 e0 F7 ]
' f+ x9 V; t7 H, H首先,研究者将贴纸重塑成真实大小和外观的图像,之后将其添加到人脸图像上,然后再使用略为不同的转换参数将图像转换为 ArcFace 输入模板,最后将模板输入到 ArcFace 中。由此评估余弦相似度和 TV 损失,这样就可以得到用于改进贴纸图像的梯度信号。: ?, W8 H" ^% {7 [/ ^3 t- G
+ X; h& n0 Z/ E1 l3 i( k4 @
% d+ ^4 Q4 ]# D4 b
图 3:步骤 1 转换贴纸的示意图。
, R" m- A/ h2 i; Q1 ?1 E
! V) n( @3 E0 t' l贴纸攻击试验细节8 d9 m% k4 g1 U4 c0 X: _1 v/ y
) i6 P- l5 G, G) }$ B. x
如前所言,在将图像输入到 ArcFace 之前,研究者对其进行了随机修改。他们构造了一批生成图像,并通过整个流程计算在初始贴纸上的平均梯度。可以用一种简单的方法计算梯度,因为每个变换都是可微分的。2 B4 `, o" Z0 w& Z) ]
$ J. N! K: E5 K4 k1 S注意,在每一次迭代中,批中的每一个图像上的贴纸都是相同的,只有转换参数是不同的。此外,研究者使用了带有动量的 Iterative FGSM 以及在实验中非常有效的几个启发式方法。
5 u* A! J* q" D
5 ~& c0 ~. q6 W5 |# P" ?$ t7 z研究者将攻击分为两个阶段。在第一阶段,研究者使用了 5255 的步长值和 0.9 的动量;在第二阶段,研究者使用了 1255 的步长值和 0.995 的动量。TV 损失的权重一直为 1e − 4。
5 N9 w7 n% Q( _. ^2 m2 k2 M* z+ n
7 x+ _2 U" A) q" r' R. G研究者利用一张带有贴纸的固定图像进行验证,其中他们将所有参数都设置为看起来最真实的值。
; r: f: \+ B; o9 V" e4 n3 I/ I) \. }
他们使用了最小二乘法法,并通过线性函数来插入最后 100 个验证值:经历了第一阶段的 100 次迭代和第二阶段的 200 次迭代。如果线性函数的角系数不小于 0,则:1)从第一阶段过渡到第二阶段的攻击;2)在第二阶段停止攻击。( P$ \) j, G& M6 S' G
2 m0 A9 x5 D. z4 _( ]「对抗样本贴」效果怎么样! j. p7 j* A+ f; y* n
4 _' b9 J7 Q. e
研究者在实验中使用一张 400×900 像素的图像作为贴纸图像,接着将这张贴纸图像投射到 600×600 像素的人脸图像上,然后再将其转换成 112×112 像素的图像。
) Y* k- t8 B* j. L3 H" @' }5 l M3 _0 i! _1 @+ a1 S9 U
为了找出最适合贴纸的位置,研究者针对贴纸定位进行了两次实验。首先,他们利用粘贴在 eyez 线上方不同高度的贴纸来攻击数字域中的图像。然后,他们根据空间 transformer 层参数的梯度值,在每次迭代后变更贴纸的位置。
S, d9 e9 H( e; F* r7 p- r0 u8 O$ U2 {: d
下图 4 展示了典型对抗贴纸的一些示例。看起来就像是模特在贴纸上画了挑起的眉毛。
4 ~. k9 F- }; I D5 t9 d' l
& H# x- i" E0 ~& i, c7 \: r 1 _, r: f1 t6 i& N. y+ \
图 4:对抗贴纸示例。4 b* C O9 K) ?% |& K* [
' x8 B Q' U$ |8 M( o为了检测 AdvHat 方法在不同拍摄条件下的鲁棒性,研究者为最开始 10 个人中的 4 人另拍了 11 张照片。拍摄条件示例如下图 6 所示:
" g* O. I7 O& {6 q+ g4 G7 |6 D. b, n: K% }5 c
: I. y7 S% A/ s4 v* A% u
图 6:研究者为一些人另拍了 11 张照片,以检测不同拍摄条件下的攻击效果。8 Q7 s6 L! q- m
. H6 F, @3 d% ?) C& e' D0 U检测结果如下图 7 所示:虽然最终相似度增加了,但攻击依然有效。/ t+ d7 w' M+ K- _9 A- i
9 `' k U/ M) S" b3 A
; Y( S7 D) S" {6 r$ o
图 7:各种拍摄条件下的基线和最终相似度。图中不同颜色的圆点代表不同的人。圆表示对抗攻击下的相似性,而 x 表示基线条件下的相似性。
. P8 I' K! Q3 L) ~5 E0 f) I. T6 a# d; r/ P
最后,研究人员检验了该方法对于其他 Face ID 模型的攻击效果。他们选取了 InsightFace Model Zoo 中的一些人脸识别方法。在每个模型上均测试了 10 个不同的人。
$ J# q- @3 H6 @- o9 N3 @5 J" N9 M6 _% r

+ U2 g; I' k, ]4 z图 8:不同模型中,基线和最终相似度的差异。/ O# d: v5 W" Y7 T; y& m) B& W
3 g8 F0 C7 ]7 K9 t虽然 AdvHat 生成的对抗样本很简单,但这种攻击方式看起来已适用于大多数基于摄像头的人脸识别系统。看来想要不被人「冒名顶替」,我们还是需要回到虹膜识别?
6 h2 i) s/ V% g' L0 w2 N
' N2 i9 T. z- l; K9 x6 M' ]: d本文为机器之心报道,转载请联系本公众号获得授权。
& M8 z; N0 `4 {6 d9 n, R+ n✄------------------------------------------------加入机器之心(全职记者 / 实习生):hr@jiqizhixin.com投稿或寻求报道:content@jiqizhixin.com广告 & 商务合作:bd@jiqizhixin.com6 ^- S' b6 w; a# y; ?3 U1 l
来源:http://mp.weixin.qq.com/s?src=11×tamp=1566896404&ver=1815&signature=*oejD6KZNIeFBedjGfko-HVWxUK5JqJymcLMEI2vQKpnGBbeLDP70080UA4XKxKdpIqy8GtZ8Ak8dD6y3mZXTrdi2HDgNe5e17ZDjbih8ZOWHLwlikFYQ99AEVxcEl0F&new=1) S% v" V& f9 b a S4 u9 } s
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作! |
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
×
|