|
|
|
机器之心报道
$ J+ d' l6 n Y$ e- w; [" w$ }6 t机器之心编辑部用来刷脸解锁的 Face ID 也可以被「对抗样本」攻击了。最近,来自莫斯科国立大学、华为莫斯科研究中心的研究者们找到的新型攻击方法,让已经广泛用于手机、门禁和支付上的人脸识别系统突然变得不再靠谱。& t) G) W& _# ?: n
在这一新研究中,科学家们只需用普通打印机打出一张带有图案的纸条贴在脑门上,就能让目前业内性能领先的公开 Face ID 系统识别出错,这是首次有 AI 算法可以在现实世界中实现攻击:/ A8 s6 e" R8 V5 C+ d
" ?3 r, B0 x/ Y: k% N9 e/ i4 ?$ q( O5 T* P8 }% L4 E0 |* G& `
AI 人脸识别系统在正常情况下的分类效果,它识别出了特定的人:Person_1。5 z" d+ i |' Z/ J
6 p f0 N: A) c6 i) D5 N7 R
) h1 i: [; @& b, d贴上纸条以后,即使没有遮住脸,系统也会把 Person_1 识别成另外一些人「0000663」和「0000268」等。# N: U% k' s4 p+ W- r. B4 y
; ]2 N( q' z* a4 T2 O" y
4 d9 |$ ~- l- {% V% w1 f
变换角度、改变光照条件都不会改变错误的识别效果。加了贴纸后,我们可以看到 Person_1 的概率非常低。 ^! ~" G8 [/ v- g
- S5 b' m8 n1 D1 |! n3 H8 e
使用对抗样本攻击图像识别系统,在人工智能领域里已经不算什么新鲜事了,但是想要在现实世界里做到无差别攻击,还是人脸识别这种数千万人都在使用的应用技术,这就显得有些可怕了。使用这种新方法,人们可以轻松地打印一个破解纸条贴在脑门上,随后让 AI 识别的准确率显著下降。
Q! C1 K7 M+ a; k0 }3 f9 q4 p( L+ Z/ E
从上面的动图可以看出,研究者实现的是非定向的攻击,且对抗信息都集成在贴纸上。那么如果我们要找到一种定向的攻击方式,让系统将我们识别为特定的某个人,然后解锁 ta 的手机,这也并不遥远,只要我们将以前定向攻击的方式迁移到贴纸上就行了。
0 r* n1 J1 i# g* H7 B% Z" N( c8 E6 E L; H
研究人员不仅发布了论文:https://arxiv.org/abs/1908.08705
6 c' u; F( u! b: h" l- h4 z } a+ Z+ Z1 X) E {$ K+ @9 X; a
更是直接公开了项目的代码:https://github.com/papermsucode/advhat
, y/ b( _8 T( w+ a4 t! w. N! D$ @# ^: i5 U
2 Y& \% h+ G3 o- M7 ?; l+ w- W「对抗样本」是人工智能的软肋,这是一种可以欺骗神经网络,让图像识别 AI 系统出错的技术,是近期计算机视觉,以及机器学习领域的热门研究方向。
# z; c+ M$ M* q3 W. r2 O7 F5 R0 ?% l/ X" y) D$ Z) }9 L2 b& o
在这篇论文中,研究者们提出了一种全新且易于复现的技术 AdvHat,可以在多种不同的拍摄条件下攻击目前最强的公共 Face ID 系统。想要实现这种攻击并不需要复杂的设备——只需在彩色打印机上打印特定的对抗样本,并将其贴到你的帽子上,而对抗样本的制作采用了全新的算法,可在非平面的条件下保持有效。0 w& ~4 O6 j; R
( z+ d m1 W# ~8 W7 \' H% u
研究人员称,这种方法已经成功地破解了目前最先进的 Face ID 模型 LResNet100E-IR、ArcFace@ms1m-refine-v2,其攻击方式也可以迁移到其他 Face ID 模型上。
$ d1 [* _) r2 V" b/ _ o3 }3 S5 z6 K$ h2 T$ ^) L
现实 Face ID 也能被攻击8 Q4 v, U- j$ W* a N$ Y8 W
, d7 U+ M% z5 x' f1 s
以前对抗攻击主要体现在虚拟世界中,我们可以用电子版的对抗样本欺骗各种识别系统,例如通用的图像识别或更细致的人脸识别等。但这些攻击有一些问题,例如人脸识别攻击只能是在线的识别 API,将对抗样本打印出来也不能欺骗真实系统。
$ D) A/ j, n9 ~* u# r8 j- j* G* M+ b9 t3 r& H& b

0 y/ j9 l: Y% ]1 G一个标准的线上人脸对抗样本,它只能攻击线上人脸识别模型或 API,无法用于线下的真实人脸识别场景。
2 s- A9 A1 @7 p1 J
/ I# L6 n8 g2 `# G @7 ^对抗样本的这种局限性,很大程度在于真实识别系统不止有人脸识别模块,还有活体检测等其它处理模块。只要活体检测判断对抗样本不是真人,那么它自然就失去了效果。因此,很多研究者在思考,我们能不能将对抗信息打印出来,贴在脸上或头上某个位置,那么这不就能攻击真实的人脸识别了么。甚至,我们可以把对抗信息嵌入到帽子或其它饰品内,这样不会更方便么。
; H; B, O2 {3 L6 s& E m' m, o( w+ P2 W* Y N) \8 M
沿着这样的思路,华为莫斯科研究中心的两位研究者就创造了这样的对抗样本。他们表示在以前 Face ID 模型还需要大量的私有数据,而随着大规模公开数据的发布,ArcFace 等研究模型也能与微软或谷歌的模型相媲美。如果他们的对抗样本能攻击到 ArcFace,那么差不多就能攻击业务模型。
3 J0 P' [% `$ T/ E' b' `# C8 @& ?# l* x3 R# w0 V% j7 I
研究者表示他们提出的 AdvHat 有如下特点:
4 B; Q, s6 |" m; l4 }: m
& }9 ^6 }: G- S5 T1 |5 B
! S/ Y* {! R% n- d- AdvHat 是一种现实世界的对抗样本,只要在帽子加上这种「贴纸」,那么就能攻击顶尖的公开 Face ID 系统;
, w$ s- a. \0 ]$ L+ [* V9 B - 这种攻击是非常容易实现的,只要有彩印就行;
2 {& F# _( v( }+ r - 该攻击在各种识别环境下都能起作用,包括光照、角度和远近等;9 @: ]) {0 h6 A) b5 X+ L0 i
- 这种攻击可以迁移到其它 Face ID 系统上。/ T2 A7 c8 T! D! b7 Y
3 t8 Z0 k# y- H
5 @1 G( Q# h8 ?+ a0 J
Face ID 该怎样攻击
( h/ x2 T6 y) D. s9 x
/ }4 i6 U: R5 i' \& n" A: n在 Face ID 系统的真实应用场景中,并非捕获到的每张人脸都是已知的,因此 top-1 类的预测相似度必须超过一些预定义的阈值,才能识别出人脸。; o4 C5 V, W/ p( a" Q6 n0 D6 P
9 a- _4 O* v" H! ?9 P. g" {
这篇论文的目的是创造一个可以粘贴在帽子上的矩形图像,以诱导 Face ID 系统将人脸与 ground truth 相似度降到决策阈值之下。
( s! v( }7 i& F/ u4 c5 a) s" B- {/ Q& t0 s# u0 k6 M4 g
这种攻击大概包含以下流程:
& J$ V2 H/ R; A
2 r; O3 y) b! \2 \3 E2 B4 F2 E8 w
- 将平面贴纸进行转换以凸显三维信息,转换结果模拟矩形图像放在帽子上后的形状。
7 F9 p" [/ s' p8 i% L0 D! w - 为了提高攻击的鲁棒性,研究者将得到的图像投影到高质量人脸图像上,投影参数中含有轻微的扰动。
/ B8 I* X7 T/ O, | a - 将得到的图像转换为 ArcFace 输入的标准模板。 \7 H, V# e/ H/ |* i1 v, b
- 降低初始矩形图像的 TV 损失以及余弦相似度损失之和,其中相似性是原图嵌入向量与 ArcFace 算出嵌入向量之间的距离。0 {' t6 @; Q f t6 V
0 o! }( R& s! a* v' s/ ^: ^5 c
; t. }9 V- G' R' Q5 s+ I流程图如下图 2 所示:
5 ]0 i, C' l, b# y0 p1 _
5 p/ d+ S$ @- I! I! C) Q
; D4 R3 i2 K. {1 n1 l4 A图 2:攻击流程示意图。
" ^( f$ S; S( e; v3 B3 m
* I$ C: V+ @3 @% J+ |首先,研究者将贴纸重塑成真实大小和外观的图像,之后将其添加到人脸图像上,然后再使用略为不同的转换参数将图像转换为 ArcFace 输入模板,最后将模板输入到 ArcFace 中。由此评估余弦相似度和 TV 损失,这样就可以得到用于改进贴纸图像的梯度信号。
/ Q1 u+ _; t4 H
. n( z- Q8 \$ O, _+ o7 p # Z( Z* O. u. e/ K9 f) a$ @
图 3:步骤 1 转换贴纸的示意图。7 y" c5 x4 N& u- V
3 b" o8 b) I3 U# K& r6 g+ _贴纸攻击试验细节$ G4 |4 x' N" h
* a' L7 E: f- ^) P
如前所言,在将图像输入到 ArcFace 之前,研究者对其进行了随机修改。他们构造了一批生成图像,并通过整个流程计算在初始贴纸上的平均梯度。可以用一种简单的方法计算梯度,因为每个变换都是可微分的。2 r4 k/ V+ F2 z) D' l M& L
% @* P" T! x/ _4 k
注意,在每一次迭代中,批中的每一个图像上的贴纸都是相同的,只有转换参数是不同的。此外,研究者使用了带有动量的 Iterative FGSM 以及在实验中非常有效的几个启发式方法。
% ~: ~' O" Z; b |, h! Z: O1 Q& h, a& x4 e; ~, Y. u7 s2 |! _4 j
研究者将攻击分为两个阶段。在第一阶段,研究者使用了 5255 的步长值和 0.9 的动量;在第二阶段,研究者使用了 1255 的步长值和 0.995 的动量。TV 损失的权重一直为 1e − 4。* R8 U9 J) b) T' J
g3 |' G9 T6 ?4 l! t研究者利用一张带有贴纸的固定图像进行验证,其中他们将所有参数都设置为看起来最真实的值。
& x: \$ Y w; Q% l8 G" U+ r& u0 g4 b; r# w" ~
他们使用了最小二乘法法,并通过线性函数来插入最后 100 个验证值:经历了第一阶段的 100 次迭代和第二阶段的 200 次迭代。如果线性函数的角系数不小于 0,则:1)从第一阶段过渡到第二阶段的攻击;2)在第二阶段停止攻击。8 y' C6 A, @) \' r3 v
) Y! E a& W5 r2 r; _
「对抗样本贴」效果怎么样0 G( p) ^) g. m; t3 m- f
. B7 I o8 s( K' A# i研究者在实验中使用一张 400×900 像素的图像作为贴纸图像,接着将这张贴纸图像投射到 600×600 像素的人脸图像上,然后再将其转换成 112×112 像素的图像。/ J) O1 ~* l( ?$ F# Y8 I0 K
0 L* D- ~! u& T0 z6 ]0 X: m6 h2 y
为了找出最适合贴纸的位置,研究者针对贴纸定位进行了两次实验。首先,他们利用粘贴在 eyez 线上方不同高度的贴纸来攻击数字域中的图像。然后,他们根据空间 transformer 层参数的梯度值,在每次迭代后变更贴纸的位置。( N6 ]9 P! v$ ~9 ?- K# n8 ?
! A% s n* g- w- ~4 M下图 4 展示了典型对抗贴纸的一些示例。看起来就像是模特在贴纸上画了挑起的眉毛。
4 _( u) l+ f! \" o$ ^) j) \4 ~2 y5 V1 h+ c$ v' Y
: F" o' ^/ _0 p
图 4:对抗贴纸示例。8 g5 F! o$ X2 H" s, C3 ^6 d
8 O5 k5 @. U% M6 S9 f为了检测 AdvHat 方法在不同拍摄条件下的鲁棒性,研究者为最开始 10 个人中的 4 人另拍了 11 张照片。拍摄条件示例如下图 6 所示:; G D; T- Z* p9 T
6 `8 F5 @9 A( c- w( d6 S 8 R Q5 {. R7 q, P
图 6:研究者为一些人另拍了 11 张照片,以检测不同拍摄条件下的攻击效果。; d, ?- J7 V- G6 u
+ R. k4 N* ^$ K& E* v( w. D B8 @
检测结果如下图 7 所示:虽然最终相似度增加了,但攻击依然有效。2 g5 m' }5 {- M# }4 W3 U8 o
4 c+ f7 |- L- W4 J2 a5 Q
+ A. E, m6 }5 J0 {
图 7:各种拍摄条件下的基线和最终相似度。图中不同颜色的圆点代表不同的人。圆表示对抗攻击下的相似性,而 x 表示基线条件下的相似性。
, Q! w5 d9 O* q3 M1 L
% S0 ~( m& l! a" Z8 R8 W最后,研究人员检验了该方法对于其他 Face ID 模型的攻击效果。他们选取了 InsightFace Model Zoo 中的一些人脸识别方法。在每个模型上均测试了 10 个不同的人。
# u9 Z! [" H" h4 B) }! u; |( @) {: L' }. e) N1 ~9 _! i

9 J6 x7 ]8 N5 z% p1 g: D图 8:不同模型中,基线和最终相似度的差异。9 E# T9 j K/ R5 ^5 M4 z
& q2 C$ ]1 v% R9 a. j, Y虽然 AdvHat 生成的对抗样本很简单,但这种攻击方式看起来已适用于大多数基于摄像头的人脸识别系统。看来想要不被人「冒名顶替」,我们还是需要回到虹膜识别?
4 q+ c6 `- V$ i# D$ O( k8 Y/ T% ^8 q' d0 Q
本文为机器之心报道,转载请联系本公众号获得授权。& v3 p% y" h2 Z; F( T1 R: b2 s% a
✄------------------------------------------------加入机器之心(全职记者 / 实习生):hr@jiqizhixin.com投稿或寻求报道:content@jiqizhixin.com广告 & 商务合作:bd@jiqizhixin.com
4 E8 W) z# F; Q! M/ m% d来源:http://mp.weixin.qq.com/s?src=11×tamp=1566896404&ver=1815&signature=*oejD6KZNIeFBedjGfko-HVWxUK5JqJymcLMEI2vQKpnGBbeLDP70080UA4XKxKdpIqy8GtZ8Ak8dD6y3mZXTrdi2HDgNe5e17ZDjbih8ZOWHLwlikFYQ99AEVxcEl0F&new=13 G( C% d8 d9 @, m
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作! |
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
×
|