|
机器之心报道 & o+ I1 Z: |- S8 h; }
机器之心编辑部用来刷脸解锁的 Face ID 也可以被「对抗样本」攻击了。最近,来自莫斯科国立大学、华为莫斯科研究中心的研究者们找到的新型攻击方法,让已经广泛用于手机、门禁和支付上的人脸识别系统突然变得不再靠谱。
8 z* W( v" N. F. J 在这一新研究中,科学家们只需用普通打印机打出一张带有图案的纸条贴在脑门上,就能让目前业内性能领先的公开 Face ID 系统识别出错,这是首次有 AI 算法可以在现实世界中实现攻击:
& h. k3 W, L/ l; H2 r+ R$ Z; A; ?0 ?9 x
: A+ K9 U" x7 Q/ a. F
AI 人脸识别系统在正常情况下的分类效果,它识别出了特定的人:Person_1。6 C, I* {6 M! p/ L
$ h! Y/ U9 f* y( Q( {9 V; z+ r. z+ j
贴上纸条以后,即使没有遮住脸,系统也会把 Person_1 识别成另外一些人「0000663」和「0000268」等。9 E+ n( t+ ?1 `5 x8 [ d
X5 L& d* p! L6 o- E* G, q
6 M/ C f! M2 M
变换角度、改变光照条件都不会改变错误的识别效果。加了贴纸后,我们可以看到 Person_1 的概率非常低。/ H4 {0 p; f- h" p# I
8 B0 ~9 W$ ~# B9 I) x使用对抗样本攻击图像识别系统,在人工智能领域里已经不算什么新鲜事了,但是想要在现实世界里做到无差别攻击,还是人脸识别这种数千万人都在使用的应用技术,这就显得有些可怕了。使用这种新方法,人们可以轻松地打印一个破解纸条贴在脑门上,随后让 AI 识别的准确率显著下降。
6 ~" ~8 ?: p2 x* P2 q x3 l* B) G, t" v% g: ?7 I8 e: A+ V
从上面的动图可以看出,研究者实现的是非定向的攻击,且对抗信息都集成在贴纸上。那么如果我们要找到一种定向的攻击方式,让系统将我们识别为特定的某个人,然后解锁 ta 的手机,这也并不遥远,只要我们将以前定向攻击的方式迁移到贴纸上就行了。
* \* R. c& k1 v7 ]" P& S
1 `$ x# p2 `3 R- T* y4 g研究人员不仅发布了论文:https://arxiv.org/abs/1908.087050 k9 X9 y; {! e
+ ~! t) U! F% {
更是直接公开了项目的代码:https://github.com/papermsucode/advhat) o- }% d6 E0 q% z' q1 Q
( H2 A' |" _( D「对抗样本」是人工智能的软肋,这是一种可以欺骗神经网络,让图像识别 AI 系统出错的技术,是近期计算机视觉,以及机器学习领域的热门研究方向。
2 _% F+ S5 u( O+ i' O
2 X# X1 U+ w0 v- e5 K在这篇论文中,研究者们提出了一种全新且易于复现的技术 AdvHat,可以在多种不同的拍摄条件下攻击目前最强的公共 Face ID 系统。想要实现这种攻击并不需要复杂的设备——只需在彩色打印机上打印特定的对抗样本,并将其贴到你的帽子上,而对抗样本的制作采用了全新的算法,可在非平面的条件下保持有效。* K* u* d0 v/ H3 D1 o3 R& w2 j
2 M; }$ J3 i. h6 n# B
研究人员称,这种方法已经成功地破解了目前最先进的 Face ID 模型 LResNet100E-IR、ArcFace@ms1m-refine-v2,其攻击方式也可以迁移到其他 Face ID 模型上。
" O) K5 v. C/ T5 v" O: q8 m
0 P7 w) o8 G; A6 \% c7 O现实 Face ID 也能被攻击
' L% [% b% q+ ~. K& X
" P; K! E* x$ p以前对抗攻击主要体现在虚拟世界中,我们可以用电子版的对抗样本欺骗各种识别系统,例如通用的图像识别或更细致的人脸识别等。但这些攻击有一些问题,例如人脸识别攻击只能是在线的识别 API,将对抗样本打印出来也不能欺骗真实系统。 o! N/ K4 A' G/ r2 W4 A
# \! s8 z' P7 ?: a2 t
; {2 j% m: b! |一个标准的线上人脸对抗样本,它只能攻击线上人脸识别模型或 API,无法用于线下的真实人脸识别场景。
" K+ y2 W, e, ~! v) @+ h
# `+ @; m* K/ C- S8 q& ~对抗样本的这种局限性,很大程度在于真实识别系统不止有人脸识别模块,还有活体检测等其它处理模块。只要活体检测判断对抗样本不是真人,那么它自然就失去了效果。因此,很多研究者在思考,我们能不能将对抗信息打印出来,贴在脸上或头上某个位置,那么这不就能攻击真实的人脸识别了么。甚至,我们可以把对抗信息嵌入到帽子或其它饰品内,这样不会更方便么。
$ T/ S7 m) K; q1 ^5 e9 a Q8 Y( o6 W; r" c& Z. X" Y! v' Y
沿着这样的思路,华为莫斯科研究中心的两位研究者就创造了这样的对抗样本。他们表示在以前 Face ID 模型还需要大量的私有数据,而随着大规模公开数据的发布,ArcFace 等研究模型也能与微软或谷歌的模型相媲美。如果他们的对抗样本能攻击到 ArcFace,那么差不多就能攻击业务模型。' E. C* y7 [' j. K' t9 X* |
% k; k, W! Z" C5 V: |& I: ?0 l研究者表示他们提出的 AdvHat 有如下特点:7 P7 Q8 K: O j4 s, X1 w1 W4 e
$ r; c1 M- w: D7 }
9 e6 ?9 m% ~- y; m- AdvHat 是一种现实世界的对抗样本,只要在帽子加上这种「贴纸」,那么就能攻击顶尖的公开 Face ID 系统;
* P) D. z9 }- j. q$ v Q3 n/ V( u - 这种攻击是非常容易实现的,只要有彩印就行;& q2 N7 t. y C
- 该攻击在各种识别环境下都能起作用,包括光照、角度和远近等;
T' ~4 L2 p- Q$ V - 这种攻击可以迁移到其它 Face ID 系统上。
# U6 W# Z4 T& D# k . i7 p* m$ V& U+ N
7 P; F* @# A# J& [) FFace ID 该怎样攻击
2 M8 q5 U& h% c) s7 f( @. F. _& ] \$ a' \9 I1 G: P! v
在 Face ID 系统的真实应用场景中,并非捕获到的每张人脸都是已知的,因此 top-1 类的预测相似度必须超过一些预定义的阈值,才能识别出人脸。
% V( I3 N( ~" L
# `8 Y- w+ u L# o这篇论文的目的是创造一个可以粘贴在帽子上的矩形图像,以诱导 Face ID 系统将人脸与 ground truth 相似度降到决策阈值之下。
# I @ L, j0 c1 o
7 |4 o5 A9 r8 {! C这种攻击大概包含以下流程:, c. P9 w+ f8 ~0 t; O
( b/ g' y/ z3 c9 A" m: s
' Y. C; O- \8 k" T- 将平面贴纸进行转换以凸显三维信息,转换结果模拟矩形图像放在帽子上后的形状。
7 T1 y4 n* G2 n I - 为了提高攻击的鲁棒性,研究者将得到的图像投影到高质量人脸图像上,投影参数中含有轻微的扰动。
" E0 P4 k8 @1 G; z; E2 a& N* l% S - 将得到的图像转换为 ArcFace 输入的标准模板。
/ r) g1 L H2 B) z6 \4 x - 降低初始矩形图像的 TV 损失以及余弦相似度损失之和,其中相似性是原图嵌入向量与 ArcFace 算出嵌入向量之间的距离。
# A+ e7 V- e; U2 C' ~
1 f: `6 b+ u! d+ [
) ?& L0 G/ u! F' b& G3 q+ y流程图如下图 2 所示:% ]* ^* B6 Q4 v$ w
8 e& ?4 i; ~% Y; Q4 W% S" h: d

$ l9 O4 T) z* H) R/ n% a0 \- z图 2:攻击流程示意图。
' W9 _, a( f/ Q" Y0 W/ { }" Q* z9 q% V: F) V# _3 n5 `) I
首先,研究者将贴纸重塑成真实大小和外观的图像,之后将其添加到人脸图像上,然后再使用略为不同的转换参数将图像转换为 ArcFace 输入模板,最后将模板输入到 ArcFace 中。由此评估余弦相似度和 TV 损失,这样就可以得到用于改进贴纸图像的梯度信号。
1 g7 l7 J9 p2 ~4 _/ C2 q% E9 L/ r* e1 n! X3 a# x! @

+ |5 ~1 _- X) w& W: ]6 r图 3:步骤 1 转换贴纸的示意图。
2 D% F- s+ p; i
8 R/ a4 w! j& x; J. V0 i! ]( ~, H! j贴纸攻击试验细节
R3 W% G7 [ B2 B% U
7 P0 g# H& w9 C. \! R" i如前所言,在将图像输入到 ArcFace 之前,研究者对其进行了随机修改。他们构造了一批生成图像,并通过整个流程计算在初始贴纸上的平均梯度。可以用一种简单的方法计算梯度,因为每个变换都是可微分的。. n1 I# X( m" G% ^3 l* k) R& ]
x8 U( j, m! c: Z; D+ h' k
注意,在每一次迭代中,批中的每一个图像上的贴纸都是相同的,只有转换参数是不同的。此外,研究者使用了带有动量的 Iterative FGSM 以及在实验中非常有效的几个启发式方法。7 f" D/ K- l9 p2 q2 ~
1 ]; k) z/ O3 ^9 l
研究者将攻击分为两个阶段。在第一阶段,研究者使用了 5255 的步长值和 0.9 的动量;在第二阶段,研究者使用了 1255 的步长值和 0.995 的动量。TV 损失的权重一直为 1e − 4。' }+ H4 z- X9 q" b {' p, G
6 i5 `. z) q5 T6 k' k1 R9 e- U
研究者利用一张带有贴纸的固定图像进行验证,其中他们将所有参数都设置为看起来最真实的值。( f6 D' p/ y/ H D
7 o" j2 Z4 ?% S2 s$ P
他们使用了最小二乘法法,并通过线性函数来插入最后 100 个验证值:经历了第一阶段的 100 次迭代和第二阶段的 200 次迭代。如果线性函数的角系数不小于 0,则:1)从第一阶段过渡到第二阶段的攻击;2)在第二阶段停止攻击。
4 k# X; M' _3 X' W% ^; J$ `" C. ^, k! S
「对抗样本贴」效果怎么样# X9 M& F: K9 {: t. g
" }# f6 o& d+ \8 c9 K研究者在实验中使用一张 400×900 像素的图像作为贴纸图像,接着将这张贴纸图像投射到 600×600 像素的人脸图像上,然后再将其转换成 112×112 像素的图像。
) N9 b2 x5 v0 M9 a+ d/ x
7 ^+ Y6 m! J& F. N2 O! A为了找出最适合贴纸的位置,研究者针对贴纸定位进行了两次实验。首先,他们利用粘贴在 eyez 线上方不同高度的贴纸来攻击数字域中的图像。然后,他们根据空间 transformer 层参数的梯度值,在每次迭代后变更贴纸的位置。
1 M+ f) }" }0 a6 ^5 G# k4 V9 R
: ?/ e+ p/ x: S% N a7 _; j下图 4 展示了典型对抗贴纸的一些示例。看起来就像是模特在贴纸上画了挑起的眉毛。+ x t4 [2 x* \8 |+ s
V4 [% I4 q$ ^4 J. k) ]; {

" n+ I, S- j# M7 r1 m图 4:对抗贴纸示例。
/ l* U- T7 p* b
9 x; y; t A" T为了检测 AdvHat 方法在不同拍摄条件下的鲁棒性,研究者为最开始 10 个人中的 4 人另拍了 11 张照片。拍摄条件示例如下图 6 所示:
5 \. E$ j H9 v1 F& l3 z8 x3 F+ ~& g& }! m/ O s( Z

1 x3 x0 v5 m8 ?9 c& h- V7 e- @" |图 6:研究者为一些人另拍了 11 张照片,以检测不同拍摄条件下的攻击效果。
! L+ f9 D1 f. F5 e7 {- r; X% N" O- q6 P0 v
检测结果如下图 7 所示:虽然最终相似度增加了,但攻击依然有效。; b, t+ G# F. X" g. k! {- |
6 m# E* O* A$ x1 |( i' B

2 i$ g% F# [. c% k/ E. E( @) D- v图 7:各种拍摄条件下的基线和最终相似度。图中不同颜色的圆点代表不同的人。圆表示对抗攻击下的相似性,而 x 表示基线条件下的相似性。
; X6 P' a2 X* a7 R& j& u T m$ e o3 Q2 I& k$ ~) ~
最后,研究人员检验了该方法对于其他 Face ID 模型的攻击效果。他们选取了 InsightFace Model Zoo 中的一些人脸识别方法。在每个模型上均测试了 10 个不同的人。6 X, y4 Q3 f' G6 D
Y3 ]. H; V0 M, d# z " G0 x: Y0 K% P# k
图 8:不同模型中,基线和最终相似度的差异。& s% `9 @/ X9 ~/ ?& j4 W
0 V) w& q5 a/ N- z
虽然 AdvHat 生成的对抗样本很简单,但这种攻击方式看起来已适用于大多数基于摄像头的人脸识别系统。看来想要不被人「冒名顶替」,我们还是需要回到虹膜识别? V+ D) `/ [. _+ y2 A e" [
x8 B+ c, ^# a4 X7 ?本文为机器之心报道,转载请联系本公众号获得授权。
# A+ }6 b u; o+ t7 r✄------------------------------------------------加入机器之心(全职记者 / 实习生):hr@jiqizhixin.com投稿或寻求报道:content@jiqizhixin.com广告 & 商务合作:bd@jiqizhixin.com
. U, ?4 S, l/ ^0 @, Z' ~来源:http://mp.weixin.qq.com/s?src=11×tamp=1566896404&ver=1815&signature=*oejD6KZNIeFBedjGfko-HVWxUK5JqJymcLMEI2vQKpnGBbeLDP70080UA4XKxKdpIqy8GtZ8Ak8dD6y3mZXTrdi2HDgNe5e17ZDjbih8ZOWHLwlikFYQ99AEVxcEl0F&new=1- W: ]6 \. p! V
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作! |
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
×
|