|
|
|
机器之心报道 ; p9 V5 K( X, w# H2 Q8 d
机器之心编辑部用来刷脸解锁的 Face ID 也可以被「对抗样本」攻击了。最近,来自莫斯科国立大学、华为莫斯科研究中心的研究者们找到的新型攻击方法,让已经广泛用于手机、门禁和支付上的人脸识别系统突然变得不再靠谱。$ c" ~8 S+ k4 h( G( ?* h5 r* C+ a. Z
在这一新研究中,科学家们只需用普通打印机打出一张带有图案的纸条贴在脑门上,就能让目前业内性能领先的公开 Face ID 系统识别出错,这是首次有 AI 算法可以在现实世界中实现攻击:
; p4 X8 a# F9 o3 M& D& c1 u# Y4 Y9 H! F# I+ j
" P- o4 L* O+ B9 y" W" H1 {$ H% h8 j
AI 人脸识别系统在正常情况下的分类效果,它识别出了特定的人:Person_1。% o: h# f' ]. a/ Y! E
# n* e8 l) ?! Y2 W5 l( y' \
" O( o1 H' I+ P) m6 b
贴上纸条以后,即使没有遮住脸,系统也会把 Person_1 识别成另外一些人「0000663」和「0000268」等。. ~9 u; m1 \- q. t# f, m/ I0 ^/ U
5 U4 i1 t1 x: Q7 ~0 B3 A9 A- n4 M0 p+ n: s
变换角度、改变光照条件都不会改变错误的识别效果。加了贴纸后,我们可以看到 Person_1 的概率非常低。2 o5 n) C' v9 I4 z
) n) B F5 P( k& h" |* ]
使用对抗样本攻击图像识别系统,在人工智能领域里已经不算什么新鲜事了,但是想要在现实世界里做到无差别攻击,还是人脸识别这种数千万人都在使用的应用技术,这就显得有些可怕了。使用这种新方法,人们可以轻松地打印一个破解纸条贴在脑门上,随后让 AI 识别的准确率显著下降。2 z: I0 t* @0 k2 V" W2 G' ]
. b1 |& W4 C2 g# ~; k' I( p7 h从上面的动图可以看出,研究者实现的是非定向的攻击,且对抗信息都集成在贴纸上。那么如果我们要找到一种定向的攻击方式,让系统将我们识别为特定的某个人,然后解锁 ta 的手机,这也并不遥远,只要我们将以前定向攻击的方式迁移到贴纸上就行了。
1 i, o! \# l- y: r
0 w6 {9 J: a; h/ |+ d, g研究人员不仅发布了论文:https://arxiv.org/abs/1908.08705" a* y2 i, b& K: Z: r$ ~
) o2 w) d+ x* [# _* k& L; e, ?! ?
更是直接公开了项目的代码:https://github.com/papermsucode/advhat/ V& a. W6 y# D
& m0 e5 [7 l. l「对抗样本」是人工智能的软肋,这是一种可以欺骗神经网络,让图像识别 AI 系统出错的技术,是近期计算机视觉,以及机器学习领域的热门研究方向。2 X5 h4 f" Q K. t
1 d7 d5 W l5 t) r% D
在这篇论文中,研究者们提出了一种全新且易于复现的技术 AdvHat,可以在多种不同的拍摄条件下攻击目前最强的公共 Face ID 系统。想要实现这种攻击并不需要复杂的设备——只需在彩色打印机上打印特定的对抗样本,并将其贴到你的帽子上,而对抗样本的制作采用了全新的算法,可在非平面的条件下保持有效。
. w: c( }0 q6 ^: B s0 u) Y4 E* r( g
研究人员称,这种方法已经成功地破解了目前最先进的 Face ID 模型 LResNet100E-IR、ArcFace@ms1m-refine-v2,其攻击方式也可以迁移到其他 Face ID 模型上。$ g+ y% u9 ?, c, `) J1 F
+ ?* E; M& x. k现实 Face ID 也能被攻击
: G$ a" ` C- e- K, C) }) R: y V: c- D0 ?( r. X7 v% X/ i" e
以前对抗攻击主要体现在虚拟世界中,我们可以用电子版的对抗样本欺骗各种识别系统,例如通用的图像识别或更细致的人脸识别等。但这些攻击有一些问题,例如人脸识别攻击只能是在线的识别 API,将对抗样本打印出来也不能欺骗真实系统。- f: r# P/ K. y. [$ W4 C' k
; n' b- b; |1 s2 |1 T
# G$ u/ x% {% j) J3 w一个标准的线上人脸对抗样本,它只能攻击线上人脸识别模型或 API,无法用于线下的真实人脸识别场景。- R4 y. y$ h9 ], @% ~
, y! ^; T+ {. r6 K( z对抗样本的这种局限性,很大程度在于真实识别系统不止有人脸识别模块,还有活体检测等其它处理模块。只要活体检测判断对抗样本不是真人,那么它自然就失去了效果。因此,很多研究者在思考,我们能不能将对抗信息打印出来,贴在脸上或头上某个位置,那么这不就能攻击真实的人脸识别了么。甚至,我们可以把对抗信息嵌入到帽子或其它饰品内,这样不会更方便么。
' ?; P0 H, p$ w# C
7 Q$ O6 e1 O3 R1 b沿着这样的思路,华为莫斯科研究中心的两位研究者就创造了这样的对抗样本。他们表示在以前 Face ID 模型还需要大量的私有数据,而随着大规模公开数据的发布,ArcFace 等研究模型也能与微软或谷歌的模型相媲美。如果他们的对抗样本能攻击到 ArcFace,那么差不多就能攻击业务模型。
9 Z( z7 D& D2 j1 h5 j* b' `) d' ~1 @3 D. z: [/ L' h1 y. z
研究者表示他们提出的 AdvHat 有如下特点:
5 \6 j" P# D+ ^& P& S {+ b& @* h
/ f& M+ R8 M D3 {- AdvHat 是一种现实世界的对抗样本,只要在帽子加上这种「贴纸」,那么就能攻击顶尖的公开 Face ID 系统;' h/ B' d6 ?0 A9 m4 @
- 这种攻击是非常容易实现的,只要有彩印就行; U" G o6 e. @. ?7 t0 B
- 该攻击在各种识别环境下都能起作用,包括光照、角度和远近等;. ?! U c2 h0 ]" R
- 这种攻击可以迁移到其它 Face ID 系统上。
" f- ]6 \3 I- G& R2 M+ ^! _
) `! D, ^: Z* ~# `: Z& h' v8 L8 y" [( a5 @: }& {
Face ID 该怎样攻击$ C+ [3 Q R. s. W% G
% g% e5 P! L! y9 W% d6 a在 Face ID 系统的真实应用场景中,并非捕获到的每张人脸都是已知的,因此 top-1 类的预测相似度必须超过一些预定义的阈值,才能识别出人脸。
7 O( d8 n0 r" u2 J! ]0 [0 n% i+ w# B x* s6 V
这篇论文的目的是创造一个可以粘贴在帽子上的矩形图像,以诱导 Face ID 系统将人脸与 ground truth 相似度降到决策阈值之下。' U- m. u' o8 K! F; i9 ^( ]2 A
- g. b# C9 k8 |: J! ~2 C这种攻击大概包含以下流程:( X: f" O" B5 b& C! A1 |% J
; ]: U4 d. {; l. f+ ?% {4 B
! N4 r4 m3 m! s3 e& F0 m% @# r) x- 将平面贴纸进行转换以凸显三维信息,转换结果模拟矩形图像放在帽子上后的形状。* h$ A. j& K( J! y
- 为了提高攻击的鲁棒性,研究者将得到的图像投影到高质量人脸图像上,投影参数中含有轻微的扰动。
$ ?- R4 h+ `# K - 将得到的图像转换为 ArcFace 输入的标准模板。6 e% |8 u1 D: r C
- 降低初始矩形图像的 TV 损失以及余弦相似度损失之和,其中相似性是原图嵌入向量与 ArcFace 算出嵌入向量之间的距离。
' C k8 ^" Y! v( P. i . d0 @- Y' s2 ]; c: C) E
8 I, n: R6 |; g+ j流程图如下图 2 所示:2 v* J! F5 n5 W" G7 M. D8 b
6 M7 ~9 m. K& }( e+ ^ o
4 S" y$ T& m$ r8 w: S图 2:攻击流程示意图。
+ y6 w7 }- O9 w" m0 B. j& ]% N2 C" e* i/ _% e3 v' V% T
首先,研究者将贴纸重塑成真实大小和外观的图像,之后将其添加到人脸图像上,然后再使用略为不同的转换参数将图像转换为 ArcFace 输入模板,最后将模板输入到 ArcFace 中。由此评估余弦相似度和 TV 损失,这样就可以得到用于改进贴纸图像的梯度信号。
2 g |' |1 @0 Q8 `+ R0 u8 B+ E9 I3 ^8 V; u$ b
. Z8 t5 Y" _2 b
图 3:步骤 1 转换贴纸的示意图。
/ Q1 W6 X4 F' _: o- U3 C$ J; t
9 i' d0 I3 O C2 v9 s贴纸攻击试验细节
% }! K+ R( `) L) b, a" W: k6 q4 `: c* h5 ]
如前所言,在将图像输入到 ArcFace 之前,研究者对其进行了随机修改。他们构造了一批生成图像,并通过整个流程计算在初始贴纸上的平均梯度。可以用一种简单的方法计算梯度,因为每个变换都是可微分的。0 ?6 z) J! |# h% F+ q% e
% y2 a) H9 ~( w注意,在每一次迭代中,批中的每一个图像上的贴纸都是相同的,只有转换参数是不同的。此外,研究者使用了带有动量的 Iterative FGSM 以及在实验中非常有效的几个启发式方法。! T+ g0 N7 a6 K x& @, c
( c' Y; \; _' y2 ?2 i% N
研究者将攻击分为两个阶段。在第一阶段,研究者使用了 5255 的步长值和 0.9 的动量;在第二阶段,研究者使用了 1255 的步长值和 0.995 的动量。TV 损失的权重一直为 1e − 4。
0 r z; k' [* m6 A+ r0 @
% n: G/ a+ Y7 K9 B. A) e研究者利用一张带有贴纸的固定图像进行验证,其中他们将所有参数都设置为看起来最真实的值。& c" I2 H" g4 d0 ]: j
' y7 ~0 `+ P/ z0 K他们使用了最小二乘法法,并通过线性函数来插入最后 100 个验证值:经历了第一阶段的 100 次迭代和第二阶段的 200 次迭代。如果线性函数的角系数不小于 0,则:1)从第一阶段过渡到第二阶段的攻击;2)在第二阶段停止攻击。* `* v, ^" B! T6 |
$ L; {4 R1 ^6 O- h9 ]1 e
「对抗样本贴」效果怎么样% g$ h9 e. J1 |' V
( y+ ]6 p" [9 f研究者在实验中使用一张 400×900 像素的图像作为贴纸图像,接着将这张贴纸图像投射到 600×600 像素的人脸图像上,然后再将其转换成 112×112 像素的图像。
% v3 U$ q! C- i5 M/ d! y/ u6 l' O# t" h7 B0 t
为了找出最适合贴纸的位置,研究者针对贴纸定位进行了两次实验。首先,他们利用粘贴在 eyez 线上方不同高度的贴纸来攻击数字域中的图像。然后,他们根据空间 transformer 层参数的梯度值,在每次迭代后变更贴纸的位置。: _/ N6 s: y- R, f& d
9 ?0 Q# h" g) o e下图 4 展示了典型对抗贴纸的一些示例。看起来就像是模特在贴纸上画了挑起的眉毛。
% C% U. ?' q# H0 Y1 ^' x
( m( p% n& }9 _ ! p4 h& w7 R% \0 u' k+ n, r/ ~
图 4:对抗贴纸示例。
6 P7 q* T& m* |, d4 r( T3 r1 B8 e& q; w! W6 B+ \
为了检测 AdvHat 方法在不同拍摄条件下的鲁棒性,研究者为最开始 10 个人中的 4 人另拍了 11 张照片。拍摄条件示例如下图 6 所示:4 k0 J5 v& d: ]
% E. o; _/ i' p& p! D. Z
3 ^6 c# y1 u# _
图 6:研究者为一些人另拍了 11 张照片,以检测不同拍摄条件下的攻击效果。
0 A. @$ J" I) v# K# v, A" O3 m3 p8 {2 A5 o
检测结果如下图 7 所示:虽然最终相似度增加了,但攻击依然有效。
0 z- _- W3 \* d% _. N4 r2 t% I. Q, L0 {! r6 g4 y

5 W6 u( O9 @2 m$ b4 s图 7:各种拍摄条件下的基线和最终相似度。图中不同颜色的圆点代表不同的人。圆表示对抗攻击下的相似性,而 x 表示基线条件下的相似性。$ o+ D. {8 E2 ?5 Q
) w3 G* a C O$ y- R. a6 H. Y
最后,研究人员检验了该方法对于其他 Face ID 模型的攻击效果。他们选取了 InsightFace Model Zoo 中的一些人脸识别方法。在每个模型上均测试了 10 个不同的人。
" D" a9 m0 E7 [7 L4 C j9 O; {: E! t
8 Q6 A7 V( K0 P/ K7 I* `# A4 m/ v 7 h5 f+ Z6 X) {2 I) ?$ e
图 8:不同模型中,基线和最终相似度的差异。
& g" ?/ S' N6 \5 i, m* ]# E7 f7 Z/ T9 v3 ^( I
虽然 AdvHat 生成的对抗样本很简单,但这种攻击方式看起来已适用于大多数基于摄像头的人脸识别系统。看来想要不被人「冒名顶替」,我们还是需要回到虹膜识别?) w0 R- K! _$ D5 X" x" ]
& E2 a0 H1 T* Z. A2 }" W% k本文为机器之心报道,转载请联系本公众号获得授权。% P+ Y8 C; v$ P8 L
✄------------------------------------------------加入机器之心(全职记者 / 实习生):hr@jiqizhixin.com投稿或寻求报道:content@jiqizhixin.com广告 & 商务合作:bd@jiqizhixin.com* T, e( J- O! ^9 F& I
来源:http://mp.weixin.qq.com/s?src=11×tamp=1566896404&ver=1815&signature=*oejD6KZNIeFBedjGfko-HVWxUK5JqJymcLMEI2vQKpnGBbeLDP70080UA4XKxKdpIqy8GtZ8Ak8dD6y3mZXTrdi2HDgNe5e17ZDjbih8ZOWHLwlikFYQ99AEVxcEl0F&new=15 v. |. ]( }9 D! L# N( `. ^# m, K" |& c
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作! |
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
×
|