|
机器之心报道 8 f5 q- \; L& P5 E, l
机器之心编辑部用来刷脸解锁的 Face ID 也可以被「对抗样本」攻击了。最近,来自莫斯科国立大学、华为莫斯科研究中心的研究者们找到的新型攻击方法,让已经广泛用于手机、门禁和支付上的人脸识别系统突然变得不再靠谱。! T a7 Q/ O4 D
在这一新研究中,科学家们只需用普通打印机打出一张带有图案的纸条贴在脑门上,就能让目前业内性能领先的公开 Face ID 系统识别出错,这是首次有 AI 算法可以在现实世界中实现攻击:
7 U. I3 t$ ^" s* {( F `
- W C: q- x( ?$ K
" @0 i2 L) ?4 J9 |+ \) q* z0 p5 NAI 人脸识别系统在正常情况下的分类效果,它识别出了特定的人:Person_1。
- }/ o% G4 l/ Z- g" H
+ `. V3 ~0 w$ `: U6 B# V! f7 O) d( |9 I
贴上纸条以后,即使没有遮住脸,系统也会把 Person_1 识别成另外一些人「0000663」和「0000268」等。6 Z" q+ T7 Q* X
2 T0 M- u" v `" _2 r9 V- U
* ~& `* F5 {$ m) L: q, L变换角度、改变光照条件都不会改变错误的识别效果。加了贴纸后,我们可以看到 Person_1 的概率非常低。+ P) V" g8 x' g
1 ?* Z. w7 n) B. [3 a
使用对抗样本攻击图像识别系统,在人工智能领域里已经不算什么新鲜事了,但是想要在现实世界里做到无差别攻击,还是人脸识别这种数千万人都在使用的应用技术,这就显得有些可怕了。使用这种新方法,人们可以轻松地打印一个破解纸条贴在脑门上,随后让 AI 识别的准确率显著下降。
6 Y0 M- O4 `- z- s' {# j2 c1 s0 J. F8 [" j" N- O* z" m& i' e
从上面的动图可以看出,研究者实现的是非定向的攻击,且对抗信息都集成在贴纸上。那么如果我们要找到一种定向的攻击方式,让系统将我们识别为特定的某个人,然后解锁 ta 的手机,这也并不遥远,只要我们将以前定向攻击的方式迁移到贴纸上就行了。; I7 K8 ? q7 l& V, R" u& x
$ t Q4 X, ~6 N9 T8 R8 f
研究人员不仅发布了论文:https://arxiv.org/abs/1908.087051 h% z& b( `1 {
7 |: m" D( C T3 I1 V$ Y K
更是直接公开了项目的代码:https://github.com/papermsucode/advhat
9 M: U) n+ o. V6 E6 \' K* B/ O% e: |: U4 Z- z" f7 z% g
「对抗样本」是人工智能的软肋,这是一种可以欺骗神经网络,让图像识别 AI 系统出错的技术,是近期计算机视觉,以及机器学习领域的热门研究方向。; P; J4 V. M7 N7 Q
# Y0 y5 c8 {. u9 t. x在这篇论文中,研究者们提出了一种全新且易于复现的技术 AdvHat,可以在多种不同的拍摄条件下攻击目前最强的公共 Face ID 系统。想要实现这种攻击并不需要复杂的设备——只需在彩色打印机上打印特定的对抗样本,并将其贴到你的帽子上,而对抗样本的制作采用了全新的算法,可在非平面的条件下保持有效。
1 y. Q: g, R1 B; a$ E4 ^+ j& F/ {7 w7 m: T5 }
研究人员称,这种方法已经成功地破解了目前最先进的 Face ID 模型 LResNet100E-IR、ArcFace@ms1m-refine-v2,其攻击方式也可以迁移到其他 Face ID 模型上。
5 d; W6 M8 L1 ^1 t9 z
7 J$ v8 `4 z) Q$ f现实 Face ID 也能被攻击
& G% [0 r( Y' Q t/ l. C, K+ W: n0 \2 S5 Z( p4 ?3 }
以前对抗攻击主要体现在虚拟世界中,我们可以用电子版的对抗样本欺骗各种识别系统,例如通用的图像识别或更细致的人脸识别等。但这些攻击有一些问题,例如人脸识别攻击只能是在线的识别 API,将对抗样本打印出来也不能欺骗真实系统。
x6 c& ], S' m0 A5 T( A2 h% d6 O- x' b6 s# d# b2 H

! O( O3 K! ~$ c8 _# `一个标准的线上人脸对抗样本,它只能攻击线上人脸识别模型或 API,无法用于线下的真实人脸识别场景。
, V( t+ _. z' t: n6 t* ?9 R& F4 m8 J* v: O) K* |4 u5 @
对抗样本的这种局限性,很大程度在于真实识别系统不止有人脸识别模块,还有活体检测等其它处理模块。只要活体检测判断对抗样本不是真人,那么它自然就失去了效果。因此,很多研究者在思考,我们能不能将对抗信息打印出来,贴在脸上或头上某个位置,那么这不就能攻击真实的人脸识别了么。甚至,我们可以把对抗信息嵌入到帽子或其它饰品内,这样不会更方便么。
7 ~; k( D) u% k: E0 m0 h0 {& w0 C/ \8 p, _# \
沿着这样的思路,华为莫斯科研究中心的两位研究者就创造了这样的对抗样本。他们表示在以前 Face ID 模型还需要大量的私有数据,而随着大规模公开数据的发布,ArcFace 等研究模型也能与微软或谷歌的模型相媲美。如果他们的对抗样本能攻击到 ArcFace,那么差不多就能攻击业务模型。
4 ~ F" q4 z) B1 o- Z7 ]( W1 F% ^. g+ Q: t
研究者表示他们提出的 AdvHat 有如下特点:
* ?: ^( E1 T% a1 [$ r5 j B/ w: B& q+ I! q' b* g
& E' f1 \4 r5 X; k- AdvHat 是一种现实世界的对抗样本,只要在帽子加上这种「贴纸」,那么就能攻击顶尖的公开 Face ID 系统;6 u+ Q4 |) b5 K5 _8 N
- 这种攻击是非常容易实现的,只要有彩印就行;
' @, s) J" ~. z6 [5 S* [. Q - 该攻击在各种识别环境下都能起作用,包括光照、角度和远近等;
+ k4 q0 K3 ^1 {- A; v - 这种攻击可以迁移到其它 Face ID 系统上。
- P, v1 B6 S7 c, ] 2 x) j; g% l2 Q* y* r& X- S* ^
, k. H" B! N1 |1 g- lFace ID 该怎样攻击) o# z q6 a, h# V3 [
8 \! T" h# ], y( D) G: ^
在 Face ID 系统的真实应用场景中,并非捕获到的每张人脸都是已知的,因此 top-1 类的预测相似度必须超过一些预定义的阈值,才能识别出人脸。2 r9 H1 D) u* l0 N j9 t. j
) D Y' s: b0 G5 _1 G9 g& I6 e这篇论文的目的是创造一个可以粘贴在帽子上的矩形图像,以诱导 Face ID 系统将人脸与 ground truth 相似度降到决策阈值之下。 l" S9 h) [: i6 W
3 N& X4 h* ^2 s$ x1 u这种攻击大概包含以下流程:6 |! G8 M: v E' D5 U
& [* |# q7 q% U' `$ z- l/ c6 y) p) P
- 将平面贴纸进行转换以凸显三维信息,转换结果模拟矩形图像放在帽子上后的形状。/ O3 W0 ]2 p# f# m) L8 g8 R
- 为了提高攻击的鲁棒性,研究者将得到的图像投影到高质量人脸图像上,投影参数中含有轻微的扰动。' ], g0 } E: L1 F9 e
- 将得到的图像转换为 ArcFace 输入的标准模板。/ q# X1 ]* h! j+ f6 \8 w7 o
- 降低初始矩形图像的 TV 损失以及余弦相似度损失之和,其中相似性是原图嵌入向量与 ArcFace 算出嵌入向量之间的距离。+ ^% o$ m, R( \* J- _
2 `; d! o3 n V
! {6 O- ^- f9 [" X9 ]# K8 n
流程图如下图 2 所示:
6 R+ X2 G0 p! @% i |7 D' Y5 m% ^
( p* E7 D- D/ W- e$ c; O , y$ q# i }% g
图 2:攻击流程示意图。) B7 M# A% f) v4 ?
" U" D0 {3 z- B. R9 V& `* [8 t# Y
首先,研究者将贴纸重塑成真实大小和外观的图像,之后将其添加到人脸图像上,然后再使用略为不同的转换参数将图像转换为 ArcFace 输入模板,最后将模板输入到 ArcFace 中。由此评估余弦相似度和 TV 损失,这样就可以得到用于改进贴纸图像的梯度信号。
/ L m+ V( H1 n. ~6 |4 r% |5 b, `) B; [$ j* d n$ T
: i' ?- e# U- z+ y9 Y1 u4 [0 X q5 J
图 3:步骤 1 转换贴纸的示意图。2 t- ^1 }# W' r; `' b( d& ~
: z0 q6 N1 c$ t+ a! n4 h
贴纸攻击试验细节% N4 s6 Q4 }: M5 o. m0 w" ~
1 g7 v. v: }, _4 o: d如前所言,在将图像输入到 ArcFace 之前,研究者对其进行了随机修改。他们构造了一批生成图像,并通过整个流程计算在初始贴纸上的平均梯度。可以用一种简单的方法计算梯度,因为每个变换都是可微分的。8 W& M m' I) H' o
3 X2 z* b" }' \/ V
注意,在每一次迭代中,批中的每一个图像上的贴纸都是相同的,只有转换参数是不同的。此外,研究者使用了带有动量的 Iterative FGSM 以及在实验中非常有效的几个启发式方法。, @- ]9 Q: S) E* }( M9 a+ ^+ l
4 h# D4 Q- s9 i; {* L1 f0 b2 `4 o
研究者将攻击分为两个阶段。在第一阶段,研究者使用了 5255 的步长值和 0.9 的动量;在第二阶段,研究者使用了 1255 的步长值和 0.995 的动量。TV 损失的权重一直为 1e − 4。
, `2 ?* r7 p* D) F( c
- P6 K4 M8 [3 ]5 D" d7 O# Y研究者利用一张带有贴纸的固定图像进行验证,其中他们将所有参数都设置为看起来最真实的值。
5 F# {5 B% A7 Y9 d0 ]# F
% H f# e) K5 s) D2 h" T他们使用了最小二乘法法,并通过线性函数来插入最后 100 个验证值:经历了第一阶段的 100 次迭代和第二阶段的 200 次迭代。如果线性函数的角系数不小于 0,则:1)从第一阶段过渡到第二阶段的攻击;2)在第二阶段停止攻击。
* Y9 P3 k6 t) j, j# V; ?5 A
/ P( n' L* ~# c% s, s「对抗样本贴」效果怎么样
0 `0 m2 s8 `0 v- n& a& e' ?) j5 N# u4 p$ F9 A7 i$ e
研究者在实验中使用一张 400×900 像素的图像作为贴纸图像,接着将这张贴纸图像投射到 600×600 像素的人脸图像上,然后再将其转换成 112×112 像素的图像。! N+ D0 B) \- z# J/ t V6 U6 i
. K n0 s& d/ ?为了找出最适合贴纸的位置,研究者针对贴纸定位进行了两次实验。首先,他们利用粘贴在 eyez 线上方不同高度的贴纸来攻击数字域中的图像。然后,他们根据空间 transformer 层参数的梯度值,在每次迭代后变更贴纸的位置。
" M' ^' b, k& m4 J# D
) ?; J% N. a: J" \, _6 B' W下图 4 展示了典型对抗贴纸的一些示例。看起来就像是模特在贴纸上画了挑起的眉毛。% A/ [2 ?9 T# E8 ^
$ A2 Z! m" q, o) u6 |& ~
5 J+ } f |% ~+ j图 4:对抗贴纸示例。
5 c9 D( X0 a, Q. w: z$ s
3 X. P9 d( _2 Q: \# p- \, U为了检测 AdvHat 方法在不同拍摄条件下的鲁棒性,研究者为最开始 10 个人中的 4 人另拍了 11 张照片。拍摄条件示例如下图 6 所示:
6 F4 W* p+ r7 }- | ]( y6 L% @
: x. T: X7 \6 Z0 n% D* j% T
) t. F0 S$ F" C$ j) i图 6:研究者为一些人另拍了 11 张照片,以检测不同拍摄条件下的攻击效果。" ?$ F6 @4 B9 M
- s* X1 U0 r7 J( y: y5 R$ f检测结果如下图 7 所示:虽然最终相似度增加了,但攻击依然有效。2 F1 V. c% r$ c8 l ^: f. O; B) ?1 V
1 p4 ~, W! t8 q. Y

! b# N" I. ?- |2 n: l图 7:各种拍摄条件下的基线和最终相似度。图中不同颜色的圆点代表不同的人。圆表示对抗攻击下的相似性,而 x 表示基线条件下的相似性。8 y* `+ E4 m5 a' q
, V. k3 ]. t5 F5 d F3 I, N' S
最后,研究人员检验了该方法对于其他 Face ID 模型的攻击效果。他们选取了 InsightFace Model Zoo 中的一些人脸识别方法。在每个模型上均测试了 10 个不同的人。
) q5 Y: _% u& P5 X. c) [) r
4 E4 S7 k, Y5 y8 m9 ^) U4 K0 L5 Z 9 v2 [2 q0 x1 i3 N
图 8:不同模型中,基线和最终相似度的差异。/ @% Z" i8 X! Z0 d
P: F( G# i8 C4 q* ?7 a虽然 AdvHat 生成的对抗样本很简单,但这种攻击方式看起来已适用于大多数基于摄像头的人脸识别系统。看来想要不被人「冒名顶替」,我们还是需要回到虹膜识别?0 [- J' J. F" @9 h, J1 d
+ e7 A2 P: K6 y& Y. @) D* l
本文为机器之心报道,转载请联系本公众号获得授权。8 O& w3 p# ]1 D2 W8 h
✄------------------------------------------------加入机器之心(全职记者 / 实习生):hr@jiqizhixin.com投稿或寻求报道:content@jiqizhixin.com广告 & 商务合作:bd@jiqizhixin.com8 E; [. J c5 P5 P( K
来源:http://mp.weixin.qq.com/s?src=11×tamp=1566896404&ver=1815&signature=*oejD6KZNIeFBedjGfko-HVWxUK5JqJymcLMEI2vQKpnGBbeLDP70080UA4XKxKdpIqy8GtZ8Ak8dD6y3mZXTrdi2HDgNe5e17ZDjbih8ZOWHLwlikFYQ99AEVxcEl0F&new=1
) {% l" I. g# Y' A免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作! |
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
×
|