京东6.18大促主会场领京享红包更优惠

 找回密码
 立即注册

QQ登录

只需一步,快速开始

查看: 9204|回复: 0

一张贴纸破解顶级FaceID,华为新研究让人脸识别不再安全

[复制链接]

10

主题

0

回帖

10

积分

新手上路

积分
10
发表于 2019-8-27 17:22:37 | 显示全部楼层 |阅读模式 来自 中国
机器之心报道
1 l5 T  [! h9 c& v
机器之心编辑部
用来刷脸解锁的 Face ID 也可以被「对抗样本」攻击了。最近,来自莫斯科国立大学、华为莫斯科研究中心的研究者们找到的新型攻击方法,让已经广泛用于手机、门禁和支付上的人脸识别系统突然变得不再靠谱。! d( z" c( `. M
在这一新研究中,科学家们只需用普通打印机打出一张带有图案的纸条贴在脑门上,就能让目前业内性能领先的公开 Face ID 系统识别出错,这是首次有 AI 算法可以在现实世界中实现攻击:; M3 \, `' p5 @

7 F4 Z. u7 |7 X$ t+ R/ ~

9 i3 ^3 M5 ]# I9 }" ?AI 人脸识别系统在正常情况下的分类效果,它识别出了特定的人:Person_1。1 O. \! M) _1 o4 t/ ~3 a9 w
# K# B# A& ]5 J! o2 \

5 K; p, x" w6 o) M+ f贴上纸条以后,即使没有遮住脸,系统也会把 Person_1 识别成另外一些人「0000663」和「0000268」等。
  V4 `6 x$ j: t! h3 ?5 c. f$ f1 t( C" O4 \, m; l
# t% O- q9 `) q, Q1 g) \; Q
变换角度、改变光照条件都不会改变错误的识别效果。加了贴纸后,我们可以看到 Person_1 的概率非常低。3 J+ t7 R4 g/ N* u, v! L

6 I, z! y# z! q1 U使用对抗样本攻击图像识别系统,在人工智能领域里已经不算什么新鲜事了,但是想要在现实世界里做到无差别攻击,还是人脸识别这种数千万人都在使用的应用技术,这就显得有些可怕了。使用这种新方法,人们可以轻松地打印一个破解纸条贴在脑门上,随后让 AI 识别的准确率显著下降。5 z/ w- ?9 h0 T4 H  n* B; I
! A/ P: S/ q8 Y& e( D& E& ~) L
从上面的动图可以看出,研究者实现的是非定向的攻击,且对抗信息都集成在贴纸上。那么如果我们要找到一种定向的攻击方式,让系统将我们识别为特定的某个人,然后解锁 ta 的手机,这也并不遥远,只要我们将以前定向攻击的方式迁移到贴纸上就行了。. N# N/ O& v. H( J' f

3 `# w: Y- u) b- ^研究人员不仅发布了论文:https://arxiv.org/abs/1908.08705, ~$ u1 s- y: S
8 r; M: N3 N3 q
更是直接公开了项目的代码:https://github.com/papermsucode/advhat
0 V6 W! B/ Y1 v( I4 ^- u, T! o
0 T: w9 s' G- R# P9 Y$ m+ R4 n1 E「对抗样本」是人工智能的软肋,这是一种可以欺骗神经网络,让图像识别 AI 系统出错的技术,是近期计算机视觉,以及机器学习领域的热门研究方向。
9 _' ~$ A) z; Q' }7 ?5 L3 w
5 D) `# e7 u1 s' @, V4 x; {. [! i在这篇论文中,研究者们提出了一种全新且易于复现的技术 AdvHat,可以在多种不同的拍摄条件下攻击目前最强的公共 Face ID 系统。想要实现这种攻击并不需要复杂的设备——只需在彩色打印机上打印特定的对抗样本,并将其贴到你的帽子上,而对抗样本的制作采用了全新的算法,可在非平面的条件下保持有效。
0 r6 ]% s; [, u' e1 O
8 e. f' V  v4 F  I6 a6 }5 {- j研究人员称,这种方法已经成功地破解了目前最先进的 Face ID 模型 LResNet100E-IR、ArcFace@ms1m-refine-v2,其攻击方式也可以迁移到其他 Face ID 模型上。; N8 M' s3 T2 v$ B- s) c
6 a, c/ E, d( Z
现实 Face ID 也能被攻击
' ^0 p+ F" Z; Q- n# {& n. z) h5 b8 V2 c
以前对抗攻击主要体现在虚拟世界中,我们可以用电子版的对抗样本欺骗各种识别系统,例如通用的图像识别或更细致的人脸识别等。但这些攻击有一些问题,例如人脸识别攻击只能是在线的识别 API,将对抗样本打印出来也不能欺骗真实系统。
$ h' I1 x4 R" R; A* b2 k: E* z& ^! j$ f( ~1 D! N
' u3 {  P  _/ @( ?5 d
一个标准的线上人脸对抗样本,它只能攻击线上人脸识别模型或 API,无法用于线下的真实人脸识别场景。. i: T! F2 n7 i  {) k8 k7 m# b

0 C/ e% d2 D4 \$ v对抗样本的这种局限性,很大程度在于真实识别系统不止有人脸识别模块,还有活体检测等其它处理模块。只要活体检测判断对抗样本不是真人,那么它自然就失去了效果。因此,很多研究者在思考,我们能不能将对抗信息打印出来,贴在脸上或头上某个位置,那么这不就能攻击真实的人脸识别了么。甚至,我们可以把对抗信息嵌入到帽子或其它饰品内,这样不会更方便么。2 L. J! J0 e9 a

2 v2 _6 ?5 y+ F0 g沿着这样的思路,华为莫斯科研究中心的两位研究者就创造了这样的对抗样本。他们表示在以前 Face ID 模型还需要大量的私有数据,而随着大规模公开数据的发布,ArcFace 等研究模型也能与微软或谷歌的模型相媲美。如果他们的对抗样本能攻击到 ArcFace,那么差不多就能攻击业务模型。: x0 ]" S8 @" [4 L+ i+ Y) i
9 W; O6 O; x" I5 X4 y8 l
研究者表示他们提出的 AdvHat 有如下特点:
$ @& R! O: G& q. D+ g5 f0 q$ i8 d8 P! O
    $ a9 `8 P$ s# `0 i
  • AdvHat 是一种现实世界的对抗样本,只要在帽子加上这种「贴纸」,那么就能攻击顶尖的公开 Face ID 系统;9 h! Y2 }0 E. t" ~. @
  • 这种攻击是非常容易实现的,只要有彩印就行;
    9 z% y, E" _: K7 S
  • 该攻击在各种识别环境下都能起作用,包括光照、角度和远近等;  G& {# T/ }2 S0 P
  • 这种攻击可以迁移到其它 Face ID 系统上。
    2 L' b4 ~0 U9 g! H& z
2 n1 h4 {! R/ i" F$ N. h% F2 ~

4 y7 }: M' }; J! F4 Q. i' vFace ID 该怎样攻击
4 M# |+ V4 K3 R8 h  I; X% K6 w
3 ]3 s" `5 b9 i: B) w在 Face ID 系统的真实应用场景中,并非捕获到的每张人脸都是已知的,因此 top-1 类的预测相似度必须超过一些预定义的阈值,才能识别出人脸。
$ ]" y+ D) T; S4 _1 @; k! }" @: V; D6 p+ j6 L
这篇论文的目的是创造一个可以粘贴在帽子上的矩形图像,以诱导 Face ID 系统将人脸与 ground truth 相似度降到决策阈值之下。2 ^* `7 R5 S9 k8 L' h4 r9 C& P( l) ]

/ A# r% [% h5 O0 k这种攻击大概包含以下流程:9 d% K* v9 ^' P6 x! @4 d5 ?$ e3 {

+ @0 ^, j, \% N5 N

    $ Y' l' U; {" ~# W8 n; R
  • 将平面贴纸进行转换以凸显三维信息,转换结果模拟矩形图像放在帽子上后的形状。# Q6 `; V% J$ W9 Z
  • 为了提高攻击的鲁棒性,研究者将得到的图像投影到高质量人脸图像上,投影参数中含有轻微的扰动。: ]7 g& t9 v6 q" L0 C, g- ]
  • 将得到的图像转换为 ArcFace 输入的标准模板。
    2 I  c- H# j$ D; V" K" o
  • 降低初始矩形图像的 TV 损失以及余弦相似度损失之和,其中相似性是原图嵌入向量与 ArcFace 算出嵌入向量之间的距离。
    9 @: X4 }+ ~6 ~5 E0 I
6 ?  C8 a' L( |- Z
8 m* g- D# v7 _' H2 f' t
流程图如下图 2 所示:  q( a9 o: V, x# v' v4 w* [- F
! b0 a7 c! z1 P4 D8 }$ _4 }" I  u! k  z

6 T. l! z7 J6 n, {9 {图 2:攻击流程示意图。
( g2 B9 h8 c8 q7 r' }$ m5 g# `1 }4 [7 m
首先,研究者将贴纸重塑成真实大小和外观的图像,之后将其添加到人脸图像上,然后再使用略为不同的转换参数将图像转换为 ArcFace 输入模板,最后将模板输入到 ArcFace 中。由此评估余弦相似度和 TV 损失,这样就可以得到用于改进贴纸图像的梯度信号。' Q% U7 _8 |: ]* V3 L& Y
" {/ R3 p5 E2 V% g( |' r. z

* F) Z7 l. ^: p* z  v图 3:步骤 1 转换贴纸的示意图。/ q5 ~1 P8 t0 o0 G3 q

4 e9 k2 d1 O5 P& K: w% G& R贴纸攻击试验细节4 e! w6 ~' A- O

! A/ C9 q0 ]4 p" T4 g! k' G9 [0 s6 J如前所言,在将图像输入到 ArcFace 之前,研究者对其进行了随机修改。他们构造了一批生成图像,并通过整个流程计算在初始贴纸上的平均梯度。可以用一种简单的方法计算梯度,因为每个变换都是可微分的。9 e+ t* o7 Z( H7 c& ~' _" ]

1 y1 j- x$ T' H. e; l注意,在每一次迭代中,批中的每一个图像上的贴纸都是相同的,只有转换参数是不同的。此外,研究者使用了带有动量的 Iterative FGSM 以及在实验中非常有效的几个启发式方法。
+ X) i; ~+ J/ c, q7 h* \% v3 z1 t* Z+ E; h
研究者将攻击分为两个阶段。在第一阶段,研究者使用了 5255 的步长值和 0.9 的动量;在第二阶段,研究者使用了 1255 的步长值和 0.995 的动量。TV 损失的权重一直为 1e − 4。. ^! Z" }8 h$ z& |

  i1 P4 C$ C$ U8 b! d研究者利用一张带有贴纸的固定图像进行验证,其中他们将所有参数都设置为看起来最真实的值。  `. T* }, m7 u& X. Z
( b7 ^/ l3 X2 y* U4 s  _
他们使用了最小二乘法法,并通过线性函数来插入最后 100 个验证值:经历了第一阶段的 100 次迭代和第二阶段的 200 次迭代。如果线性函数的角系数不小于 0,则:1)从第一阶段过渡到第二阶段的攻击;2)在第二阶段停止攻击。
9 b3 C- }3 S4 y3 Q* w
6 t" s7 x; l0 M% s) J( o「对抗样本贴」效果怎么样
- a" s( q% t; W! O2 s% ]$ W0 ~
* b, H( w/ I. i+ J. _9 D. C研究者在实验中使用一张 400×900 像素的图像作为贴纸图像,接着将这张贴纸图像投射到 600×600 像素的人脸图像上,然后再将其转换成 112×112 像素的图像。
: [  i% @% T! {" K& r: t, L" P
* ~. P- r9 r% D# Y* h9 Y为了找出最适合贴纸的位置,研究者针对贴纸定位进行了两次实验。首先,他们利用粘贴在 eyez 线上方不同高度的贴纸来攻击数字域中的图像。然后,他们根据空间 transformer 层参数的梯度值,在每次迭代后变更贴纸的位置。
" B% W7 p* S# g1 O+ U5 i  ~9 m& r8 i5 q6 z! ~( E; T0 x9 Y4 F
下图 4 展示了典型对抗贴纸的一些示例。看起来就像是模特在贴纸上画了挑起的眉毛。
7 @+ o! x* I) S5 p& K& k" n0 J
4 F( j  _* L# A; b9 _
* h! t( F/ t7 F5 S* T& P/ H! c图 4:对抗贴纸示例。
7 R/ Q4 }# T2 y  M% Z$ O
, n) J9 j+ M: t- ~1 Y5 Y为了检测 AdvHat 方法在不同拍摄条件下的鲁棒性,研究者为最开始 10 个人中的 4 人另拍了 11 张照片。拍摄条件示例如下图 6 所示:" y* R& \4 S$ [2 n* \6 ~. P* h# H
& q" m/ ~* m( p0 Q1 q

( ?1 Q, W+ D/ B9 @2 ]5 N7 k图 6:研究者为一些人另拍了 11 张照片,以检测不同拍摄条件下的攻击效果。; u6 ^) g4 o$ d; d0 v5 D" W
- C  t/ G; b0 h7 X' ]
检测结果如下图 7 所示:虽然最终相似度增加了,但攻击依然有效。
0 U1 h7 n) G: S4 Q1 Y/ j) f4 V* B( g0 X) a- O. l
6 g" \% b; y2 C0 Q# E& R% r! _% i" t
图 7:各种拍摄条件下的基线和最终相似度。图中不同颜色的圆点代表不同的人。圆表示对抗攻击下的相似性,而 x 表示基线条件下的相似性。: K/ Z7 g# [6 R9 @, g
/ o1 V7 @( ^3 X  H6 u
最后,研究人员检验了该方法对于其他 Face ID 模型的攻击效果。他们选取了 InsightFace Model Zoo 中的一些人脸识别方法。在每个模型上均测试了 10 个不同的人。
) N- L# [6 E3 E8 V" B" E1 S# U' p; D. A5 x% a, }. P

. `0 Y/ j: O- `; {; c8 ~图 8:不同模型中,基线和最终相似度的差异。
5 x' v  _# T5 o/ j( @3 C1 {
1 T3 ?- _& m% U& J7 H虽然 AdvHat 生成的对抗样本很简单,但这种攻击方式看起来已适用于大多数基于摄像头的人脸识别系统。看来想要不被人「冒名顶替」,我们还是需要回到虹膜识别?& o. x! \$ n3 n& q0 Y

4 V4 f, ^( O$ X文为机器之心报道,转载请联系本公众号获得授权
; I4 [7 x* Y: u7 {. |. ]5 N# s✄------------------------------------------------加入机器之心(全职记者 / 实习生):hr@jiqizhixin.com投稿或寻求报道:content@jiqizhixin.com广告 & 商务合作:bd@jiqizhixin.com
& U! K& c8 Y5 {- L2 o! N* O. L2 d来源:http://mp.weixin.qq.com/s?src=11&timestamp=1566896404&ver=1815&signature=*oejD6KZNIeFBedjGfko-HVWxUK5JqJymcLMEI2vQKpnGBbeLDP70080UA4XKxKdpIqy8GtZ8Ak8dD6y3mZXTrdi2HDgNe5e17ZDjbih8ZOWHLwlikFYQ99AEVxcEl0F&new=1
4 N- C9 Q: z8 t$ S/ G免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

×

帖子地址: 

梦想之都-俊月星空 优酷自频道欢迎您 http://i.youku.com/zhaojun917
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ|手机版|小黑屋|梦想之都-俊月星空 ( 粤ICP备18056059号 )|网站地图

GMT+8, 2026-3-16 01:45 , Processed in 0.042778 second(s), 26 queries .

Powered by Mxzdjyxk! X3.5

© 2001-2026 Discuz! Team.

快速回复 返回顶部 返回列表