|
|
0 N3 l( S3 J8 j1 Q' O" }3 ~# P$ Z& H" J. t
新智元报道7 n C2 K( v6 ?$ f- B" [
编辑:编辑部
L/ S4 \0 Z i' O, u3 P【新智元导读】入职谷歌10年后,人工智能教父Hinton选择离职。对于造就了如今AI技术繁荣的神经网络,Hinton表示:这是我毕生的后悔。
; s& x/ m9 G3 g4 @. w一觉醒来,整个科技圈惊掉了下巴!!!+ c3 n- G3 f' A$ H
! @# H1 m1 H \* m* E0 X
深度学习泰斗、神经网络之父Geoffrey Hinton突然宣布离职谷歌。. R( d R( L5 [6 x: v" k
# n, y5 A, U- U
0 U" k% H: j& L9 j
) x7 R3 \9 {% y7 x为了能够自由谈论人工智能风险,而不考虑这对谷歌的影响。 / d$ ]0 r+ v2 D" u; H2 Y* l& T5 U% F) A
纽约时报的报道中,Hinton直接警示世人:注意,前方有危险,前方有危险,前方有危险!7 _# u M+ Y% w2 I
而正是对人工智能风险深深地担忧,让这位深度学习巨佬直言:「我对自己的毕生工作,感到非常后悔。」0 M' u2 s9 }% U* M: e
如今,距离Hinton入职谷歌,刚好十年。8 Q* G2 m& [& S9 n+ c8 x- e& o6 }
* ~) M2 i' q) k
& m/ B" f" d8 N& z/ i% D7 V对于Hinton此举,有人甚至劝说,应该将关注人工智能安全常态化,而不必辞去工作。* G2 E# r; y7 [ q
5 m9 l0 m" \( L: u: s
5 _ e A2 x1 V9 B# m, E
这更应该是你留下来的理由。因为世界是不会停止的,像你这样的伟大人物应该坚持下去,并将人工智能发展的更好。2 n( Z* F! ]3 T, x* I4 R& }4 L; l
1 `. Z q# g% j0 D) j% O- i' h" n# R0 O$ ^5 Z) y" h( [! ~
你应该劝说你的学生Yann LeCun和Ilya Sutskever。( E1 d) F! B0 J( W
值得一提的是,ChatGPT背后真正的英雄正是OpenAI的联合创始人兼首席科学家Ilya。) V4 E/ x- I" J; O* T" Q; ]) d7 R
# {3 w% ~" |$ [4 f+ H1 C; Q
! R9 {* {2 e' B7 }AI「关键时刻」,人类控制不住了7 V" K K: Y- z" }, s5 e
被称为「人工智能教父」的Geoffrey Hinton,一直都是该领域最受尊敬的先驱之一。
% ]+ j; K6 j. i! e) ^/ n
) ?. @7 c: r+ y# g8 g
9 d+ h u( ^; e6 T9 M# T而Hinton提出离职的时间,正是在此之后的4月份。
$ }' `: {: P1 y' P: K% }+ r8 F/ u; s3 x
; Q5 V0 {) j5 K- y0 a从他的推特上可以看出,无论是最近GPT-4等超强AI引发的巨大争议,还是谷歌高层的剧烈动荡,Hinton都始终保持缄默,不发一言。5 w1 x6 C; M2 ^+ ^
许多人关注着这位人工智能教父的态度。
3 ~5 Z& o; D# w, k9 V7 K在CBS的一次采访中,Hinton表示「我们几乎已经让学会计算机如何自我改进了,这很危险,我们必须认真考虑,如何控制它。」2 ~0 h9 U; w* B
6 E) X* D4 O7 O% y+ H) i# c# M
: _$ _/ L5 K1 h& C; ]% o% G3 q# M从人工智能的开创者到末日预言者,Hinton的转变,也标志着科技行业正处于几十年来最重要的一个拐点。
5 u# l& w, f- @5 u2 _8 T6 \先驱的沉痛反思,让我们终于不能再掩耳盗铃,假装没有看见AI可能给人类社会引发的深刻改变和巨大危机了。* F: ^+ ^- e H; E" w
盖茨等许多大佬认为,ChatGPT可能与上世纪90年代初网络浏览器一样重要,并可能在药物研究、教育等领域带来突破。
6 I6 g: g9 m' E r0 S与此同时,令许多业内人士不安的是,他们担心自己所做的研究,正在向外释放某种危险。( Y, D" r# }6 \ s
因为生成式人工智能可能已经成为产生错误信息的工具。并在未来的某个时候,可能会对人类构成威胁。
$ M; U1 B6 ]! f) F/ \4 `2 c `) p) `. U) O( R
_3 E% ^- r! Y$ K5 I3 X" W& ?$ p
在Hinton看来,如何防止坏人利用它做坏事,我们还未能找到方法。) a8 l, |/ [2 P. j/ Y% m- @
在3月底呼吁暂停超强AI六个月的公开信发出几天后,人工智能促进协会的19位领导人也发布了公开信,警告AI的风险。9 D7 @5 F$ ]" H
其中就包括微软的首席科学官Eric Horvitz,而微软已在一系列产品中(包括Bing搜索引擎中)部署了OpenAI的GPT技术。
1 e+ Z- m- V9 W* ~& A2 ^: ~在喧嚣的反对浪潮中,人工智能教父Hinton却并未在这两封信上签名。
$ G$ o) L! M2 n! Q他说,自己在辞去工作之前,并不想公开批评谷歌,或其他公司。
( H7 \, J, v0 ~) t5 m! [忍到上个月,Hinton终于下定决心,通知谷歌自己即将辞职。
3 [8 p6 B! k: i* a: k( W选择离职谷歌后,Hinton终于可以畅所欲言地谈论AI的风险了。
1 X$ V6 Y M/ K, o8 N* |/ g G3 O3 D( G4 M9 A6 ^
我对我的毕生工作,感到十分后悔。 我只能这样安慰自己:即使没有我,也会有别人。
7 x. a; C+ l- }# X% \/ y+ w
) I, o8 X% z+ S" v& n! V( O3 T% ]( m m# }7 X' l
上周四,他与谷歌母公司Alphabet的CEO劈柴(Sundar Pichai)通了电话,但他表示不便透露此次谈话的细节。, X1 d, p3 g! [4 A6 |
作为一家大公司,谷歌对于AI的态度一向保守,甚至保守到,眼睁睁看着自己在聊天AI机器人之战中被甩在后面。
7 F, W$ M* g+ H5 q# [5 I# @8 b早在2015年,谷歌的图像识别AI曾将黑人标记为「大猩猩」,招致的批评让谷歌成为惊弓之鸟。1 _5 D1 y. E- C$ V- k9 s& d
在OpenAI推出Dall-E 2、名震全球之前,谷歌就有类似模型,但并没有发布,因为谷歌认为需要对AI生成的内容负责。: s, P" I9 K2 T; ]9 D, L
而早在2021年,谷歌就已有了类似ChatGPT的LaMDA聊天机器人,但谷歌始终未发布。直到2022年11月底,OpenAI凭ChatGPT占尽风头。
5 B# \; [( m; W! d3 C- t如今,谷歌首席科学家Jeff Dean在一份声明中表示:「我们仍然致力于对人工智能采取负责任的态度,我们正在不断学习了解新出现的风险,同时也在大胆创新。」/ F3 A: c/ J6 `$ B: v" B3 b$ e( g
开启了历史,也见证了历史
% U( J% T( x7 {( e/ ~, \/ N6 ?1972年,Hinton在爱丁堡大学开始了他的研究生生涯。. B$ g" R: y2 S& d* H2 [ R5 O
在那里,他首次开始研究神经网络——一种通过分析数据来学习技能的数学系统。4 n: ?0 V5 V, U; Y2 d
当时,很少有研究人员相信这个观点。但这成了他毕生的心血。
% p) ?: C* [8 b, v! @) i5 P* k' A
) `" \: x: `! E% ^2 h: y4 ?2012年,Hinton和他两名学生Ilya Sutskever和Alex Krishevsky建立了一个神经网络,可以分析数千张照片,并自学识别花、狗和汽车等常见物体。% `. j8 X6 H/ H9 l
神经网络成为他与两名学生共同创建的公司DNNresearch背后的突破性概念,该公司最终在2013年被谷以4400万美元收购。
" O5 z+ B; [9 b! [* P2018年,Geoffrey Hinton、Yann LeCun和Yoshua Bengio一起因对神经网络的研究获得了2018年的图灵奖,而神经网络正是ChatGPT、Bard等聊天机器人背后的奠基性技术。
7 H" o) C9 [! K$ e4 Z$ {7 ] g# ]% S1 [: J" r* v
+ X2 T* ]& p7 E- r而Hinton的学生Ilya Sutskever,也在后来成为OpenAI首席科学家。
2 e& R# i; P% H9 ]8 l/ ]9 x! p1 k6 @- I7 k5 C, H4 ]4 f/ F
M. j! W, t# B, I. g4 T# @大约在同一时间,谷歌、 OpenAI和其他科技公司开始构建从大量数字文本中学习的神经网络。
- T6 y8 o% }5 C6 }那时的Hinton认为,这是机器理解和产生语言的一种强大方式。当然不得不承认,比起人类处理语言的方式没,神经网络还是力不能及。) a/ v& f5 |( u# N. {$ j
2022年,随着谷歌和OpenAI 利用大量数据构建超强AI。
1 b" l; f8 G! G" z) y X1 W5 b0 @Hinton的观点发生了重大转变。他仍然认为这些系统在某些方面不如人类的大脑,但它们在其他方面正在超越人类的智力。. P% X* M6 W( M! r- u4 r0 _( g
GPT-4发布当天,Hinton曾表示,- E- y) `' o9 V; \2 ]
! [- u' J! f/ u) a
毛虫吸取了营养之后,就会化茧为蝶。而人类提取了数十亿个理解的金块,GPT-4,就是人类的蝴蝶。
) l( o8 l( }" g4 B
8 V0 @5 X0 u2 R
$ J5 d4 W1 t w% [3 C1 a1 ^Hinton称赞的背后,让许多人看到超强人工智能系统的智力已经非同寻常。
7 M+ B) l. s/ r) p9 \4 @对此,Hinton谈到人工智能技术时表示,随着科技公司改进人工智能系统,它们变得越来越危险。
) t# ^8 m" s, `7 ~) j p. }5 m Q看看五年前和现在的情况,如果还要继续传播这项技术,后果就太可怕了!* n" Q$ t; c. Q' p/ ~& b
在谷歌十年生涯中,Hinton一直看好谷歌在人工智能技术上谨慎的态度。3 @" Y) @. l! t; u2 r* b1 Q
他表示,直到去年,谷歌一直扮演着这项技术的「合适管家」角色,谨小慎微地不去发布可能造成危险的AI。& L! t9 x5 Q1 F5 u
这恰恰解释了,为啥谷歌在这波人工智能浪潮中落后的原因。
! T, i: R: u4 Z$ Z: _但是现在,微软为其必应搜索引擎接入GPT-4的能力,已经让谷歌焦急地不得不做点什么。; ~; B3 ]# d4 f7 V* {
Hinton称,科技巨头们正在进行一场可能无法阻止的竞争。+ V0 u8 R. S- s
1 e& d3 |0 W! u) ]$ R
4 u# S# m4 c# a3 h" L0 K; g# X
他眼下担心的是,互联网上将充斥着虚假的照片、视频和文本,人们也无法去辨别什么是真实的,什么是虚假的内容。9 |1 J( n) [( j6 `/ y) ]0 S
他甚至还担心,人工智能技术迟早会颠覆就业市场。
+ e) d* l! ?& r如今,像ChatGPT这样的聊天机器人往往能很好地辅助人类工作,甚至取代律师助理、私人助理、翻译、以及其他处理死记硬背任务的人。
3 H$ ~ R5 z# L0 S( e未来,他表示自己很担忧,GPT-4迭代会对人类构成威胁,强AI从大量数据中能够学到意想不到的行为。- H9 v7 F! p/ q* m: M; k% m. u
人工智能系统不仅可以生成代码,而且自己运行代码。前段时间爆火的Auto-GPT就是一个非常典型的例子。& ?! |, T: y. w
& C# m* S! ^3 e! c- e" y; b: Z
( q6 w+ i- ^* t! b他担心有一天真正的自主武器ーー那些杀人机器人ーー会成为现实。
: t6 u( G: ~; V上世纪80年代,Hinton曾是卡内基梅隆大学的计算机科学教授,但因为不愿接受五角大楼的资助,他选择了离开CMU,前往加拿大。当时,Hinton强烈反对在战场上使用AI,他将其称为「机器人士兵」。
P" p; t) @: d2 Z+ N& Z; l" _4 G' P. k# _
, A& M& ~$ n9 T+ Y ]8 O在一些人看来,类似的系统实际上比人类更聪明。Hinton表示自己曾经认为,这太离谱了,最起码要30-50年,甚至更久才能实现。4 ` T" g( U9 D5 W, q
& ?4 q0 _ A% m: @. U5 Y* n
而现在,我不再那么想了。
3 @ z, V( H1 R. A5 U, Z& Z% Z许多其他专家,包括Hinton的许多学生和同事,说这种威胁还仅是一种假设。' m- {! s# X6 V' w* L. ^6 V
他指出,谷歌和微软,以及其他公司之间的竞争,将升级为一场全球性竞赛。如果没有某种全球性的监管,这场竞赛将不会停止!4 `# G6 f1 V8 b2 g' i
9 q! H0 N0 x( Z4 `+ x
z7 z* U0 w4 l0 L/ T! O- S# D但他表示,这也不是绝对的。与核武器不同,我们无法知道哪个公司或国家,是否在秘密研究这项技术。8 j8 w& N: {4 _( |& c
网友热议
8 e: n# [) B5 U4 F! [2 {有网友认为,Hinton对于的AI的看法太悲观了。1 n& W1 \& U/ u2 m [! \
我见过的ChatGPT积极应用案例远多于消极的,但现在的趋势是把AI描绘成邪恶的炼金术。这些担忧是合理的,我们会学习,我们会纠正它,然后我们会继续前进。( ]9 b7 U% a2 p
3 {/ D! A* {; `5 I6 P* m
) W: t- O! ^9 ?, X+ H5 W
甚至有网友将其比为天网,但我们还不能将其关闭。「人工智能就像潘多拉的魔盒一样,一旦打开就无法关闭。」
, Z2 _$ I! T/ A9 i3 p9 U9 ]0 R+ ^% L; r5 ]* |
2 ?" C8 p2 N" p( T7 s还有人对谷歌「负责任」这一观点提出异议:, B' V0 I7 l7 O/ i; Q
-使用Breitbart训练AI模型;-让负面信息在YouTube上大肆传播(反过来又为推荐算法提供依据);-散布有关安全和隐私的科学假信息;-开除专家8 B. u8 f& ~: m* y0 c1 c4 H: O; P
' a. b3 K6 v% r, x" m$ E3 K
c. c7 N3 f: a1 h& {/ U谷歌大脑和DeepMind合并这一事,与此相关吗?- @& o# H1 W( d9 m; O9 _
, M2 b4 d& f0 a& h8 d, A: t
6 ^& E! ` G& f% ~; N8 ~还有网友发出疑问,连Hinton都离职了,下一个会是?) I! E) F$ I( s/ U! I# H( j- M
$ {3 h5 s h1 C2 X) N+ g! ], Y; o1 {( @
; x* w) |2 k; |0 @
参考资料:
: Y3 X! ?5 _1 Ohttps://www.nytimes.com/2023/05/01/technology/ai-google-chatbot-engineer-quits-hinton.html |
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
×
|