|
|
* w7 Z$ f: J' a* C2 D. O1 A
- X3 S! l# U% ^# O新智元报道
: X& |) c* U$ U5 v; ? E编辑:编辑部
) W+ a. a9 Y* U2 t( i* H9 C; c【新智元导读】入职谷歌10年后,人工智能教父Hinton选择离职。对于造就了如今AI技术繁荣的神经网络,Hinton表示:这是我毕生的后悔。 y& [, ~3 b1 s$ d4 G( B7 z( Y& Q, ^
一觉醒来,整个科技圈惊掉了下巴!!!
; t' {3 A8 L, R8 u: b& r( I1 l4 b7 C
深度学习泰斗、神经网络之父Geoffrey Hinton突然宣布离职谷歌。
! g- n7 ]5 e. w+ S L+ @& u1 a b1 x7 G
; l! \0 X7 \. I0 Z, A/ h+ z* w, S" y+ h7 a. W
为了能够自由谈论人工智能风险,而不考虑这对谷歌的影响。 , K+ Z' z% Z0 F
纽约时报的报道中,Hinton直接警示世人:注意,前方有危险,前方有危险,前方有危险!: Z# E2 g2 k' ^9 I
而正是对人工智能风险深深地担忧,让这位深度学习巨佬直言:「我对自己的毕生工作,感到非常后悔。」
K8 Y+ e& ^( D如今,距离Hinton入职谷歌,刚好十年。
, g5 P& T3 g" k5 y: q0 B" f; m& ?- t
5 I4 C) T! R8 d% d4 `
对于Hinton此举,有人甚至劝说,应该将关注人工智能安全常态化,而不必辞去工作。
( r$ E% g( T( I1 C0 P; F9 a& F+ O( @$ i
3 h! x% \8 b c( K- U& o9 s- a0 |% R7 n; b; a这更应该是你留下来的理由。因为世界是不会停止的,像你这样的伟大人物应该坚持下去,并将人工智能发展的更好。
2 z5 i$ x2 S' n! W
^& O" f8 `" J$ x! G4 Z9 b6 |8 ]: j. o6 n! f, A y( x
你应该劝说你的学生Yann LeCun和Ilya Sutskever。3 r! S- E. Z0 k8 x: e+ T3 w
值得一提的是,ChatGPT背后真正的英雄正是OpenAI的联合创始人兼首席科学家Ilya。0 i/ Y. C5 v0 q/ }$ ]
# @6 v. D2 u( A5 _: Z6 ` m& i/ R( p( P: m, T$ \ c
AI「关键时刻」,人类控制不住了
) X- [( n! b. b; H3 G6 l. H7 c被称为「人工智能教父」的Geoffrey Hinton,一直都是该领域最受尊敬的先驱之一。
/ G; U7 Q& K7 W" D( o2 K2 e. c
1 p; B% y: t, v1 {; a/ f, S: S; J9 ^/ g; n
而Hinton提出离职的时间,正是在此之后的4月份。/ y6 l1 ~. b [9 {( Y
* Y' A) m" V* U1 q" _
$ J3 |3 h) s" T' I6 F从他的推特上可以看出,无论是最近GPT-4等超强AI引发的巨大争议,还是谷歌高层的剧烈动荡,Hinton都始终保持缄默,不发一言。
/ j" e- z% |5 D6 T许多人关注着这位人工智能教父的态度。& s0 p" J0 k$ V
在CBS的一次采访中,Hinton表示「我们几乎已经让学会计算机如何自我改进了,这很危险,我们必须认真考虑,如何控制它。」
' @+ k9 R3 O h0 J, P% P& ^" a0 M! o
: ^* C6 |6 p2 k& I. y8 G
从人工智能的开创者到末日预言者,Hinton的转变,也标志着科技行业正处于几十年来最重要的一个拐点。) D! F; S3 s3 Q. K# L' X
先驱的沉痛反思,让我们终于不能再掩耳盗铃,假装没有看见AI可能给人类社会引发的深刻改变和巨大危机了。& u4 _9 e' e& l) G* S4 Y
盖茨等许多大佬认为,ChatGPT可能与上世纪90年代初网络浏览器一样重要,并可能在药物研究、教育等领域带来突破。% x- v9 p; G9 I7 x4 E$ [& _* O
与此同时,令许多业内人士不安的是,他们担心自己所做的研究,正在向外释放某种危险。
' k8 t" O; L2 u3 u& x因为生成式人工智能可能已经成为产生错误信息的工具。并在未来的某个时候,可能会对人类构成威胁。
4 i7 W$ M$ S" ?& H' _! q% W" v+ Z$ n8 N4 a( H5 k- \$ l' R: v! ~
# Y2 T c3 o& i9 D
在Hinton看来,如何防止坏人利用它做坏事,我们还未能找到方法。
$ y/ j5 a; j' ^$ o [% n& R& T+ O在3月底呼吁暂停超强AI六个月的公开信发出几天后,人工智能促进协会的19位领导人也发布了公开信,警告AI的风险。* d g3 y: O8 u/ P
其中就包括微软的首席科学官Eric Horvitz,而微软已在一系列产品中(包括Bing搜索引擎中)部署了OpenAI的GPT技术。1 J- |4 j) r, S+ s* P2 ~
在喧嚣的反对浪潮中,人工智能教父Hinton却并未在这两封信上签名。
6 }2 i3 w: D& T, [: @! x' l他说,自己在辞去工作之前,并不想公开批评谷歌,或其他公司。
' k' N: ] q G4 J; ]; b' i5 K忍到上个月,Hinton终于下定决心,通知谷歌自己即将辞职。
/ X2 V$ Q( L n选择离职谷歌后,Hinton终于可以畅所欲言地谈论AI的风险了。* r3 c, K& M- G
& u! |: W, b8 x# W6 z
我对我的毕生工作,感到十分后悔。 我只能这样安慰自己:即使没有我,也会有别人。
7 m; f8 I; Y- E$ g* [* C; Y0 ^7 P( k% X2 t
& R9 i0 m6 t3 |/ H$ T! Y9 \ g上周四,他与谷歌母公司Alphabet的CEO劈柴(Sundar Pichai)通了电话,但他表示不便透露此次谈话的细节。8 S& `1 O; C2 L- \9 D: f. N
作为一家大公司,谷歌对于AI的态度一向保守,甚至保守到,眼睁睁看着自己在聊天AI机器人之战中被甩在后面。7 p& g( R) v$ x* H# ? ?$ N
早在2015年,谷歌的图像识别AI曾将黑人标记为「大猩猩」,招致的批评让谷歌成为惊弓之鸟。
& {% |: \6 D' z8 F; U& U! {$ G$ J! l在OpenAI推出Dall-E 2、名震全球之前,谷歌就有类似模型,但并没有发布,因为谷歌认为需要对AI生成的内容负责。
# y5 G G# O$ q* `. ?; |- x而早在2021年,谷歌就已有了类似ChatGPT的LaMDA聊天机器人,但谷歌始终未发布。直到2022年11月底,OpenAI凭ChatGPT占尽风头。
: A8 q9 y( z, S2 t* Z2 L1 K如今,谷歌首席科学家Jeff Dean在一份声明中表示:「我们仍然致力于对人工智能采取负责任的态度,我们正在不断学习了解新出现的风险,同时也在大胆创新。」' H) e+ E: N! _) T# R8 w0 U9 G$ a
开启了历史,也见证了历史
* A' I( {/ _6 j1972年,Hinton在爱丁堡大学开始了他的研究生生涯。; O* `; p+ r, w/ v8 P3 H' M
在那里,他首次开始研究神经网络——一种通过分析数据来学习技能的数学系统。
# `- ~2 ` I( p& s+ g, m7 ?) R当时,很少有研究人员相信这个观点。但这成了他毕生的心血。
) V# g* [3 B) O3 z3 F" h7 c/ }5 p1 t2 Y) u M3 p/ Q
, Z2 V! \& o: y2012年,Hinton和他两名学生Ilya Sutskever和Alex Krishevsky建立了一个神经网络,可以分析数千张照片,并自学识别花、狗和汽车等常见物体。: s# b2 d4 S+ \7 K( t
神经网络成为他与两名学生共同创建的公司DNNresearch背后的突破性概念,该公司最终在2013年被谷以4400万美元收购。
' D( L% x+ B. n1 T2018年,Geoffrey Hinton、Yann LeCun和Yoshua Bengio一起因对神经网络的研究获得了2018年的图灵奖,而神经网络正是ChatGPT、Bard等聊天机器人背后的奠基性技术。
7 B" H) q* x, _3 x$ n1 |: y& J' Y" O) _' |$ Q. k8 |; _% ]
4 W6 R$ O$ X8 d* Z( }1 A4 o; L# \8 {而Hinton的学生Ilya Sutskever,也在后来成为OpenAI首席科学家。: ?2 S: p1 E) l. v) D" J; o
s5 a0 m3 x1 r5 s4 g
' L$ S1 z( [8 j3 [8 R8 K9 t大约在同一时间,谷歌、 OpenAI和其他科技公司开始构建从大量数字文本中学习的神经网络。
7 q9 T. O7 j& V) @. H& p2 a那时的Hinton认为,这是机器理解和产生语言的一种强大方式。当然不得不承认,比起人类处理语言的方式没,神经网络还是力不能及。
+ @& ]( X2 u7 `: ]2022年,随着谷歌和OpenAI 利用大量数据构建超强AI。 \( X0 Y3 A+ G0 d! P) m+ s, N
Hinton的观点发生了重大转变。他仍然认为这些系统在某些方面不如人类的大脑,但它们在其他方面正在超越人类的智力。
) N+ Z% {: v' Z3 {: UGPT-4发布当天,Hinton曾表示,7 |+ P0 b- |, [" \7 V* b8 f4 \' r
5 q5 f$ [2 Y7 Q: {毛虫吸取了营养之后,就会化茧为蝶。而人类提取了数十亿个理解的金块,GPT-4,就是人类的蝴蝶。
7 c! e' [" U, X" Y
+ A8 \4 p1 d0 e8 ^. U) W
& u6 C6 S6 z0 w" H. D# kHinton称赞的背后,让许多人看到超强人工智能系统的智力已经非同寻常。
! }) x: y8 Q3 M b4 k7 L对此,Hinton谈到人工智能技术时表示,随着科技公司改进人工智能系统,它们变得越来越危险。
+ {' \5 A# A+ I, |( ?) e看看五年前和现在的情况,如果还要继续传播这项技术,后果就太可怕了!
5 L8 b' \9 |# J2 x: {3 y* o* X在谷歌十年生涯中,Hinton一直看好谷歌在人工智能技术上谨慎的态度。2 l! g% l- Q: B# g( w
他表示,直到去年,谷歌一直扮演着这项技术的「合适管家」角色,谨小慎微地不去发布可能造成危险的AI。
J2 f) @& c D3 a* a这恰恰解释了,为啥谷歌在这波人工智能浪潮中落后的原因。& |) L% B' u4 D2 R4 h) D% e
但是现在,微软为其必应搜索引擎接入GPT-4的能力,已经让谷歌焦急地不得不做点什么。
6 }; z1 ^ r1 E* R `Hinton称,科技巨头们正在进行一场可能无法阻止的竞争。# S: m4 I3 v. w
* K8 q( ~: v" G; w5 Q. B
$ U" _+ M: \& ?) T* q/ P' t- |他眼下担心的是,互联网上将充斥着虚假的照片、视频和文本,人们也无法去辨别什么是真实的,什么是虚假的内容。' R. _* n* D8 O$ J$ S; V7 Z* ]7 [
他甚至还担心,人工智能技术迟早会颠覆就业市场。) [! \# T' H& z4 r0 q8 |+ z5 ]
如今,像ChatGPT这样的聊天机器人往往能很好地辅助人类工作,甚至取代律师助理、私人助理、翻译、以及其他处理死记硬背任务的人。* v) V3 R0 b) f' i+ K
未来,他表示自己很担忧,GPT-4迭代会对人类构成威胁,强AI从大量数据中能够学到意想不到的行为。1 C1 u4 U [8 q! e
人工智能系统不仅可以生成代码,而且自己运行代码。前段时间爆火的Auto-GPT就是一个非常典型的例子。1 V( ~9 \1 F) f' `9 B) m: O% w
2 H: @) C2 I3 X1 {* G% S
' |/ I3 D9 w( k/ `5 s他担心有一天真正的自主武器ーー那些杀人机器人ーー会成为现实。
c8 o: \- y0 G; Y上世纪80年代,Hinton曾是卡内基梅隆大学的计算机科学教授,但因为不愿接受五角大楼的资助,他选择了离开CMU,前往加拿大。当时,Hinton强烈反对在战场上使用AI,他将其称为「机器人士兵」。
6 B9 t$ n# z' U8 t: s% e- f2 f1 H
. U3 _! i2 m1 F
N* v3 u+ v# ^5 t# i1 T在一些人看来,类似的系统实际上比人类更聪明。Hinton表示自己曾经认为,这太离谱了,最起码要30-50年,甚至更久才能实现。8 J |6 z9 l: H3 f0 q
0 a3 o& `+ U& x! p( J0 r
而现在,我不再那么想了。 5 m2 [6 \3 x8 G! v+ y
许多其他专家,包括Hinton的许多学生和同事,说这种威胁还仅是一种假设。6 t* W! K0 C6 e, D
他指出,谷歌和微软,以及其他公司之间的竞争,将升级为一场全球性竞赛。如果没有某种全球性的监管,这场竞赛将不会停止!( j7 H# a3 k$ U8 y* c
( x; l9 N+ A7 _! X
8 F% j5 c" o0 g' {& r G
但他表示,这也不是绝对的。与核武器不同,我们无法知道哪个公司或国家,是否在秘密研究这项技术。0 c+ ?+ Y8 {- l% s8 V& _
网友热议% G: c7 T2 p4 `7 X( @; p- u' m, D
有网友认为,Hinton对于的AI的看法太悲观了。, g. n) H/ E# ^3 N$ E- _6 B' K0 U
我见过的ChatGPT积极应用案例远多于消极的,但现在的趋势是把AI描绘成邪恶的炼金术。这些担忧是合理的,我们会学习,我们会纠正它,然后我们会继续前进。6 G! ?. i: w6 p6 u0 Z9 Y% Y
0 `$ q7 X! X! r9 Y" U& x' V
' I! T/ V9 o: t5 m* ~4 X+ Y+ @" X$ E甚至有网友将其比为天网,但我们还不能将其关闭。「人工智能就像潘多拉的魔盒一样,一旦打开就无法关闭。」
- d! G1 a" ?' j# B& p" X: c* K0 j
& U4 y* Z2 J$ z. f1 V$ c- l5 |- Q! @6 R: x) F
还有人对谷歌「负责任」这一观点提出异议:# {7 S+ `, V! ^
-使用Breitbart训练AI模型;-让负面信息在YouTube上大肆传播(反过来又为推荐算法提供依据);-散布有关安全和隐私的科学假信息;-开除专家: y: }, g0 {8 S
`; M9 c7 J' u" N
+ K4 a$ ~' O# C9 @) r w- \
谷歌大脑和DeepMind合并这一事,与此相关吗?
- q) F p1 T! A+ _, ~! C) B3 G; B+ R! M! a
( P" [ e7 ^1 }8 P9 j
还有网友发出疑问,连Hinton都离职了,下一个会是?; d, g; J) W8 V# R' K
x) U( J7 K: l& X% I1 _, K0 f N: h, i
参考资料:8 o: c6 v% f) N( u
https://www.nytimes.com/2023/05/01/technology/ai-google-chatbot-engineer-quits-hinton.html |
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
×
|