|
|
0 L1 p% s4 r0 f# G
( p" o9 E( n' G+ S$ H新智元报道
1 T% H9 v. h; a7 V. } W# @编辑:编辑部
0 Z) f S8 g: m; Z' j: M: l8 z; E【新智元导读】入职谷歌10年后,人工智能教父Hinton选择离职。对于造就了如今AI技术繁荣的神经网络,Hinton表示:这是我毕生的后悔。0 f' e7 ^8 V& U& k( ?
一觉醒来,整个科技圈惊掉了下巴!!!5 Y1 ]; r5 y$ _: U/ V1 k9 \$ n3 N% x
, q4 l& S" W" v8 k, Q P% \
深度学习泰斗、神经网络之父Geoffrey Hinton突然宣布离职谷歌。
: s) i3 p/ b; b {! {$ M; z' L1 K3 \. b0 V# m6 L( U
& C, Q2 M7 R- W6 P0 W2 K) ^
9 E5 a& G, |) Y3 E5 B3 N* b2 c为了能够自由谈论人工智能风险,而不考虑这对谷歌的影响。 2 Y L5 ?) f4 m+ @
纽约时报的报道中,Hinton直接警示世人:注意,前方有危险,前方有危险,前方有危险!8 J% ~6 Z. E. ^- J1 B2 h) `
而正是对人工智能风险深深地担忧,让这位深度学习巨佬直言:「我对自己的毕生工作,感到非常后悔。」; T: I# F; X4 c2 T5 `
如今,距离Hinton入职谷歌,刚好十年。
- y& r5 j& `1 D; C8 I% V. \+ m) n
7 q8 p, B3 Z' t& w: m# O对于Hinton此举,有人甚至劝说,应该将关注人工智能安全常态化,而不必辞去工作。8 l9 I) L4 @: u- i: M+ U: {
/ T2 \2 ^1 Q; H) b& Z1 g
" Q* |% `4 R+ W& D( W9 P这更应该是你留下来的理由。因为世界是不会停止的,像你这样的伟大人物应该坚持下去,并将人工智能发展的更好。9 w# d1 R$ f( t) ^0 ?
5 \) S5 I: l, k( ^6 B
; w+ e0 {/ Z6 ^; O
你应该劝说你的学生Yann LeCun和Ilya Sutskever。9 i" P, b& O2 R/ l+ j( }
值得一提的是,ChatGPT背后真正的英雄正是OpenAI的联合创始人兼首席科学家Ilya。
3 F! h6 x1 _2 X, s# P2 A+ q4 x& B" b, [
- A n8 t7 u1 q0 q# dAI「关键时刻」,人类控制不住了) b1 Z f; U$ m7 [
被称为「人工智能教父」的Geoffrey Hinton,一直都是该领域最受尊敬的先驱之一。
) p8 v! K4 F! @! a2 ]5 M, l1 K
/ e1 g- j9 c# S# ^' Q9 v5 a0 p0 S/ c7 U) h) O9 Z4 [7 c4 w
而Hinton提出离职的时间,正是在此之后的4月份。
7 i4 y( m4 r1 [
$ c, T3 J+ _" i7 B" \6 e4 j# V% q4 H9 ~
从他的推特上可以看出,无论是最近GPT-4等超强AI引发的巨大争议,还是谷歌高层的剧烈动荡,Hinton都始终保持缄默,不发一言。
/ P) ]2 s+ F2 E0 y# u0 q, y许多人关注着这位人工智能教父的态度。
7 C! F& _2 T9 _; }) X d2 u& ^在CBS的一次采访中,Hinton表示「我们几乎已经让学会计算机如何自我改进了,这很危险,我们必须认真考虑,如何控制它。」% I+ o6 ^0 ?* |$ a
) r; b0 \3 b6 K' J3 Z6 v& B
! n0 N. }* b9 X3 s2 O2 I, k, w从人工智能的开创者到末日预言者,Hinton的转变,也标志着科技行业正处于几十年来最重要的一个拐点。% Q6 |& b8 p$ J: v
先驱的沉痛反思,让我们终于不能再掩耳盗铃,假装没有看见AI可能给人类社会引发的深刻改变和巨大危机了。
! Y8 J$ F* E" S; t! t: W# ]" p: n盖茨等许多大佬认为,ChatGPT可能与上世纪90年代初网络浏览器一样重要,并可能在药物研究、教育等领域带来突破。/ ~7 C7 C7 K! t8 G
与此同时,令许多业内人士不安的是,他们担心自己所做的研究,正在向外释放某种危险。& z. r) A5 Q0 r. I
因为生成式人工智能可能已经成为产生错误信息的工具。并在未来的某个时候,可能会对人类构成威胁。7 N* ]) q5 e) R- N
: ]3 h u% T+ @ n+ c
# ]9 N u; p5 ^在Hinton看来,如何防止坏人利用它做坏事,我们还未能找到方法。
. z! E- q* H" A; T1 h4 n在3月底呼吁暂停超强AI六个月的公开信发出几天后,人工智能促进协会的19位领导人也发布了公开信,警告AI的风险。. {0 `! Y: T! W S5 F
其中就包括微软的首席科学官Eric Horvitz,而微软已在一系列产品中(包括Bing搜索引擎中)部署了OpenAI的GPT技术。9 r3 z4 g# C( G6 I2 W9 t
在喧嚣的反对浪潮中,人工智能教父Hinton却并未在这两封信上签名。/ Y, V8 Q q! t) M4 ~
他说,自己在辞去工作之前,并不想公开批评谷歌,或其他公司。. y& z5 }4 I0 p# P
忍到上个月,Hinton终于下定决心,通知谷歌自己即将辞职。0 z4 Z' F/ s; o. I3 k
选择离职谷歌后,Hinton终于可以畅所欲言地谈论AI的风险了。* a6 T3 u4 L$ u* s
- Y I+ L$ y7 a- S' z; o" w9 S我对我的毕生工作,感到十分后悔。 我只能这样安慰自己:即使没有我,也会有别人。
( n0 S. q. N2 V) y6 W
7 p. I. A7 D- q* f( `- a3 ~, y; ]/ o4 F& f* t. h9 ~, K- R6 z
上周四,他与谷歌母公司Alphabet的CEO劈柴(Sundar Pichai)通了电话,但他表示不便透露此次谈话的细节。
2 m" h! ` n& }% y作为一家大公司,谷歌对于AI的态度一向保守,甚至保守到,眼睁睁看着自己在聊天AI机器人之战中被甩在后面。5 W1 J5 M6 P. x
早在2015年,谷歌的图像识别AI曾将黑人标记为「大猩猩」,招致的批评让谷歌成为惊弓之鸟。
. |+ h0 x5 g7 D* M在OpenAI推出Dall-E 2、名震全球之前,谷歌就有类似模型,但并没有发布,因为谷歌认为需要对AI生成的内容负责。# K$ T4 [# _# e- K+ W+ `6 h; H: F
而早在2021年,谷歌就已有了类似ChatGPT的LaMDA聊天机器人,但谷歌始终未发布。直到2022年11月底,OpenAI凭ChatGPT占尽风头。
% K$ X/ Q: @4 k. O0 m, r2 F) \如今,谷歌首席科学家Jeff Dean在一份声明中表示:「我们仍然致力于对人工智能采取负责任的态度,我们正在不断学习了解新出现的风险,同时也在大胆创新。」% }4 g0 M, c. U! g- I. L" i5 D" V
开启了历史,也见证了历史
5 l. D, S) B) `( E+ [1972年,Hinton在爱丁堡大学开始了他的研究生生涯。
& d4 y! Q! Q- H# i5 i在那里,他首次开始研究神经网络——一种通过分析数据来学习技能的数学系统。; q' {) |, F$ D
当时,很少有研究人员相信这个观点。但这成了他毕生的心血。1 Y+ p1 Y% o* { k4 s6 L8 i! c
) y% A1 U6 E3 U( S9 S* v8 d
& n3 U7 l- b, G% c2012年,Hinton和他两名学生Ilya Sutskever和Alex Krishevsky建立了一个神经网络,可以分析数千张照片,并自学识别花、狗和汽车等常见物体。
# k7 V3 S! U% D) s神经网络成为他与两名学生共同创建的公司DNNresearch背后的突破性概念,该公司最终在2013年被谷以4400万美元收购。
$ f- X s9 c$ W5 J' H2018年,Geoffrey Hinton、Yann LeCun和Yoshua Bengio一起因对神经网络的研究获得了2018年的图灵奖,而神经网络正是ChatGPT、Bard等聊天机器人背后的奠基性技术。
3 j `5 |# J! m
' n7 h' Q; g) y' E1 y/ V4 Z- c) P3 X f5 w$ p% s3 {
而Hinton的学生Ilya Sutskever,也在后来成为OpenAI首席科学家。7 t7 W U4 B; t! N# B: j" K( z6 W# Z! F
4 X/ E( z1 n+ Q/ }, p
$ Z8 D; _& j9 M: u
大约在同一时间,谷歌、 OpenAI和其他科技公司开始构建从大量数字文本中学习的神经网络。
# A0 |% ?2 K0 D) _+ X$ }那时的Hinton认为,这是机器理解和产生语言的一种强大方式。当然不得不承认,比起人类处理语言的方式没,神经网络还是力不能及。
6 a0 L' c6 m# ?- \2022年,随着谷歌和OpenAI 利用大量数据构建超强AI。
6 y) _ ]; n: O) V- B; T) S7 v- W+ PHinton的观点发生了重大转变。他仍然认为这些系统在某些方面不如人类的大脑,但它们在其他方面正在超越人类的智力。
/ ]% D h- a( a7 [! [" Y! U! JGPT-4发布当天,Hinton曾表示,, C' C4 i+ I6 L. w
+ J. C, A8 f# m2 B; L毛虫吸取了营养之后,就会化茧为蝶。而人类提取了数十亿个理解的金块,GPT-4,就是人类的蝴蝶。
* U# V0 Q' T; R+ l. S/ {8 l, v9 n. k0 u! P! b8 G' ]! _
: l! S- _# P, H, e7 Z
Hinton称赞的背后,让许多人看到超强人工智能系统的智力已经非同寻常。# M: ]" ^+ S: u) c3 q8 C: [
对此,Hinton谈到人工智能技术时表示,随着科技公司改进人工智能系统,它们变得越来越危险。$ C6 b8 B4 M9 |6 G
看看五年前和现在的情况,如果还要继续传播这项技术,后果就太可怕了!
) C, n7 T( w! s7 f+ r' Y在谷歌十年生涯中,Hinton一直看好谷歌在人工智能技术上谨慎的态度。5 M# a0 Z& Z3 l; i3 e# u) i) L
他表示,直到去年,谷歌一直扮演着这项技术的「合适管家」角色,谨小慎微地不去发布可能造成危险的AI。/ A4 X) U5 y6 r
这恰恰解释了,为啥谷歌在这波人工智能浪潮中落后的原因。7 E v" x$ ^1 f: m
但是现在,微软为其必应搜索引擎接入GPT-4的能力,已经让谷歌焦急地不得不做点什么。$ C. t. K- I3 u3 d6 {- o
Hinton称,科技巨头们正在进行一场可能无法阻止的竞争。
9 e% `2 |9 K; C F* n
+ d V4 m, ?; o' y
$ t* M! ?. S. I0 E他眼下担心的是,互联网上将充斥着虚假的照片、视频和文本,人们也无法去辨别什么是真实的,什么是虚假的内容。
: |1 h/ }! {5 h5 ?他甚至还担心,人工智能技术迟早会颠覆就业市场。
2 ^& G! ~$ v: t; C如今,像ChatGPT这样的聊天机器人往往能很好地辅助人类工作,甚至取代律师助理、私人助理、翻译、以及其他处理死记硬背任务的人。
* y0 |2 d }9 g未来,他表示自己很担忧,GPT-4迭代会对人类构成威胁,强AI从大量数据中能够学到意想不到的行为。
0 o+ f% q' `9 }4 c$ Y% K人工智能系统不仅可以生成代码,而且自己运行代码。前段时间爆火的Auto-GPT就是一个非常典型的例子。
% d& k) _4 a! c/ S4 J& `: A
2 Q' k& {1 G) |3 R( U
; x2 ]) ~7 C9 S他担心有一天真正的自主武器ーー那些杀人机器人ーー会成为现实。
5 c4 v I& u. e, x0 K5 R上世纪80年代,Hinton曾是卡内基梅隆大学的计算机科学教授,但因为不愿接受五角大楼的资助,他选择了离开CMU,前往加拿大。当时,Hinton强烈反对在战场上使用AI,他将其称为「机器人士兵」。/ |+ c+ }+ T8 B5 G
# t( b _: ? i) I+ Y# N. T. G, H8 T2 V
; E7 r# S. t4 q& x1 _在一些人看来,类似的系统实际上比人类更聪明。Hinton表示自己曾经认为,这太离谱了,最起码要30-50年,甚至更久才能实现。; z; V& o3 _" l" w- p, X2 r
8 e# j: _+ J; C( w
而现在,我不再那么想了。
8 ~+ P+ B& Q! k4 t& z许多其他专家,包括Hinton的许多学生和同事,说这种威胁还仅是一种假设。, j+ C# @! K3 @ h6 b
他指出,谷歌和微软,以及其他公司之间的竞争,将升级为一场全球性竞赛。如果没有某种全球性的监管,这场竞赛将不会停止!( u1 F# G- ]( j: X$ _6 }4 ?
) f/ S: @( i! O( n: }* l* Y* h% n' R+ j+ O& D$ m
但他表示,这也不是绝对的。与核武器不同,我们无法知道哪个公司或国家,是否在秘密研究这项技术。
1 n/ Y% ^# A$ j1 t) `$ m3 U网友热议
$ T) Y7 b2 }* n: {有网友认为,Hinton对于的AI的看法太悲观了。
) q8 Y2 g; ~" `我见过的ChatGPT积极应用案例远多于消极的,但现在的趋势是把AI描绘成邪恶的炼金术。这些担忧是合理的,我们会学习,我们会纠正它,然后我们会继续前进。
4 E R$ C2 ]8 a9 z$ K8 i8 B% C, I9 [8 ?+ w) G& V* @% M
9 n1 a) p. k; [5 j$ t: g
甚至有网友将其比为天网,但我们还不能将其关闭。「人工智能就像潘多拉的魔盒一样,一旦打开就无法关闭。」/ [# X6 Z: @! D$ z% a
9 F$ @2 @: O8 Y; U& |
2 ~# Q# |8 ?, ]还有人对谷歌「负责任」这一观点提出异议:
3 [" `; S' N R-使用Breitbart训练AI模型;-让负面信息在YouTube上大肆传播(反过来又为推荐算法提供依据);-散布有关安全和隐私的科学假信息;-开除专家
5 f8 K/ \2 _9 g% k' o5 l% U: h7 d& Z# i
# g9 {7 _* \- H- M6 w
谷歌大脑和DeepMind合并这一事,与此相关吗?" Q; E: N2 r8 U9 L4 o
& M T& o; z( ]/ b- x* _ m8 s
8 b! t! L* ?9 p i还有网友发出疑问,连Hinton都离职了,下一个会是?
& ~$ y7 h" j: ?" U: p4 ~% I- A( \( t7 F: Z
+ C- ?9 y2 f" a; w! X参考资料:/ ~ Z6 y" v9 _0 d" I( w( q
https://www.nytimes.com/2023/05/01/technology/ai-google-chatbot-engineer-quits-hinton.html |
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
×
|