|
|
原标题:救救人类吧!马斯克等千人联名:暂停巨型人工智能研究
) P& g7 }9 @: L0 v3 D 这段时间,ChatGPT接连发布新的技术突破,AI变革速度之迅猛,让互联网用户如做梦般震惊而恍惚。- O6 u8 a- g" h! T2 R; m7 M) u0 h
即使是科技公司大佬比尔·盖茨,也在日前的发表《AI时代已经开始》公开信中感叹:两次见证了令人惊叹的革命性技术的面世,一次是1980年,首次接触图形用户界面;第二次就是2022年,对OpenAI团队及其生成式AI模型发起了挑战,结果令人惊艳。* b/ e) M: l7 u! Z7 A, l: N) y
而另一群AI技术研究学者、投资者,把AI的迅猛发展视为一场“失控的竞赛”。这其中就有特斯拉创始人马斯克、《人类简史》作者赫拉利、图灵奖得主约书亚·本吉奥等。
Y& l- `4 W* r a6 d “暂停训练AI,开发AI治理系统”% L* I; k# n. ^: |' [# G. W
今日,包括图灵获奖者约书亚·本吉奥、SpaceX创始人伊隆·马斯克等在内的一群科学家和企业家签发了一封公开信,呼吁暂停巨型人工智能研究。
) q) Q# R- i) y1 r
; T, |2 p0 W9 _3 y" m 这封公开信指出,最近几个月,人工智能实验室陷入了一场失控的竞赛,他们致力于开发和部署更强大的数字思维,但即使是研发者也不能理解、预测或可靠地控制这些数字思维。诸多研究表明,具有与人类匹敌智能的人工智能系统可能对社会和人类构成深远的风险。
" p' U" z& E S& J, N9 v% R 针对AI在应用层面的技术漏洞和社会变革风险,公开信提出了连环发问:我们是否应该让机器用宣传和谎言淹没我们的信息渠道?我们是否应该自动化所有工作,包括令人满意的工作?我们是否应该开发出更聪明、数量更庞大的非人类思想,最终淘汰甚至取代我们?我们是否应该冒着文明失控的风险?$ `& Z3 f+ h8 w' \- e( C
公开信呼吁所有人工智能实验室立即暂停训练比GPT-4更强大的人工智能系统,期限至少6个月。在这段时间内,人工智能实验室和专家应该开发和实施一套技术安全协议,由独立外部专家进行严格的审计和监督。与此同时,人工智能研发者必须和政策制定者合作,加快开发人工智能治理系统。
1 S) H" Z& y! Q( V J5 S9 O" q “只有当我们确信强大的人工智能系统的影响是积极的并且风险是可控的时候,才应该开发它们。”除了约书亚·本吉奥和马斯克,在公开信上签名的人还包括伯克利分校计算机科学教授斯图尔特·罗素、苹果公司联合创始人史蒂夫·沃兹尼亚克等科技界专家,目前在公开信上签名的人数已经超过1100人。
* x; @: q1 q0 ~7 E6 l" T# s8 \
: M* ~" m! k7 ]4 \# e 部分签名者& ]% I" H5 B: [0 M* X
霍金的预言成真?
" N% z7 \ O' ^5 b. i P) P “AI确实可能杀死人类”( k4 G# T3 f- M4 h) H
值得关注的是,发布公开信的“未来生活研究所”是由MIT物理学终身教授泰格马克创立的一家非盈利研究机构,创立于2014年,一直关注“开发与人类相当的人工智能技术过程中出现的风险”,霍金、马斯克都是这家机构的科学顾问。3 x K; E) X% P5 B2 b, r: c
也是在这一年,霍金开始通过公开媒体发表对于人工智能技术最终将取代人类的一系列“预言”。9 e% k" t+ { U d8 R2 b8 h/ Y
他在BBC采访中表示:“人工智能技术的研发将敲响人类灭绝的警钟。这项技术能够按照自己的意愿行事并且以越来越快的速度自行进行重新设计。人类受限于缓慢的生物学进化速度,无法与之竞争和对抗,最终将被人工智能取代。”
9 a# r6 x# ?4 f9 P& f& \: s 同年10月,马斯克在麻省理工学院AeroAstro百年学术研讨会上发表讲话将人工智能称之为“我们面临的最大威胁”。他说:“随着人工智能的发展,我们将召唤出恶魔。”他也多次在推特上强烈宣传:“人类应该像监管食物、药品、飞机和汽车一样来监管人工智能。”! F7 U; @ b+ g
去年12月,面对横空出世的ChatGPT,马斯克在推特上曾公开表示:“ChatGPT好得吓人。我们离强大且危险的AI不远了。”8 W9 {6 V6 L2 q# n# a" i3 d0 B
上周,“人工智能教父”辛顿在采访中被问及人工智能“消灭人类”的可能性时说:“我认为这并非不可想象。”随后,AI领域专家盖瑞·马库斯和马斯克发推响应这一观点。
; a% D9 }7 ]. c! d# E, f
" w9 b4 t2 o: G; f 3月28日,盖瑞·马库斯发文称:“超级智能可能会、也可能不会迫在眉睫,但在短期内需要担心“MAI(平庸人工智能)风险”。
. }( L- T% h' a4 | $ y# K% n9 _7 H
马斯克等人的担忧似乎正在得到验证。在昨日公开的访谈中,“ChatGPT之父”萨姆·阿尔特曼说的话里,竟有一些耐人寻味的表述。他说,GPT系列为何会出现推理能力,OpenAI的研究者自己搞不明白。他们只知道,在不断测试中,人们忽然发现:从ChatGPT开始,GPT系列开始出现了推理能力。# ^! y) _( g* L# |, a
阿尔特曼还在访谈说了这样惊人的一句:“AI确实可能杀死人类。”
3 F) @9 ?& W/ C. g% G2 s- Z 橙柿互动记者 储帆+ |, N" ?9 l! a8 c5 ?" _$ c
(来源:橙柿互动) |
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
×
|