京东6.18大促主会场领京享红包更优惠

 找回密码
 立即注册

QQ登录

只需一步,快速开始

查看: 1073|回复: 0

“ AI 教父”警告人类风险迫近,大模型真正的威胁在哪里? ...

[复制链接]

1619

主题

695

回帖

6960

积分

论坛元老

积分
6960
发表于 2023-5-12 11:20:27 | 显示全部楼层 |阅读模式 来自 浙江台州
站在 " 人类文明的十字路口 ",AI 何去何从?这是摆在人类面前的一道必答题。自去年底 ChatGPT 横空出世、5 天突破百万用户以来,有关 AI 与人类未来的讨论愈演愈烈,从产业界到学界,至今尚无定论。$ b" b1 a0 m- C3 \2 H
回望历史,科学技术的发展总是在反对和质疑声中一路前行,新技术总会伴随新风险,这一次为何更棘手?作为地球文明的主导者,我们似乎遇到了一个前所未有的挑战:以目前 AI 的发展速度,人类会否沦为硅基智慧演化的一个过渡阶段?这一次人人都是参与者,无人可以置身事外。# x2 ~: o& [- s
——编者3 i* v, C4 y& a8 q& Q; G
8 B5 X0 P, i+ x! ~0 I
* F# W' s8 c' A. G

: `; e* }) `9 l% X继全球千余名业界大佬公开签名呼吁暂停研发比 GPT-4 更强大的人工智能(AI)系统后,在业内有 "AI 教父 " 之称的计算机科学家杰弗里 · 辛顿(Geoffrey Hinton)本月初宣布离职谷歌,进一步加深了人们对 AI 是否已经失控的担忧。
# L3 e  W! y. c
- s1 {0 w; V) A1 A0 n4 n* X" |& e! R' \

, r. q# y$ B7 v4 y+ h杰弗里 · 辛顿推特截图0 x9 w& N: L0 E2 ^: O
现年 75 岁的辛顿在神经网络领域长期从事开创性工作,为 AI 技术的发展奠定了基础。在 3 月下旬那封聚集了 1000 多个签名的公开信发布时," 深度学习三巨头 "、三位 2018 年图灵奖得主表现各不相同。其中,蒙特利尔大学教授约书亚 · 本吉奥(Yoshua Bengio)高调签名,脸书首席人工智能科学家、纽约大学教授杨立昆(Yann LeCun)旗帜鲜明地反对,身为谷歌副总裁的辛顿一言未发。
( D0 W; g' ~: R) `5 d% a" N7 {2 j宣布离职谷歌后,辛顿公开表达了自己的观点。他在接受《纽约时报》采访时表示,相较于气候变化,AI 可能对人类的威胁 " 更紧迫 "。他甚至表示,之所以离开谷歌,就是为了完全自由地说出 AI 潜在的风险,向世人提出警示。在 5 月 3 日麻省理工技术评论举行的一场半公开分享会上,辛顿坦言,过去他认为 AI 风险是遥不可及的," 但现在我认为这是严重的,而且相当近,但停止发展 AI 的想法太天真了。"
$ S. B) _" R; M8 E( u人类又一次陷入 " 科林格里奇困境 "/ H# B. u+ p8 \6 |6 x
人类历史上,曾无数次因新技术的诞生而产生担忧。比如,1863 年瑞典化学家诺贝尔发明硝化甘油炸药,1885 年德国人卡尔 · 本茨和戴姆勒发明内燃机汽车,20 世纪 40 年代人类发明了原子弹……
% a2 H. F: Y! X8 f( p8 k4 Y+ R辛顿如今对 AI 的情绪,与晚年时期的诺贝尔和爱因斯坦如出一辙。诺贝尔发明炸药原本是为了提高开矿、修路等工程的效率,当他发现自己的发明被投入到战场上后,其自责达到了顶点,这也促使他后来创立了诺贝尔奖。' G" k- p" C' T0 |, |9 w
清华大学人工智能国际治理研究院副院长梁正认为,在新技术兴起时,人类通常会面临所谓的 " 科林格里奇困境 " ——技术尚未出现,监管者无法提前预测其影响并采取行动;而当它已经出现时,采取行动往往为时已晚或成本过高。
3 t0 N! m& u# A- [: P, n幸运的是,迄今为止,人类通过不断适应新技术的发展而调整治理手段,一次次走出了 " 科林格里奇困境 "。" 比如在汽车大规模上市前,人们就为其安装上了刹车,之后也一直在完善汽车的安全性,为其提供各类检测和认证,甚至在汽车发明 100 多年后,人们还在为其安全‘打补丁’——装上安全气囊。" 梁正说。, L) C; Q2 G+ D- O9 p1 N
不过,他也承认,这一次 AI 的来势汹汹似乎与以往有些不同," 速度太快了。" 比如,训练了几个月的 ChatGPT 的性能提升比过去几年迭代都要快,这意味着生成式 AI 大模型可以在几周内将潜在风险转变为实存风险,进而对人类社会造成不可估量的影响。3 X1 Z$ O- Q3 N5 a7 T0 y

# l& F5 l: l$ t& W/ ~$ x0 Y! X! ~' m+ P0 ~$ ^  N3 @$ j

0 F( q( Y9 b; F- D另一个不同是,这一次我们似乎无从下手。辛顿坦言,对于气候变化的风险,人类可以提出一些有效的应对策略,比如减少碳排放," 你相信这样做,最终一切都会好起来的。但对于 AI 的风险,你根本不知道如何下手。"
& a# |2 Z7 I  M. z# `! n1 W另外,商业竞争也会促使大模型一路 " 狂飙 "。OpenAI 深知 GPT 所蕴含的潜在风险,尽管他们对外表示将审慎推进 AI 系统的研发,但并不愿意就此暂停或彻底放慢脚步,而是期望社会为此做好准备。今年 2 月,这家公司刚刚公布了其发展通用 AI 的雄心与策略。而其首席执行官山姆 · 阿尔特曼表示,通用 AI 在 AI 技术上只能算是一个小节点,他们的远景目标是创造出远超人类智能的超级 AI。2 m+ O( `" d+ \) h4 W+ N' t; y
AI 真的拥有人类智能了吗?; }) D3 j6 H! ^8 n  t
AI 失控的故事,一直出现在科幻小说中。在大模型出现前,人们也对 AI 保持了相当警惕,但从未像今天一样如临大敌。那么,能识别出照片中的种种不合理、在各项考试中拿到高分、与人如沐春风般对话的大模型,真的已经拥有人类智能了吗?2 E4 R( A$ h) @7 k& |
联合国教科文组织 AI 伦理特设专家组专家、中国科学院自动化研究所 AI 伦理与治理中心主任曾毅认为,以 ChatGPT 为代表的大模型是 " 看似智能的信息处理 ",与智能的本质没有关系。& L1 u; f" c; O8 B& Q
" 人们之所以觉得它很厉害,因为它的回答满足了人们的需求,如果这些回答来自于一个人,你会觉得他太聪明了。但如果你跟它说‘我很不高兴’,它说‘那我怎么能让你高兴一些’,这让人觉得它似乎理解了情感,而实际上它只是建立了文本之间的关联。" 曾毅认为,目前的 AI 系统与人类智能的区别在于,大模型没有 " 我 " 的概念,没有自我就无法区分自我和他人,就无法换位思考,无法产生共情,也就无法真正理解情感。" Q0 `8 r7 J9 {) {- t
清华瑞莱智慧科技有限公司 AI 治理研究院院长张伟强表示,当前的大模型仍属于第二代 AI,其主要特征为以深度学习为技术、以数据驱动为模式。这使得它在决策链路和逻辑上具有天然的不确定性,即便是模型开发者,也无法准确预知模型的输出结果。当语言大模型 " 信口开河 " 时,不能认为是出现了所谓的 " 自我意识 ",而仅仅是技术缺陷使然。% b+ u  f/ q9 c( h) c) ?
" 计算能力当然是智能的一种,但智能的范围比这大得多,除了计算还有算计。" 梁正说,如果把智能看作一个球体,阿尔法狗表现出的智力如同一个针尖般大小,大模型则是球体表面那一层,离真正的智慧内核还差得远。因此,许多技术派将 ChatGPT 视作某种 " 高科技鹦鹉 " 或人类知识库的映射。他们并不认为情况已经十分危急,因为与人类智能相比,大模型并没有触及认知的底层逻辑。
3 t, ?; J: O2 y  m9 \) j( Z' V大模型真正的威胁在哪里?
7 `, X' i4 j6 W# W# y我们应该允许机器充斥信息渠道传播谎言吗?应该将所有工作(包括那些让人有成就感的工作)都自动化吗?应该去开发可能最终超越甚至取代我们的非人类智慧吗?应该冒文明失控的风险吗?细读那封千人签名支持的公开信不难发现,业界大佬们并非为 AI 的智能即将超过人类而忧心忡忡,而是担心 AI 将消解人类存在的意义,解构人类社会的关系。
8 L" K5 y+ n3 k( X; N8 \7 `2017 年,AI 领域的重磅论文《一种采用自注意力机制的深度学习模型 Transformer》发表,这个不到 200 行代码的模型开启了 AI 发展的新阶段。原本分属不同领域的计算机视觉、语音识别、图像生成、自然语言处理等技术开始融合。在 Transformer 的模型下,工程师利用互联网上的文本进行 AI 训练,训练方法是在一句话里删除一些单词,让模型试着预测缺失的单词或接下来的单词。除了文本,此模型也可应用于声音和图像。和单词一样,工程师可以将声音和图像分解成细小的模块,并利用修补模型进行预测和填补。
$ }0 N5 a( P0 {3 X. Q$ e4 O! J: _" 所谓生成式 AI,通俗来说就是让 AI 能够像人类一样说话、写字、画画,甚至分析和理解问题。" 张伟强说,基于这种 " 创作 " 能力," 人工 " 与 " 非人工 " 的边界正在消弭,数字世界的信息真伪也越来越难以辨识。目前,已有聊天机器人被用来生成针对性的网络钓鱼邮件。不久的将来,当人们听到或看到家人的声音或图像时,或许首先要问自己一个问题:这是真的吗?毕竟,最新的 AI 技术只需 3 秒就能拷贝一个人的特征。
: w  p+ s/ X, y. K此外,生成式 AI 还带来了其他新风险的挑战。张伟强举例说,第一个风险就是加深 " 信息茧房 "。过去,当我们搜索信息时,还能得到多种答案以供选择。语言大模型则更像一个 " 茧房 ",你将如同《楚门的世界》中的男主角,被动接受模型世界给你的信息。
/ V: p; C6 [2 }( b# g& }1 m  w- T大模型带来的第二个新风险是对创新动能的干扰。人类总是会在思考的过程中迸发灵感,在动手的过程中有所收获,在不断试错的过程中走向成功,不少伟大的发明都是研究的 " 副产品 "。而大模型提供了前往正确答案的直通车,人们将由此减少很多试错机会。正如刘慈欣在科幻作品《镜子》中描写的一种人类 " 结局 ",人类因为从不犯错而走向灭亡。$ ^+ D( i/ e* Y) z( T* `9 W
我们为 AI" 套笼头 " 的速度并不慢4 Y8 n/ A, q" H$ W9 H
生成式 AI 的飞速发展,让人类社会面临着一场信任危机。当网络上充斥着越来越多不知真假的图片和视频,AI 助手几秒钟就 " 洗 " 出了一篇像模像样的稿件,大批学生开始用 ChatGPT 写作业、写论文,我们是否有信心用好生成式 AI 这个工具?
/ b# F& m- v" K% w' Q对此,梁正比较乐观。他认为,新技术总是伴随着风险,而人类曾无数次处理过这种情况,因此不必太过担心。在他看来,人类应对这一波生成式 AI 的速度算得上及时。  u1 H; X( _, ]( ?- E" Y
去年 11 月 30 日,OpenAI 推出 ChatGPT。今年 3 月,英国政府发布了第一份 AI 白皮书,概述了 AI 治理的五项原则。3 月底,意大利个人数据保护局(DPA)宣布从即日起禁止使用 ChatGPT,限制 OpenAI 处理意大利用户信息数据,同时对其隐私安全问题立案调查。随后,德国、法国、爱尔兰等国家也开始准备效仿意大利的做法,加强对 ChatGPT 的监管。) t5 y( W; ]# n% B, K
在生成式 AI 的立法方面,中国与欧盟基本同步。4 月 11 日,国家互联网信息办公室发布《生成式人工智能服务管理办法(征求意见稿)》。梁正认为,《管理办法》从三方面给生成式 AI 的发展戴上了 " 笼头 ":一是大模型的数据来源要可靠;二是对 AI 生成的内容应履行告知义务;三是一旦造成损害,相关责任方需要承担责任。他建议,对生成式 AI 实行分级分类管理。比如,对某些高风险领域应该谨慎或严格控制使用生成式 AI,而对一般的办公娱乐场合,只要标注出 AI 生成内容即可。
  x6 R2 e" o8 ]/ E- D, p! A3 R与其焦虑,不如用技术规制技术% f: t0 K% h4 w$ d6 v
如果把生成式 AI 比作 " 矛 ",那么检测其安全性的公司就是 " 盾 "。目前,在全球范围内," 盾 " 公司的数量并不多。由清华大学人工智能研究院孵化的瑞莱智慧(Real AI)就是一家 " 盾 " 公司,他们负责检测内容是否由 AI 生成,以及给大模型的安全系统 " 挑刺 "。) w. q$ o8 n& [3 w1 B
" 人类需要保持辨识信息真伪的能力,只要能识别出哪些内容是 AI 生成的,并精准告知公众,这项技术也没有那么可怕。" 张伟强说,目前他们研发了一套 AI 内容识别系统,在识别能力上处于国际领先。+ `4 P5 l5 n/ B. w

% Q1 D, u; ?' ?8 z6 @) B9 L* z+ p7 n
7 i/ X4 n6 l/ [5 b- i
比识别 AI 内容更重要的,是弥补第二代 AI 本身的安全缺陷。张伟强解释说,AI 的 " 智力 " 提高后,需要视其为社会生活中的一位新参与者。但第二代 AI 本身的运算过程是个 " 黑箱 ",相当于你无法看透这位新伙伴的所思所想(可解释性差),且他还极易被欺骗犯错(鲁棒性差)。至今在大模型中无法彻底解决的 " 幻觉 " 问题就是由此产生,即使数据来源准确可靠,但大模型仍可能会 " 一本正经地胡说八道 "。
# T  k" y( r" I/ x7 F- G$ g不可否认,ChatGPT 开启了一场全球范围的大模型 " 军备竞赛 ",大厂纷纷发布各自的大模型系统,不少小公司也推出了基于自身领域的 " 小模型 "。张伟强表示,市场的充分竞争固然有利于行业快速发展,但其先天的安全不足同样需要引起重视。比如,上个月,瑞莱智慧仅通过添加少量对抗样本,就让 Meta 发布的史上首个图像分割模型 SAM 失灵,显示出大模型在安全性方面仍然任重道远。; [5 ^2 l  r- k% \: \( T0 h& C
梁正认为,未来,当人们回望现在所经历的这个阶段,会清晰认识到 AI 的工具属性。为了保证它永远只是工具,我们必须及时跟进它的动向,敏捷治理,就像历史上人类曾经一贯为之的那样。; {0 H3 V- {9 Q6 t7 i+ I
作者:沈湫莎
5 \  f& Q% t3 X- p) p* O图片:pixabay.com
! u9 ~- G) N: l* H5 U责任编辑:任荃$ y# D( M+ ~' _1 \9 U9 @
* 文汇独家稿件,转载请注明出处。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

×

帖子地址: 

梦想之都-俊月星空 优酷自频道欢迎您 http://i.youku.com/zhaojun917
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

站长推荐上一条 /6 下一条

QQ|手机版|小黑屋|梦想之都-俊月星空 ( 粤ICP备18056059号 )|网站地图

GMT+8, 2025-7-16 17:34 , Processed in 0.040477 second(s), 24 queries .

Powered by Mxzdjyxk! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表