|
|
以下文章来源于创业板观察 ,作者马兰
# @$ B, T9 F/ I) C: H# W3 S. G8 m被称为 " 人工智能教父 " 的多伦多大学教授 Geoffrey Hinton,在宣布离开谷歌之后表示,对自己在开发人工智能这项技术中的角色感到遗憾。
& j& x A" z- H4 K在漫长的谷歌生涯之后,Hinton 透露,他虽然常用 " 他不做,别人也会这么做 " 的借口安慰自己,但仍对于人工智能带来的负面影响感到不安,他怀疑这项技术将给人类带来危害。
/ M& l2 o! U) z) B3 h* i他指出,生成式人工智能语言模型可能会导致虚假信息、照片和视频等在互联网上大量传播,而公众极易被其迷惑,很难分辨真假。
; u# W4 N. U' b0 J, ^/ J0 q. x. p( {此外,Hinton 还在媒体采访中表达了对科技巨头之间 AI 竞赛的担忧,并质疑巨头们是否走得太远,并无法在危险出现时及时踩下刹车。
* U y% l6 a8 q; s% @. o' L- v 辉煌成就下的不安
3 |9 ^5 Z% O5 ]2012 年,Hinton 和他的两个学生创建了一个神经网络模型,可以分析数千张照片并识别常见物体。其中一个学生 Ilya Sutskever 在 2018 年成为 OpenAI 的首席科学家,并领导了 ChatGPT 的开发。2 Y0 Q: G8 x5 w
而 Hinton 和其创办的公司后来则被谷歌收购,他本人也在谷歌研究了十多年的人工智能模型。
# [( ~, y4 }8 k' G% o3 T* r6 D5 t' o周一,Hinton 在推特上发文称,因为离开了谷歌,他可以发表关于人工智能危险性的言论,而不用担心影响到谷歌。他强调,谷歌在人工智能上的行为非常负责。, v1 V8 Z7 ?3 a+ m/ [
+ |# f8 U9 c% Q, N3 U$ r+ s, k
' O, C6 ]- l# W) j! m, |9 |5 w% i
而 Hinton 的担忧似乎也引发了谷歌一些现职员工的共鸣。据测试谷歌人工智能 Bard 的一些员工称,AI 很危险,而谷歌也似乎并没有把人工智能的道德放在首位,反而急于求成,希望赶上 OpenAI 的 ChatGPT 技术。
5 l' Y3 }; {: |- h但谷歌首席科学家 Jeff Dean 澄清称,谷歌致力于负责任地开发人工智能,不断学习、了解这项技术可能出现的风险,同时也在大胆创新。
9 ^- B7 B+ K; I; T( g: [/ z; }除了人工智能的道德方面,Hinton 还谈到人工智能最终对人类劳动力市场的冲击,其可能造成律师助理、翻译和行政性工作方面的大量裁员。这也是包括 OpenAI 首席执行官 Sam Altman 在内的行业专家们的忧虑所在。
' u" ~" ^* i* I! d! }Hinton 指出,大多数人认为人工智能比人还聪明的未来还很遥远,他之前也认为这个可能性还需要 30-50 年时间去实践。但现在,他的想法改变了。 |
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
×
|