|
|
桑达尔·皮查伊(Sundar Pichai) 视觉中国 资料图* ?* t4 W, `" _) D" W
1 C) N: ]; x2 C# b+ A! ~9 G1 S9 U
“我一直认为 AI (人工智能)是人类正在研究的最深刻的技术,比火、电或我们过去所做的任何事情都要深刻。”当地时间4月16日,在哥伦比亚广播公司(CBS)的采访节目《60分钟》里,谷歌及其母公司Alphabet的首席执行官桑达尔·皮查伊(Sundar Pichai)表达了他对人工智能的快速发展及其对社会潜在威胁的担忧。4 ?. X+ G8 G# k% i3 D0 s, I8 G
皮查伊认为,社会需要适应新技术,各行各业或许都会受到影响,作家、会计师、建筑师,以及软件工程师在内的“知识工作者”或将被人工智能颠覆。+ Q" B9 R1 G5 d+ S" p! s# s/ E
“新技术将影响每家公司的每一种产品。”皮查伊举例,假如你是一名放射科医生,想象一下从现在起的五年到十年,会有一个人工智能与你共同工作,当你早上起来面对上百件待处理任务时,它能够告诉你哪些是需要优先处理的最严重的事件。; E( ], F$ }! a$ R
对于新技术带来的安全问题,皮查伊表示,虚假信息、假新闻和图像方面有很大问题,他强调生成式人工智能的风险之一是深度伪造视频(deep fake videos),在这些视频中,一个人的行为可能会被伪造,例如发布从未说过的某种言论。
. ~8 V" \- y$ r+ W* P“这些陷阱说明了监管的必要性。”他说道,“制作这些深度伪造视频的人必须承担后果。任何与人工智能合作过的人都会意识到,这是如此不同、如此深刻的东西,以至于我们需要社会法规来思考如何适应。” $ V8 H% t5 z) j: p) j
因此他强调必须有监管存在,“我们周围已经发生的技术,将比我们以前见过的任何东西更有能力。”# e4 R6 j0 v M8 r% E s( y: l
在采访中皮查伊表示,让他夜不能寐的一件事是谷歌的AI技术被以有害的方式利用。
7 J! G. I% m) q) J9 f在OpenAI推出ChatGPT后,谷歌开始部署自己的聊天机器人Bard。目前,谷歌一直对Bard采取谨慎的态度,强调这只是“实验性”产品。3 ?- V* S2 `% U2 {. M* N( I+ N' j
据介绍,Bard内置安全过滤器,以帮助抵御恶意用户的威胁。皮查伊表示,公司需要不断更新系统的算法,以打击虚假信息活动并检测深度造假行为,比如检测计算机生成的看似真实的图像。
7 y0 G5 n6 o4 x" {3 O9 s" S% J: `此前,谷歌发布了一份关于“监管人工智能建议”的文件。皮查伊表示,社会必须迅速适应监管滥用行为的法律和条约,以确保人工智能对世界的影响。% V2 j5 |& k( A- |4 j
皮查伊强调,“这不是一家公司可以决定的。这也是为什么我认为新技术的发展不仅需要工程师的努力,还需要社会科学家、伦理学家、哲学家等共同参与。”5 ]( A3 z: h" |& R
当被问及社会是否为像Bard这样的人工智能技术做好准备时,皮查伊回答说,“一方面,我觉得没有,因为我们的思考和适应的速度赶不上技术发展的速度。”
v. f3 C9 b* s& p( {6 `5 J& i, J& A不过,他补充说自己很乐观,因为与过去的其他技术相比,“开始担心其影响的人”很早就有所准备了。 |
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
×
|