|
: p4 m1 n7 I# l, {% W
' I; S& i) t/ k- y: t0 y5 l0 D2 w; u1 Y, e
1996 年,互联网刚刚开始普及。一群技术先驱发表了《赛博空间独立宣言》(A Declaration of the Independence of Cyberspace),宣称各国政府无权干涉网络空间,“在我们这里,你们并不受欢迎。在我们聚集的地方,你们没有主权。”
# X3 i1 O. e: M* t6 X; w s7 O全球各国的互联网监管确实远远慢于互联网的发展。第一部系统的数据监管法案 GDPR 要等到宣言刊发 20 年后才在欧盟通过。但有了互联网监管经验后,各国政府对人工智能的反应速度显著加快了。
, D" |/ t3 n6 v& p* F+ `3 P2021 年,人工智能还被认为是一股过时的浪潮,欧盟已经提出监管人工智能的框架。ChatGPT 等生成式人工智能出现后,立法也加速了。ChatGPT 发布七个月后,世界上第一部监管人工智能的法规出现了。
4 w ]" i0 W4 n- U6 月 14 日,欧盟的主要立法机构欧洲议会投票通过《人工智能法案》(A.I. Act)草案,严格限定了人工智能技术的使用场景和范围,并规定了人工智能模型开发者需要遵守的规定,违规者会被处以全球收入总额 6% 的罚款。今年底之前,欧洲议会、欧盟成员国和欧盟委员会的代表会确定最终条款。《人工智能法案》的部分要求是:, T0 y9 Z# Y- M1 Q, c7 y1 K4 t
-生成式人工智能,如 ChatGPT,需要披露哪些内容是人工智能生成的,需要设计模型防止生成有害内容,需要披露训练模型时用了哪些有版权的数据。3 e) B4 S6 M' S6 N* s$ U
-禁止在公共场所用面部识别等生物特征识别技术。 w D# w! @9 }
-使用人工智能技术的玩具、航空、汽车、医疗设备和电梯产品进入市场前需通过全方位评估,并持续监管。5 U7 P" G5 A( W
呼吁监管最积极的是技术领先的 OpenAI。过去几个月,OpenAI 的 CEO 山姆·阿尔特曼(Sam Altman)在美国拜访上百名立法者和政要后,到南美洲、欧洲、非洲和亚洲与多个国家政要交流,谈论人工智能风险,寻求合作监管人工智能。
" y m+ T5 O) |7 Z1 F但欧盟的人工智能法规并不是阿尔特曼向往的监管。他希望建立一个类似国际原子能机构的跨国监管组织,负责审查、确定哪些公司有权开发、使用大模型。风投机构 a16z 合伙人马克·安德森认为,寻求这种监管的 CEO 与从禁酒令中获益的私酒贩子没什么区别,“形成监管壁垒,建立政府支持的人工智能供应商联盟,他们会免受创业公司和开源竞争的影响,就能赚更多钱”。
6 L; v, Y6 ~3 V" c1 n而欧盟的新法规,要求科技公司公布用了哪些受版权保护的数据训练模型,可能会削弱技术领先者的优势。
3 [4 M! _9 _( X# z一方面,现在训练一个人工智能大模型的方法相对透明,大模型的质量主要靠训练用的数据集。今年发布 GPT-4 时,OpenAI 不再公布具体的训练数据,理由是竞争更激烈了。" q; Q% }( m" Y3 l- u
另一方面,欧盟的法规要求 OpenAI 公开数据来源。而 AI 公司普遍私下采集数据训练模型,通常很难被发现。
% }# d& x# g$ v" ~The Information 今天报道称 OpenAI 正在采集 YouTube 的数据,训练下一代能处理文本、图像等多种数据的大模型。按照要求,YouTube 的内容属于 Google 和视频制作者,OpenAI 无权使用。
# T8 `6 G1 H8 ^4 ?4 f/ Y9 G据媒体报道,阿尔特曼一度公开表示 OpenAI 可能难以遵守欧盟的规定,会考虑退出欧盟。今年以来,意大利等国家已经因为数据问题禁用了 ChatGPT。(贺乾明) |
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
×
|