|
- |3 K- t2 V* M) i; d
0 L0 D! x6 F: k, c8 l* m) ^5 j- s4 G, R; g: H# i2 D
1996 年,互联网刚刚开始普及。一群技术先驱发表了《赛博空间独立宣言》(A Declaration of the Independence of Cyberspace),宣称各国政府无权干涉网络空间,“在我们这里,你们并不受欢迎。在我们聚集的地方,你们没有主权。”6 X: m+ x, P) [5 q
全球各国的互联网监管确实远远慢于互联网的发展。第一部系统的数据监管法案 GDPR 要等到宣言刊发 20 年后才在欧盟通过。但有了互联网监管经验后,各国政府对人工智能的反应速度显著加快了。
4 `# S4 z n7 x. [# M* a I2021 年,人工智能还被认为是一股过时的浪潮,欧盟已经提出监管人工智能的框架。ChatGPT 等生成式人工智能出现后,立法也加速了。ChatGPT 发布七个月后,世界上第一部监管人工智能的法规出现了。
. E4 s T) C& e$ n8 N6 月 14 日,欧盟的主要立法机构欧洲议会投票通过《人工智能法案》(A.I. Act)草案,严格限定了人工智能技术的使用场景和范围,并规定了人工智能模型开发者需要遵守的规定,违规者会被处以全球收入总额 6% 的罚款。今年底之前,欧洲议会、欧盟成员国和欧盟委员会的代表会确定最终条款。《人工智能法案》的部分要求是:4 F4 H6 Y2 R) b1 l# B9 j' Y+ [+ [
-生成式人工智能,如 ChatGPT,需要披露哪些内容是人工智能生成的,需要设计模型防止生成有害内容,需要披露训练模型时用了哪些有版权的数据。
* u k, {7 b0 |9 r h5 K. [-禁止在公共场所用面部识别等生物特征识别技术。8 S# l, y& U( z7 I2 P
-使用人工智能技术的玩具、航空、汽车、医疗设备和电梯产品进入市场前需通过全方位评估,并持续监管。4 ~7 }8 P/ r7 n
呼吁监管最积极的是技术领先的 OpenAI。过去几个月,OpenAI 的 CEO 山姆·阿尔特曼(Sam Altman)在美国拜访上百名立法者和政要后,到南美洲、欧洲、非洲和亚洲与多个国家政要交流,谈论人工智能风险,寻求合作监管人工智能。
; Z2 H# A7 f J. v/ v5 V$ j但欧盟的人工智能法规并不是阿尔特曼向往的监管。他希望建立一个类似国际原子能机构的跨国监管组织,负责审查、确定哪些公司有权开发、使用大模型。风投机构 a16z 合伙人马克·安德森认为,寻求这种监管的 CEO 与从禁酒令中获益的私酒贩子没什么区别,“形成监管壁垒,建立政府支持的人工智能供应商联盟,他们会免受创业公司和开源竞争的影响,就能赚更多钱”。
X) m, k- R6 X2 t% G4 u0 n而欧盟的新法规,要求科技公司公布用了哪些受版权保护的数据训练模型,可能会削弱技术领先者的优势。/ @! T# z" A7 [1 T* t" c
一方面,现在训练一个人工智能大模型的方法相对透明,大模型的质量主要靠训练用的数据集。今年发布 GPT-4 时,OpenAI 不再公布具体的训练数据,理由是竞争更激烈了。; J4 ~% x- o6 R! l8 |3 E
另一方面,欧盟的法规要求 OpenAI 公开数据来源。而 AI 公司普遍私下采集数据训练模型,通常很难被发现。
% v7 H0 w/ v7 l5 W) N" `The Information 今天报道称 OpenAI 正在采集 YouTube 的数据,训练下一代能处理文本、图像等多种数据的大模型。按照要求,YouTube 的内容属于 Google 和视频制作者,OpenAI 无权使用。
9 K) ~! }2 |, C; P* M$ s据媒体报道,阿尔特曼一度公开表示 OpenAI 可能难以遵守欧盟的规定,会考虑退出欧盟。今年以来,意大利等国家已经因为数据问题禁用了 ChatGPT。(贺乾明) |
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
×
|