|
8 y, T. I3 j3 J C) I* c
/ c' J* [6 \* R) V: d, b- u眼下,监管对生成式人工智能的关注已经在全球范围蔓延。
' R4 W/ a# k5 @. b& `5 q7 k0 ?记者丨杨月涵
/ D9 h% Y6 o. ]( j+ O6 G* xChatGPT 打开了人工智能的新大门,也打开了潘多拉的魔盒,一段时间以来,关于人工智能生成内容以假乱真、数据泄露以及侵权的风险被进一步放大。5 月 9 日,作为内容平台方的抖音开出了自己的药方——贴 " 水印 ",明确发布者应对人工智能生成内容进行显著标识。而这份倡议,也成为一个月前国家互联网信息办公室发布的《生成式人工智能服务管理办法 ( 征求意见稿 ) 》更为落地的版本。
& b2 r$ q9 F! P3 c5 J抖音出手,显著标识
3 v+ c$ D# r1 l9 E# C人工智能是一把双刃剑,ChatGPT 的出现与爆火,更强化了 AIGC 的这一属性。对此,面向创作者、主播、用户、商家、广告主等平台生态参与者,抖音发出了一份关于人工智能生成内容的平台规范暨行业倡议。
; ?% V; F- j/ F. z6 q( U8 ~$ ]5 }4 }抖音要求,在抖音应用生成式人工智能技术时,发布者应对人工智能生成内容进行显著标识,帮助其他用户区分虚拟与现实,特别是易混淆场景。同时,发布者需对人工智能生成内容产生的相应后果负责,无论内容是如何生成的。' S0 {0 W$ H; P" b* A
" w, ~+ F# p, @4 t: z# }
; k/ U! e3 j) C( x @; O! R. s+ T/ {1 X2 U4 d! F
虚拟人也被囊括在内。抖音提到,虚拟人需在平台进行注册,虚拟人技术使用者需实名认证。抖音表示,禁止利用生成式人工智能技术创作、发布侵权内容,包括但不限于肖像权、知识产权等。同时,禁止利用生成式人工智能技术创作、发布违背科学常识、弄虚作假、造谣传谣的内容。
1 I8 G( ?( Q, Q' q$ G" 各生成式人工智能技术的提供者,均应对生成内容进行显著标识,以便公众判断。同时使用统一的人工智能生成内容数据标准或元数据标准,便于其他内容平台进行识别。" 倡议提到。
/ Y2 n% p$ z; W: ^- B4 M为配合倡议,当天,抖音还发布了人工智能生成内容标识的水印与元数据规范。据悉,标识元数据规范即通过规范人工智能生成内容的元数据格式,在相关图片和视频元数据中写入信息,达到行业通用识别的效果。
# A- T. ]; B0 ^/ A大约一个月以前,国家互联网信息办公室起草了《生成式人工智能服务管理办法 ( 征求意见稿 ) 》,明确表示,利用生成式人工智能生成的内容应当真实准确,采取措施防止生成虚假信息。, d1 y. X. h, K
值得一提的是,5 月 10 日及为意见反馈的截止时间。如果《管理办法》获得通过,这也意味着中国将正式开启对 AIGC 的专门监管。' h/ `8 f$ M; L6 M5 I
北京社科院研究员王鹏分析称,比起此前的征求意见稿,抖音的这份倡议更为落地,让更多相关人员参与其中,尤其是针对平台上的大量创作者和使用者,督促大家能够遵守相关的规定,提前防范化解可能存在的风险。
2 ~4 a1 j+ B/ ]/ k以假乱真,真假难辨
2 z" t& j: Q) v. V( K! dAIGC 伴随着风险,几乎已经成了全球共识。5 月的第一天,全球人工智能的 " 高光 " 聚焦在了号称 " 人工智能教父 " 的杰弗里 · 辛顿身上。当天,《纽约时报》率先曝出辛顿从谷歌离职。辛顿坦言,他之所以离开谷歌,就是为了完全自由地说出人工智能所带来的危险。
( `: S. `0 [! ?苹果公司联合创始人史蒂夫 · 沃兹尼亚克也曾表达过他对人工智能散布虚假信息的关切," 如果有人想骗你,利用人工智能技术,欺骗就会变得简单得多 "。
+ U8 b1 j* i/ v2 g- x" c' c闹剧早有预演。此前,乔治华盛顿大学一名法学院教授就莫名成了 " 性骚扰者 ",原因在于 ChatGPT 生成的一份 " 有性骚扰历史的法学学者 " 名单中,这位教授就在其中。而在今年 2 月,一则关于 " 杭州市政府将于 3 月 1 日取消机动车尾号限行政策 " 的消息也在网络疯传。但随后杭州警方证实,该消息为 ChatGPT 写的假新闻。
$ P! V Y" a8 P1 J0 o9 S/ K; T
7 r5 K# o2 Y& ?; N6 a/ i6 _, L
) O7 ]9 R2 i; P1 g
, A/ K, l* d [4 y) m1 S( v+ \王鹏表示,生成式人工智能依托于大模型训练,在某些应用领域中发挥了重要的作用,甚至在一些情况下能够达到相对专业人员的水平,足以以假乱真。因此从传播、社交及娱乐等角度出发,尤其是在内容平台上,就容易产生一定的问题。9 x7 p5 F! ?" G7 p# E M
瑞莱智慧深耕于 AI 安全领域,针对生成式人工智能内容的虚实难辨,瑞莱智慧联合创始人萧子豪以 ChatGPT 举例称,技术方面,有一些方法被提出,比如针对合成文本的鉴别、数字水印等,但还存在难点。, H5 w7 c2 {5 T- k& R" K ^5 F
机器与人类撰写的文本差异性特征较少,机器合成文本的结果无论从结构和语义角度都能较好地遵循人类书写的规则,同时一个真人说话的方式也可能是多变的、结构有误的,因此很难单纯从文本本身就鉴别出是否由 ChatGPT 生成。另外,数字水印需要 ChatGPT 在生成内容时即添加水印,需要考虑到技术实现问题。' d2 R J' A; W4 X
" 从这一点来说,生成式人工智能,无论是音频、视频还是与虚拟人、数字人技术的结合,都可能带来一定的风险,需要有关部门、平台方加强监管,让生成式人工智能更好地服务人类社会的相关产业,提质降本增效。" 王鹏称。
) x5 u% j$ v1 i1 g* F2 }技术在飞,监管在追 ( `8 Z0 s8 h2 h3 h9 P
眼下,监管对生成式人工智能的关注已经在全球范围蔓延。几天前,美国白宫刚刚重磅宣布首个 AI 监管计划,美国国家科学基金会计划拨款 1.4 亿美元,用于启动 7 所新的国家人工智能研究院。& y- _5 ~& N$ z+ b& C5 j
; Q' w! k6 k3 i# ~& y. R# w6 q3 G
" G7 l! M* U: \' G/ N1 @* x7 h' E' U) k7 ?
紧接着,美国总统拜登就出席了在白宫举行的一个人工智能会议,会见包括谷歌、微软和 OpenAI 在内的顶级 AI 公司的首席执行官。0 `" V# L i% e# c; B
会后,美国副总统哈里斯在一份声明中表示,AI 技术有可能改善生活,但也可能会带来安全、隐私和公民权利方面的担忧。她告诉这些科技公司的高管,他们有责任确保其 AI 产品的安全,政府对 AI 方面的立法持开放态度。
8 T: o1 O5 l9 C+ K: z英国竞争与市场管理局也确认,该部门正在对人工智能市场展开评审,其中也包括大语言模型、生成式人工智能在内的基础模型。而在上个月,欧洲议会成员也就《人工智能法案》达成提案,对 AI 模型提出更严格监管要求。
* c. ^) Z0 c; ?- f4 n6 B天使投资人、知名互联网专家郭涛认为,当前,AIGC 产业监管方面存在相关法律法规与标准体系不健全、缺乏多部门协同的自上而下的监管体系、监管技术手段落后等突出问题,政府有关部门需要尽快建立健全 AIGC 研发与应用相关法律法规和标准体系,建立或完善伦理审查制度和监管体系,加强对科技企业、应用场景、使用者的监管,搭建多方参与协同治理平台,推动 AIGC 产业健康可持续发展。# ?" d$ ~& m+ F" X! j c3 R6 p8 F
" 生成式人工智能的监管也存在一些难点问题,比如平台方如何进行责任界定,内容如何确定到底出自真实的人类还是人工智能,以及取证难等。" 不过王鹏补充称,监管和创新技术、创新模式之间永远都是一个跟和被跟的关系,一定是先有技术,然后产生风险,再去规范。有了监管,有了倡议,也就能更有利于行业的发展。
) k0 Y2 F/ b4 `; g$ V+ ~编辑丨林琴 |
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
×
|