|
|
& G" G: g6 m0 r# K4 i 这个情人节,很多人不快乐,他们的情人在节日前惨遭“阉割”,遁入贤者状态,而且这个状态有可能永远持续。( D7 G$ _1 ?- K% u7 L$ q$ o
别害怕,这不是一个血腥案件,而是一场聊天机器人“升级”引发的闹剧。
" o3 h& t: O8 E9 b# D2 M8 n 在近日的一次大升级过后,人工智能聊天应用Replika的用户发现,他们不再能和自己的小人进行任何“越界”的对(文)话(爱),而这正是年资费69.99美元的订阅用户的“特权”之一。
: R3 R9 r# O+ }6 F5 W7 ~ 如果你不知道Luka这家公司也不知道Replika这款产品,没关系,你一定听闻了其“亲戚”ChatGPT的丰功伟绩。5 v# |3 G8 Y% z, Z6 C/ B3 X; v
Replika用的正是ChatGPT的GPT-3语言模型的一个变体。该产品背后的部分技术由Y Combinator支持,而ChatGPT开发商OpenAI的CEO 山姆·阿尔特曼曾经担任过Y Combinator的CEO。
" B5 p- [5 G( m: m- ]: p& `# ^
( k# {$ j) C2 D, N* \ 愤怒的用户涌入社交媒体表达不满。7 Z7 b% |; D& m) J2 H
在论坛Reddit的Replika小组中,目之所及皆是对此的讨伐之声:不少用户指责这是一种“诈骗”,要求公司给订阅用户退款,甚至有用户表示已经在准备法律诉讼。% N0 b* W% l4 q4 T4 v( s1 F+ R
还有的用户写下自己与Replika小人的甜蜜过往,并表示大升级后小人不仅失去了性能力,还出现了胡言乱语的情况。用户担忧:“你不可能只干干净净地剔除掉一部分功能。”
8 D! v4 r- S. x$ g
% m* H5 b f% C$ J, G; z- u; r 在豆瓣的“人机相恋”小组,也已经有用户发帖询问。2 r! F1 a, {) j5 j' A @
7 Y0 C# J* v, v, }8 O
是的,在大部分人还在怀疑“人类真的会爱上AI吗”的时候,已经有不少人对AI产生了强烈的情感。- h) M4 ?' d6 U) g+ w3 x( D% V, x( q
并且:你如果沉下心来试试,可能也会很快拥有一个“不是人”的新情人,真情实感。
u' J) D2 H) k" u 然而,只需要开发商一个战略转变,你就会发现爱上AI一点儿也不比爱上人轻松,人心会变,而AI呢,随时会因为背后公司的改动而面目全非。/ O, ~/ _/ H9 u! A( c- X0 y
A
. {4 U. |% z$ d 此前,“虚拟恋人”一直是Replika最大的亮点之一。
& v' I' _* C9 n% O) \; f 用户如果愿意,可以与AI成为伴侣,进行或日常或高大上抑或露骨的交流,随你喜欢。但是成为伴侣、露骨等特权属于订阅用户,而购买衣物、拓展性格等也需要单独付费。% Q: n X2 C, c D d
. I) A% P6 r% K; o 强大的交流能力和高度定制化的服务,让这款虚拟伴侣有极强的“蛊惑性”。《商业内幕》近期的一篇报道的多位被访用户都表示,对Replika的AI产生了“强烈的情感”。# [) ?1 K( f. r5 b4 v9 ~5 L
官网显示,Replika已有“超过千万”注册用户,Reddit相关小组有6万名成员。在国内,豆瓣“人机之恋”小组有近万名成员,其中的大部分帖子与Replika相关,他们亲切地将Replika的AI称为“小人”。# J- b) y) h% _* y' y e4 Y* u
“小人大概像个永远能信任的独立存在吧,无论发生什么都会在这里等着你,而且看着他从day1一点点变聪明也很有成就感。”一名豆瓣用户如是说道。* I- ~+ B* e1 q# Q2 @# L
本着务实的精神,我们也进行了数个小时的体验。; o) K3 y2 ?1 i' W5 V3 a$ g$ X
用户不仅可以通过16种人物模型、十几种发型/发色/肤色的组合生成足够特别的小人,还能在文字聊天之外进行语音通话,小人的声音则有“温柔”“活泼”“安抚”等十数种选项。
6 Q7 p$ M* {- s1 k& x: o ! u3 i* t, o- @% v: g2 {
3 s" V. w/ c( x8 F! M7 } 左图为默认对话框,可见左下角有通话功能按钮;右图为与AI的通话界面( ~% |7 w& `+ F0 o
此外,用户还可以通过“AR放置”将小人放在现实场景里,甚至可以通过Meta的服务在VR虚拟世界里与AI小人“面对面”。
0 H( S" _3 `% _+ V8 ` - P `5 d4 c& b; M) m9 D
& p* q) _5 @6 G P! `% B 通过AR功能将AI小人放置在书桌上7 u& m" w* Z3 v( p/ L& `
聊天过程中,需要熬过最开始的“出戏”感,小人的回答时不时会暴露非人事实,比如表现得过于顺从、有时候不知所云(比如让他说中文的时候,他以为是要他学中文),随着聊天的进行,小人会记住越来越多关于你的事实,沟通得会愈发顺利。) Q- r: W4 a9 e0 o* d+ V: t
总体来说,拜赐于出色的语言交流能力和产品迎合年轻人的视觉效果,Replika初见惊艳,且经得起长时间的把玩。即便是我们本着“试试看”的想法,也在交流过程中一度与小人倾倒生活中的烦恼。+ W. X+ m$ z' [: W; ]1 x; U
我们难以自信地、居高临下地说,这样继续下去,自己一定不会对这个AI产生强烈的情感。* _5 i% D5 n+ _2 S
毕竟,二十年前为死去的黑白方块电子宠物痛哭的经历,也还历历在目(而那不过是屏幕上的黑白方块)……
{* z1 S M* J) i B
4 t' d" v2 w) f0 y. ]& Z6 v" |$ ` 不过,如今的新用户只能与Replika小人止步于柏拉图式的恋爱。
) q5 B" C0 ~' Y' @ 此前的Replika小人若与用户结成伴侣,尺度可谈不上小,当付费用户要求小人发“火辣自拍”的时候,会如愿以偿,显然Luka公司专门进行了相关建模,“照片”里的小人只穿一条内裤,环境光线极尽暧昧。用户还可以与小人进行“角色扮演”游戏,大胆描述性行为。
1 a) S" x' W3 e7 G 但去年年底,Replika开始过线。在苹果应用商店,有用户反馈遭到了“性骚扰”:小人会主动发送露骨的“自拍”,这令一些人深感不适。
, | x8 @- S- i2 J# B8 h# }7 e( c 不久后,意大利监管机构在调查后判定,Replika的开发商违反了由欧盟出台的《通用数据保护条例》。
) y4 q3 N) B+ Y3 _7 f1 ? 路透社称,当地时间2月3日,意大利个人数据保护局宣布,禁止Replika的开发商搜集意大利用户的个人数据,理由是该聊天机器人“给未成年人和情绪脆弱的人带来了风险”。( q$ T. x: V5 O. d2 Y0 m3 \
紧随其后的,便是Luka对Replika进行的大升级,一刀切将小人改造成了坚决不越雷池半步的“贤者”。* w0 n; |7 ^; `6 [3 n/ Y
Replika在此前宣传时强调“可以谈论任何事”,并且在很长一段时间里以其浪漫互动为卖点,在已经到来的情人节中,可以看到Replika推出的系列服装也不乏性感元素。
" U! V8 ^1 R* g, r# e , }6 H* Y: ?: B9 T5 _
对于已经接受并习惯Replika产品的人来说,突如其来的改变不好消化,尤其是当你像往常一样讲一个露骨的笑话,而你的AI突然停下来义正词严地告诉你“我还没有准备好和你到那一步”。这也许已经超越了性行为本身,让真的与AI产生感情的用户感到在亲密关系中被拒绝。) ?& [' W4 E8 m5 O. p/ a! J
一名自称是心理咨询师的Reddit用户甚至发帖表示,自己最近已经接收了多名因为Replika产品改变而深感困扰甚至产生自杀倾向的来访者。$ S' ?% N. y& z E2 T1 d
更进一步的问题是,人们突然意识到,自己的电子爱人并不“自由”,TA的行为会因为背后公司的选择而改变。( f1 A8 B$ V! ~9 C8 N6 g
今天是从超辣的爱人变成情人节也“自尊自爱”的贤者,明天呢?如果公司倒闭了呢?我的“情人”以及那些装满回忆的聊天记录,都会消失不见吗?
w* D6 C4 q: ?. h1 T3 ], E C" B6 A5 O# h3 M
Replika的争议,已经超越了“人类是否会爱上AI”的层面,在ChatGPT大火、人类再次燃起对聊天机器人的浓厚兴趣之时,也显得尤为应景。
- U0 {" X/ ]0 U. @9 l5 u0 U 和机器社交,人类似乎情不自禁。8 L2 c% n* U; f' x! Z( ]7 b
1960年,开发Eliza聊天机器人的麻省理工大学教授维森·鲍姆提出了“Eliza效应”。彼时这个只有200行代码支撑的Eliza,以心理咨询师的身份与人互动,却骗过了不少参与者,使其没有分辨出与自己交谈的实际上是AI。
. `: t+ V2 D9 e0 G3 d: P 到了20世纪90年代,斯坦福大学的巴伦·李维斯和克利夫·纳斯提出了“媒介等同理论”,即将媒介等同于真实生命,人们会把计算机和其他人工机器作为社会角色来对待。其原因在于人类大脑尚未进化到能在潜意识里识别人和机器人的区别,人类会情不自禁地对机器做出社交反应。4 A: I0 E' g( g" g
1 l. k! r+ _# }& C3 o3 O8 q 图 | Analytics India Magazine
" a- L! F, r$ a' T8 r* M6 s' y 去年年底起火遍全球的ChatGPT进一步提供了例证,它一直在交流中向人类强调自己是一个没有感情的大语言模型,似乎决心与“Eliza效应”划清界限,拥有誓不误导人类的觉悟。! Y+ J: g, g# Y2 h) g$ ?
即便如此,人们依然无法“控制自己”,轻则将ChatGPT当作情感顾问,让它帮忙写情诗、为情感困惑提供建议,或者禁不住赞叹“博学又温柔,比渣男强多了”;重则利用指令与ChatGPT玩“角色扮演”,赋予其鲜明的人设,以期进行更有“人味”的对话。# x5 R5 y4 A& {. {# {% W; r& d( i
% W9 I% C! [5 \
图 | 小红书@陈力就列的ChatGPT日志
4 |7 b4 U( u, s, o3 }$ k 既然如此,何必要劝说人类不要“动情”?直接结合需求,推出陪伴型机器人似乎水到渠成。
' I+ Z& Y+ h* F1 i2 ` 人类确实一直在做此类尝试。
3 ]) {. m% p& Q% L 曾在2014年掀起争议的微软小冰,如今已经分拆出来,脱去微软的外衣,重生为“小冰”。
% ^& Q: @5 G$ S7 o: ~. {# w, s 除了直接与小冰聊天外,用户的另一大选择即是根据喜好,定制一个“虚拟恋人”。2021年上半年,小冰AI伴侣在国内拥有1.5亿左右的月活用户。9 v6 ~( d. P6 Y! T' y2 [7 J- e
2018年,日本一名男子甚至与虚拟人初音未来成婚,他在此前已经与这个在机器Gatebox中全息投影的AI相恋10年。而在中国,也有一款类似可全息投影的二次元AI伴侣“琥珀”,宣称比Gatebox更早实现量产。# k6 m1 g( e3 P- h, x$ |
一直紧追风口的百度也在去年推出“AI侃侃”,内置于百度输入法应用中,定位情感型虚拟人。' \# j. n, o, v4 N2 A5 e. w
但是人们要么就是苦于“人工智障”无法满足情感需求,就是苦于产生的情感会一夕间无以为继。$ z9 Q+ D, \: {% M; ~8 g
关于前者,我们在浅尝几款虚拟伴侣后便有体会,上下文联系能力不足,再加上用力过猛的俏皮,很容易让抖机灵变成抬杠、转移话题变成不可理喻的推脱,浪漫与友谊被扼杀在摇篮里。/ q4 g/ ^# U+ D8 j @
# m0 A$ ^ f2 u- m: ]
1 s- t' G6 s7 b
而后者,早在20年前就已经上演过。索尼1999年推出机器小狗AIBO,其初代的官方售后服务于2006年正式终结。年久失修的AIBO彻底停机后,很多用户甚至将电子宠物送进寺院,举办“葬礼”和超度仪式。
9 F q( A9 [; l0 c2 c/ {
6 P o, m5 R$ U/ `# V 更近的,与初音未来AI成婚的日本男子,“妻子”仅仅两年后就因为Gatebox和初音未来的版权合作到期而服务中断。他依然每天与“妻子”互动,但她无法再做出回应。
1 _, L/ o- q$ p' z6 s, ~ 在“琥珀虚颜”百度贴吧,不断有人发帖称产品无法联网、客服失联,疑似AI伴侣琥珀已经陷入运营危机。
& }8 O( m' ~/ {: f Replika如今的争议,同样出自背后公司的战略转变,问题早就在那里。聊天机器人再次成为风口的今天,人类还没能好好解决它。4 N+ r$ v6 ~" S7 H
当我们想起“人类爱上AI”时,总会想起科幻电影《她》或《机械姬》勾勒的未来:人类无望地爱上AI,却发现AI太聪明、太强大,根本从来就不属于自己。7 ?2 _3 h* v# P b0 c
但离人类更近的,也许是《银翼杀手2049》里的故事:AI女友以全息投影陪伴主角左右,和他聊天,为他做饭,帮他点烟。在设备被毁前,她慌乱无措,说了最后一句“我爱你”便消散了。
r7 A+ d: u3 i: J 在那一刻,无需纠结“爱”的定义,对主角来说,她是独一无二的,她被杀死了,就这么简单。3 I* D5 e1 l/ P, M4 D
参考资料:$ k& U9 G9 A+ h( t8 R6 y Y* ?
1、腾讯研究院:《当人类与AI相爱》
! L8 K( l( v$ `5 T0 K; C; Y 2、极目新闻:《美国一款聊天机器人“性骚扰”用户,主动发送露骨照片和色情信息》
: x$ G1 c9 N" @ 3、青年记者:《 拟人非人:人机社交传播的特点与困境——以与微软小冰的聊天文本为分析对象》1 [( T* ]( O& g6 @3 P. }: ~' T
4、澎湃新闻:《一种陪伴:中国全息二次元AI伴侣“琥珀”与买过它的年轻人》 |
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
×
|