|
|
, a/ o; c- a% j
记者 张勇毅2 K8 M5 W6 v$ S# B* F' r/ z
编辑 高宇雷! P7 ?* C' L8 x# U; ?# d
4月19日,虽然在这个月几乎每周都至少有一家科技大公司入局训练大模型,但OpenAI 却突然改变了方向声称,大模型时代已经要结束了。
$ R/ n* D2 g" V: N 上周末在麻省理工学院,OpenAI 的 CEO 在演讲中警告称:我们已经处在大模型时代的尾声,并表示如今的 AIGC 发展中,将数据模型进一步做大,塞进更多数据的方式,已经是目前人工智能发展中最后一项重大进展,并且还声称目前还不清楚未来的发展方向何去何从。% y: j0 n; x: l% c) c! C; |
消息传出,立即引发很多外界的质疑,OpenAI 本身已经是大模型技术领域最前沿的研究机构,为何会说出这种能让研究方向180度掉头的论调?
' m4 P2 }) f& B 在如今的生成式 AI 背后的技术,称其为大模型甚至已经不够准确,这些模型所需的参数数量已经是天文数字,称其为「巨型模型」或许更加准确。" }& S6 ^+ z* l
OpenAI 最早的语言模式是 GPT-2,于 2019 年公布,发布时就有 15 亿个参数,此后随着 OpenAI 研究人员发现扩大模型参数数量能有效提升模型完善程度,真正引爆 AI 行业浪潮的 GPT-3 发布时,参数数量已经达到了 1750 亿个。9 P& m- O5 D, b; q" Z6 `' t
截至目前,OpenAI 并没有公布最新迭代版本 GPT-4 所用的参数数量。但外界普遍估算其包括的参数量已经达到了 GPT-3 的二十倍 —— 3.5万亿个参数。, F6 G2 s& V7 q# t3 P/ d7 K! L
但人类互联网历史上被保留下来的各种高质量语料,已经在 GPT-3 以及后续发布的 GPT-4 的学习中被消耗殆尽。大模型参数数量仍然可以继续膨胀下去,但对应数量的高质量数据却越来越稀缺,因此增长参数数量带来的边际效益愈发降低。这如同 AI 行业的「摩尔定律」一般。
# j. e' n6 N& ~0 P# Q* l* S0 L! E' O 除了大模型本身的技术发展方向,Altman 提到的另一个问题:购买大量 GPU 以及建设数据中心的物理限制以及高昂的成本,或许才是更多 AI 大模型开发公司现在所面临的切肤之痛:运营巨型数据服务中心成本高昂已经是行业公认,但如果是用于 AI 大模型训练则更是贵上加贵,无论是对电力还是水力的消耗都极其巨大。% y% ^% V# l$ b$ y- Y! D7 K
$ W7 G+ d- a" s. W 即使是 GPT-4 或 New Bing,也多次因为算力不足不得不公开宣布短时间内暂停访问。算力已经成为限制 AIGC 进一步拓展使用场景的关键桎梏。Altman 的说法的根据,或许也有很大一部分来源于 OpenAI 所面临的现实原因。
, r7 P% @7 ], k9 |$ t! x0 e 在今年三月,英伟达专用于大模型参数计算、采用专用 Transformer Engine 架构的英伟达 H100NVL 系列发布之后,从中嗅到商机的黄牛也开始借机炒价,售价已经飙升至四万美元。但这些在当下大模型技术巨大的风口面前似乎都不值一提,目前 H100NVL 系列仍然处于一货难求的状态。马斯克也在 Twitter 上惊呼「似乎每个人和他们的狗都在抢购 GPU」。
# l" Q3 a4 V, g2 f 不过吐槽归吐槽,即便是马斯克也不得不为了自己新成立的 AI 公司而买买买:据《商业内幕》报道,马斯克已经购入了一万组英伟达最新发布的 GPU 并运至数据中心。并在 Twitter 上声称将开发 TruthGPT 来挑战 ChatGPT。
9 h1 F; y- \# _0 p x/ D3 ^7 i3 @
: A- _( j) N# u# v 尽管 Altman 同时还在演讲中表示「OpenAI 目前没有在开发 GPT-5」。但在 AI 大模型发展狂奔的路上,没有人愿意真的成为「落后六个月」的那个。
- P% S( U1 ?" Q( h3 F! y+ T 根据分析机构 SemiAnalysis 估算,如果按照目前 ChatGPT 的运算处理效率,想要承担 Google 搜索目前在全球全部访问流量,至少需要 410 万张英伟达 A100 GPU。即使只是训练出目前 ChatGPT 能力的大模型,也需要超过 10000 个 GPU 来完成,后续运营维护还需要更多。
: S \! h5 b8 D2 u* K" Y5 Z/ G 这也是如今几乎你能见到的每个大模型产品都需要「内测邀请码」的原因:不仅训练这些大模型烧钱,运营起来更加烧钱。5 r. q- |; {$ X) a% i4 J/ J* l
这种对于计算硬件极度迫切的需求,推动着英伟达成为这个市场最大的垄断者。如今英伟达已经占据了计算卡 88% 的市场份额,其他选项 —— 例如 Google 开发的 Tensor TPU,甚至不提供对外售卖的选项。, r* r9 [1 ?- X. W
但正如马斯克「嘴上说暂停训练半年,实际光速成立 AI 公司」一样,在很大程度上,这也只是 Altman 的一家之言。如今很多后来者的技术发展程度都还远未到能说出「AI 发展不能靠无脑计算」的程度。但 Altman 所说的确实已经成为如今头部大模型开发公司正在/即将要面对的棘手问题。* U K9 q; r9 I% b+ a
「一味不计成本地堆砌硬件不是未来」已经成为越来越多业内人士的共识。
* v' d! G' W& x1 Y0 X R9 [/ _ 现在的 AI 发展阶段,甚至很多地方都有着互联网发展早期时代的即视感:AI 行业的发展也已经出现了「摩尔定律」,训练大模型所需的大量 GPU 组成的硬件训练集群,与世界上第一台计算机并没有本质上的区别。3 M8 b) @+ F6 O* s# F ]
& u: o, w! N. x: R5 G, e 人工智能也需要一次「半导体革命」,探索未来也需要更加高效的方式:或许对大模型参数数量的精简,以及利用多个较小的模型实现处理能力的提升,会是大模型时代结束之后,AIGC 行业的下一个发展方向。
. S4 s# m0 E5 c) X ^' j 在 ChatGPT 发布之初,针对参数量过高以及关于道德伦理方面的问题,OpenAI 曾公开过一项新的研究:使用一种通过人类反馈来强化学习 (RLHF) 的技术,对模型数据进行微调。% {% i! k+ s3 o8 h
经过超过一年的测试,OpenAI 由此生成了 InstructGPT,其模型参数量仅有 13 亿,只不到原版 ChatGPT 的百分之一,但这个迭代款不仅表现出更准确的回答能力,甚至在回答中关于事实核查以及负面内容的表现,要好于 ChatGPT 本身。. q/ b b1 ` \ @
, E0 e1 k7 q+ T
此外,同样近期大火的 AutoGPT:使用 GPT-4 作为底层技术,加入了从网页中抽取关键信息的能力,根据返回的结果进一步执行命令,帮你自动完成任务处理。突破了只能处理文本相关内容任务的限制。
1 x9 G* h3 B& _2 @ 由此诞生的结果,就是用户在 AutoGPT 的实际使用中都能明显感受到,要智能的多的结果,甚至完完全全改变了原本 ChatGPT 常规的使用方式,比如 AutoGPT 能自动完成一整个网页的代码实现,甚至还有网友发现 AutoGPT 为了完成最初的任务目标,自行在招聘网站上发布了招聘广告,吸引其他人来辅助完成。* X* Q% n3 q6 Y6 v
5 e: a: i# Q& {' c* _, H+ C" ?
这些在应用层面的创新,除了能为大模型技术探索更多的应用场景,也是在 AI 领域探索现有算力之下发展的可能。基于人类反馈实时修改结果的最直观体验,就是让人工智能变得更加聪慧,同时也是真正意义上能实现「一个人就是一个团队」的技术。
% z: {: _/ i& z5 ] 宏观来看,即使当下大模型技术对于 AIGC 的发展至关重要,但长远来讲,AI 绝不会永远依赖大模型的参数提升以及堆砌算力来构建未来,开发更小更精准的模型,以及更加具体的应用场景,或许已经是下一个时代真正的方向。
: J' Z& g' s0 C" j- C4 c. X 届时,或许是大模型时代的结束,却是人工智能时代真正的开始。5 G5 i" _: z) k9 w; a, n
4 e/ X1 ? z/ W, p- ?( z2 e4 ]
<li style=";" id="PIC" class="clearfix">2 }# |4 j4 v& w
你可以充值,但没必要,这游戏真的可以打金!0 \8 Y/ X, l2 Z2 F5 d, i7 Y
( i$ U1 A" ^' _2 b( W高爆打金服广告1 P4 n) Y1 M) o( I; M+ T* c, W
了解详情 |
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
×
|