京东6.18大促主会场领京享红包更优惠

 找回密码
 立即注册

QQ登录

只需一步,快速开始

查看: 541|回复: 0

此「错」并非真的错:从四篇经典论文入手,理解 Transformer 架构图「错」 ...

[复制链接]

1586

主题

739

回帖

6687

积分

论坛元老

积分
6687
发表于 2023-6-13 17:37:28 | 显示全部楼层 |阅读模式 来自 江苏苏州
选自 Ahead of AI5 H& X* @8 P7 K
作者:Sebastian Raschka
+ Q3 e/ r; \; b9 `$ p机器之心编译/ P9 S' S! J' a1 _& R1 H. T
; n" @2 O( W/ r8 c2 }; L
编辑:马梓文$ |3 @2 W3 P  W4 i) p
从四篇论文入手,Sebastian 再谈 Transformer 架构图。( N- y2 o: [& d( k0 O+ u
前段时间,一条指出谷歌大脑团队论文《Attention Is All You Need》中 Transformer 构架图与代码不一致的推文引发了大量的讨论。
, r0 d1 n3 _4 ~! g4 k对于 Sebastian 的这一发现,有人认为属于无心之过,但同时也会令人感到奇怪。毕竟,考虑到 Transformer 论文的流行程度,这个不一致问题早就应该被提及 1000 次。2 ?  [! F, Q- x2 l( p' @9 \# k
Sebastian Raschka 在回答网友评论时说,「最最原始」的代码确实与架构图一致,但 2017 年提交的代码版本进行了修改,但同时没有更新架构图。这也是造成「不一致」讨论的根本原因。
: U% W- H5 i' l: \$ Z随后,Sebastian 在 Ahead of AI 发布文章专门讲述了为什么最初的 Transformer 构架图与代码不一致,并引用了多篇论文简要说明了 Transformer 的发展变化。5 g8 N" Y9 \4 Y6 c3 T  S

- h5 I" u( ?7 B- v# E6 z+ c
: A  f$ d. h/ G  _7 S' \0 r/ A/ b7 r  _
以下为文章原文,让我们一起看看文章到底讲述了什么:
& u- _: K+ G2 a; }" C5 d几个月前,我分享了《Understanding Large Language Models: A Cross-Section of the Most Relevant Literature To Get Up to Speed》,积极的反馈非常鼓舞人心!因此,我添加了一些论文,以保持列表的新鲜感和相关性。2 j. D( Q$ O) e4 |8 j, O
同时,保持列表简明扼要是至关重要的,这样大家就可以用合理的时间就跟上进度。还有一些论文,信息量很大,想来也应该包括在内。
9 M" N- \# k4 n* r4 f, _我想分享四篇有用的论文,从历史的角度来理解 Transformer。虽然我只是直接将它们添加到理解大型语言模型的文章中,但我也在这篇文章中单独来分享它们,以便那些之前已经阅读过理解大型语言模型的人更容易找到它们。
1 z0 ]2 E& ^! oOn Layer Normalization in the Transformer Architecture ( 2020 )
/ l) a( Q( E3 V. l% L虽然下图(左)的 Transformer 原始图(https://arxiv.org/abs/1706.03762)是对原始编码器 - 解码器架构的有用总结,但该图有一个小小的差异。例如,它在残差块之间进行了层归一化,这与原始 Transformer 论文附带的官方 ( 更新后的) 代码实现不匹配。下图(中)所示的变体被称为 Post-LN Transformer。- C( o8 u2 Z3 W* p1 G2 I
Transformer 架构论文中的层归一化表明,Pre-LN 工作得更好,可以解决梯度问题,如下所示。许多体系架构在实践中采用了这种方法,但它可能导致表征的崩溃。
5 E) J% V) h1 v1 S/ P因此,虽然仍然有关于使用 Post-LN 或前 Pre-LN 的讨论,也有一篇新论文提出了将两个一起应用:《 ResiDual: Transformer with Dual Residual Connections》(https://arxiv.org/abs/2304.14802),但它在实践中是否有用还有待观察。
( X/ b# L$ ?6 |2 y# Y
6 N& Z$ P% L* s! K8 w0 y: R+ {5 u' `0 ~$ k0 G( |1 Y
+ g4 |7 t1 ^, J) I& j
图注:图源 https://arxiv.org/abs/1706.03762 ( 左 & 中 ) and https://arxiv.org/abs/2002.04745 ( 右)7 O  ~$ D( W7 \9 T( ~
Learning to Control Fast-Weight Memories: An Alternative to Dynamic Recurrent Neural Networks ( 1991 ) $ k2 `- N+ j- F$ f6 W. L
这篇文章推荐给那些对历史花絮和早期方法感兴趣的人,这些方法基本上类似于现代 Transformer。
' j% @  d; f) r4 m2 E/ t例如,在比 Transformer 论文早 25 年的 1991 年,Juergen Schmidhuber 提出了一种递归神经网络的替代方案(https://www.semanticscholar.org/paper/Learning-to-Control-Fast-Weight-Memories%3A-An-to-Schmidhuber/bc22e87a26d020215afe91c751e5bdaddd8e4922),称为 Fast Weight Programmers ( FWP ) 。FWP 方法涉及一个前馈神经网络,它通过梯度下降缓慢学习,来编程另一个神经网络的快速权值的变化。
3 O7 w+ Y- ?. I1 p9 F! N  a4 \这篇博客 ( https://people.idsia.ch//~juergen/fast-weight-programmer-1991-transformer.html#sec2 ) 将其与现代 Transformer 进行类比,如下所示 :8 @* @" n$ A3 I# d9 S. g
在今天的 Transformer 术语中,FROM 和 TO 分别称为键 ( key ) 和值 ( value ) 。应用快速网络的输入称为查询。本质上,查询由快速权重矩阵 ( fast weight matrix ) 处理,它是键和值的外积之和 ( 忽略归一化和投影 ) 。由于两个网络的所有操作都是可微的,我们通过加法外积或二阶张量积获得了端到端可微主动控制的权值快速变化。因此,慢速网络可以通过梯度下降学习,在序列处理期间快速修改快速网络。这在数学上等同于 ( 除了归一化之外 ) 后来被称为具有线性化自注意的 Transformer ( 或线性 Transformer ) 。
# m* f2 q+ q4 W4 x- ~; ^* f正如上文摘录所提到的,这种方法现在被称为线性 Transformer 或具有线性化自注意的 Transformer。它们来自于 2020 年出现在 arXiv 上的论文《Transformers are RNNs: Fast Autoregressive Transformers with Linear Attention 》(https://arxiv.org/abs/2006.16236)以及《Rethinking Attention with Performers》(https://arxiv.org/abs/2009.14794)。
; H$ L9 w! E2 v2 K2021 年,论文《Linear Transformers Are Secretly Fast Weight Programmers》(https://arxiv.org/abs/2102.11174)明确表明了线性化自注意力和 20 世纪 90 年代的快速权重编程器之间的等价性。( Z* g$ d0 l' W. j+ s# Q$ U

* q$ C6 s6 ]* V( f; `; E( S. N* C' D) a6 I

: c- q1 e8 _3 J  i7 [* f图源:https://people.idsia.ch//~juergen/fast-weight-programmer-1991-transformer.html#sec2
$ g/ w% `' ^; d8 DUniversal Language Model Fine-tuning for Text Classification ( 2018 ) " |( V7 f8 S$ }( b7 M
这是另一篇从历史角度来看非常有趣的论文。它是在原版《Attention Is All You Need》发布一年后写的,并没有涉及 transformer,而是专注于循环神经网络,但它仍然值得关注。因为它有效地提出了预训练语言模型和迁移学习的下游任务。虽然迁移学习已经在计算机视觉中确立,但在自然语言处理 ( NLP ) 领域还没有普及。ULMFit(https://arxiv.org/abs/1801.06146)是首批表明预训练语言模型在特定任务上对其进行微调后,可以在许多 NLP 任务中产生 SOTA 结果的论文之一。
1 g3 m+ o* o) J5 s& M( k/ W4 pULMFit 建议的语言模型微调过程分为三个阶段 :
6 r4 y) `& C+ {) \5 s1. 在大量的文本语料库上训练语言模型;- F$ Y! P( e4 i
2. 根据任务特定的数据对预训练的语言模型进行微调,使其能够适应文本的特定风格和词汇;6 n# _+ e2 L7 ]& H, i
3. 微调特定任务数据上的分类器,通过逐步解冻各层来避免灾难性遗忘。; j( ?+ m7 n; B
在大型语料库上训练语言模型,然后在下游任务上对其进行微调的这种方法,是基于 Transformer 的模型和基础模型 ( 如 BERT、GPT-2/3/4、RoBERTa 等 ) 使用的核心方法。
) Z6 b  t. b, I) z. V然而,作为 ULMFiT 的关键部分,逐步解冻通常在实践中不进行,因为 Transformer 架构通常一次性对所有层进行微调。
2 ]& W5 [% g" w+ O9 s8 b8 l% q: {9 N% a8 Q& w- k: Z0 u
8 j# Y9 f6 L1 H$ D

3 @4 S- R* _+ k3 z* h2 M+ N! P& fGopher 是一篇特别好的论文(https://arxiv.org/abs/2112.11446),包括大量的分析来理解 LLM 训练。研究人员在 3000 亿个 token 上训练了一个 80 层的 2800 亿参数模型。其中包括一些有趣的架构修改,比如使用 RMSNorm ( 均方根归一化 ) 而不是 LayerNorm ( 层归一化 ) 。LayerNorm 和 RMSNorm 都优于 BatchNorm,因为它们不局限于批处理大小,也不需要同步,这在批大小较小的分布式设置中是一个优势。RMSNorm 通常被认为在更深的体系架构中会稳定训练。7 x! ~# p# k# w+ o* c# D' E. g
除了上面这些有趣的花絮之外,本文的主要重点是分析不同规模下的任务性能分析。对 152 个不同任务的评估显示,增加模型大小对理解、事实核查和识别有毒语言等任务最有利,而架构扩展对与逻辑和数学推理相关的任务从益处不大。
7 S7 l8 S$ r. h+ g" a1 d- L% [1 @. }/ t
: T5 n7 X6 ^2 s: s# o" a$ y
) {- |# H5 P2 K2 w5 D$ ]$ z' o) \
图注:图源 https://arxiv.org/abs/2112.11446
3 I# x% |: w* t" A' V原文链接:https://magazine.sebastianraschka.com/p/why-the-original-transformer-figure
  b/ G6 j6 V: c5 a7 u; N THE END
/ N: ^1 h9 u* X' b- @# A转载请联系本公众号获得授权
9 q2 z: k% \- a) h投稿或寻求报道:content@jiqizhixin.com

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

×

帖子地址: 

梦想之都-俊月星空 优酷自频道欢迎您 http://i.youku.com/zhaojun917
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ|手机版|小黑屋|梦想之都-俊月星空 ( 粤ICP备18056059号 )|网站地图

GMT+8, 2025-12-18 07:11 , Processed in 0.041330 second(s), 24 queries .

Powered by Mxzdjyxk! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表