京东6.18大促主会场领京享红包更优惠

 找回密码
 立即注册

QQ登录

只需一步,快速开始

查看: 1003|回复: 0

独家 | 寒武纪二代芯片发布在即,提前揭秘如何挑战英伟达!

[复制链接]

24

主题

0

回帖

10

积分

新手上路

积分
10
发表于 2019-5-6 15:30:07 | 显示全部楼层 |阅读模式 来自 中国
「寒武纪在训练领域的低精度整数运算实现了关键性突破,这会是 AI 芯片领域的重大消息。长久以来,低精度计算的速度和能耗比优势备受业界关注,但迄今为止尚未有同类产品出现。」
「初创公司要贸然打入云端市场,简直就是自寻死路」。
& t$ S) V( a8 m! M# s长久以来,云端的数据中心市场被视为创业公司的禁地,因为英特尔、英伟达、AMD 等巨头林立,竞争太过凶残。
: o1 m; a" w5 T8 u  }但近年来,云计算势不可挡,云端芯片市场呈现爆发式增长,不乏勇者前来破局。4 S3 i' ?& J' E( [2 y% B* {) L
作为一家发源于中科院计算所、背靠多家「国字辈」资本、估值已经来到 30 亿美金的硬核创业公司,寒武纪挑战云端市场的底气十足。
5 j8 g# |' k' T2018 年 5 月,寒武纪发布首颗云端 AI 芯片,并对外透露获得中国前三大服务器浪潮、联想、曙光的订单。据机器之心了解,滴滴、海康威视也已经成为寒武纪的客户。9 G) h1 R# y, m% l5 t
与此同时,寒武纪成数亿美元 B 轮融资。据机器之心了解,目前寒武纪的估值约为 30 亿美元,与今年 2 月完成 6 亿美元融资后成为「全球最具价值的 AI 芯片公司」的地平线不相上下。
+ u8 i/ C% W  E% M* j一年后,寒武纪二代芯片已经箭在弦上,这颗积蓄了中科院计算所研发实力四年之久的二代或将为行业带来不小震荡。
8 ~2 ^! o6 P! U8 G( X' U: Q机器之心独家获悉,寒武纪二代云端芯片或将于本月公布,同时我们采访到寒武纪技术研发相关知情人士、寒武纪云端芯片客户等多方信源,提前揭秘关于该颗芯片的细节亮点和核心技术。
# j; \9 K4 ^- }$ V4 W0 z这回有了中文名0 e  Y# V$ x$ t; @
据机器之心了解,寒武纪二代云端 AI 芯片代号为「MLU270」,延续上一代芯片「MLU170」的 MLU(Machine Learning Unit)系列。今年初,寒武纪已经为旗下芯片注册两大中文商标名,分别是「思元」、「玄思」。综上,寒武纪二代云端 AI 芯片中文名为「思元 270」。" i. N2 K) q1 ^' L$ x( Y# {
在今年的新品议程表上,虽然还名列有其他芯片,但「思元 270」及其板卡将会是重头戏。这也表明寒武纪将从终端向华为等品牌商授权 IP 的模式,转向主打云端市场的芯片方案提供商。6 ~, T. t# q1 i3 Y/ _  E
在芯片架构方面,寒武纪二代芯片将从上一代的「MLUv01」升级为「MLUv02」。考虑到视频数据正呈现爆炸性增长,成为数据中心的任务主流,寒武纪在「思元 270」里内建视频解码单元,瞄准海量的视频处理市场专门配置。3 ?1 s8 F* u7 L, l/ P
据机器之心了解,寒武纪「思元 270」在今年年初研制成功,制程工艺方面明显抛弃了此前终端市场的激进打法,选择仍然沿用台积电 16nm 工艺,定位于「专注云端训练计算」。
8 y- }8 y0 e  u/ s5 N9 L3 q对比两大巨头的主流云端产品线,英伟达去年 9 月发布并已发货的 Tesla T4 采用 14nm 工艺,AMD 去年 11 月发布的 Radeon Instinct MI60 和 MI50 采用 7nm 工艺,寒武纪这次似乎希望单纯依靠技术路线取胜,不再如去年对于 7nm 工艺寄予厚望。
* @, b3 Q4 {) O; e! A  l5 m- b- ^" Z「让英伟达难受」
/ b0 w/ B8 x- i0 K2 X' m9 \在芯片性能方面,「思元 270」的性能参数有意向业界标杆英伟达 Tesla T4 看齐。2 ~  v4 d' q, `8 p$ a
据机器之心目前了解到的情况来看,「思元 270」可支持 INT16/INT8/INT4 等多种定点精度计算,INT16 的峰值性能为 64Tops(64 万亿次运算),INT8 为 128Tops,INT4 为 256Tops。& u  @4 y% [8 l, i' X7 `2 W9 F2 f
对比 Tesla T4,FP16 的峰值性能为 65 Tops,INT8 为 130 Tops,INT4 为 260 Tops。
5 b, U0 F/ n* j; G0 P6 a功耗方面,「思元 270」功耗为 75w,与 Tesla T4 持平。
6 |9 c0 z  N/ J2 b  \$ W  j. J但值得注意的是,这些「理论峰值」不过是纸面规格,真正实测水平相比理论峰值通常有一定缩水。据某大体量计算数据中心负责人,同时也是阿里云早期核心技术研发人员李立表示,「T4 在实测过程中,75w 功耗维持不了多久就降一半频率。」
- @6 }% X% B5 P: N, s" H据该负责人介绍,他在几个月前已经拿到「思元 270」的具体规格和特性,「对比而言,第一代 MLU100 是试水,第二代 270 就聚焦多了,威力非常大,NV 后面会很难受。」
! A- K% T! }. M  k, W与此同时,该负责人还指出,「寒武纪的方案在某些领域可能不会特别好使,尚待观察。」
- L9 E: n5 Z; O- j& ^核心技术解密% Q% ?& U# S( k' ?: @
在「思元 270」的性能参数展示上,可以看到寒武纪有意强调其整数计算性能方面的优势。据接近寒武纪技术研发的知情人士王一表示,正是寒武纪在训练领域的低精度整数运算实现了关键性突破。「那将会是 AI 芯片领域的重大消息,因为低精度计算的速度和能耗比优势一直受到业界密切关注,但迄今为止尚未有同类产品出现。」) K2 d: D% y! K' B  U6 D
这里需要引入一对运算表示法的概念,整数运算(定点运算)与浮点运算。9 D" i; ]" s, B! C$ }
它们是计算机计算中最为常用的两种运算表示法,顾名思义,其差异就体现在整数和浮点上,加减乘除运算都是一样的。( K9 i# v# b+ z/ ~
整数表示法,即所有位都表示各位数字,小数点固定;浮点表示法,则分成两部分,阶码和尾数,尾数就是数字部分,阶码表示乘幂的大小,也就是小数点位置。所以浮点数在做运算的时候,除了对尾数做加减乘除,还要处理小数点位置。
" P: s0 F3 {3 b; M4 V6 v基于两种不同的运算表示法规则,导致面对同样长度的整数和浮点运算,后者计算模式更为复杂,需要消耗更多的资源去处理,并且二者功耗差距通常是数量级的。简单来说,就是浮点运算占用的芯片面积和功耗相比于整数运算器都要大很多倍。
% g7 g# O; I% o. E3 @* M. c& M但浮点运算又有其不可取代性。首先,定点表示法运算虽然直观,但是固定的小数点位置决定了固定位数的整数部分和小数部分,不利于同时表达特别大的数或者特别小的数,可能「溢出」。
4 V4 g. N9 Q" x7 ^而浮点的精度虽然没有定点大,但是浮点运算的小数点位置可以移动,运算时不用考虑溢出,所以科学计算法一般都使用浮点。所谓「溢出」,指超出某种数据格式的表示范围。
! N5 r4 B# }# M" z此外,具体到使用 GPU 做训练,业界通常更倾向于浮点运算单元,主要是因为在有监督学习的 BP 算法中,只有浮点运算才能记录和捕捉到训练时很小的增量。由于训练的部分模块对精度要求比较高,所以通常必须是高精度的浮点运算,比如 FP32 才能搞定,FP16 都难。
' ^$ K& U7 H7 U; \/ N5 a综上,虽然浮点运算相比定点运算在功耗、计算速度、性价比等方面都不占优势,但截止目前,浮点计算在云端的训练场景中仍具有不可替代的特性,并且以高精度运算为主。+ K6 {5 }4 Q3 u
那么,如何在不增加芯片面积和功耗的前提下,如何大幅提升芯片做训练的运算能力就成为云端训练芯片的主要研课题之一。+ m- Y* m$ f* A. e# H
参考计算过程相对简单的推断计算思路,目前该领域的 AI 芯片多采用集成大量整数运算器或低精度浮点运算器。$ Z- p4 r- i- i5 c2 @. s0 j
面对计算过程更为复杂的训练计算,业界一直在尝试是否可能用性价比更高的定点运算器实现。「但这个问题在学术界也还没有普适的解决方案。」王一说道。
) Q# t$ l1 [- @  w" W/ ^6 g李立表达了类似的观点,目前大家的研究热点之一,就在于如何全部的定点单元(比如 INT8)代替浮点单元,或者以主要的定点单元配合少量的高精度浮点计算单元(比如 FP32)做更多的训练任务,目的是达到定点计算的快速度,同时实现接近高精度浮点计算的精度。. V& {; o! d- r2 w5 d( \" x
谈到目前该方向的研究成果和代表论文,李立表示,行业相关的研究文章已经有一些,不过都不具有普适性。
. u9 j# i' ~7 P3 S- J# Q& K7 R6 x王一进一步向机器之心透露了关于实现低精度运算的「关键心法」,要做好低精度训练,就要找到一个好的数据表示方法,既能表达最后大的数,又能让 0 附近的小量能够更好地表达,因此这个数据表示可能需要有自适应性,能随着训练的过程调整。
, \% F: C7 p: c, Y6 j/ O, d他还补充,「低精度训练确实未必要是浮点数,只要能把数域表达好,0 附近的小量表达好,什么样的数据表示都可以。」( Q' `  ~& E  }8 t4 K6 Z' r" G
综上,寒武纪在大幅度提升训练阶段的计算功耗比方面,很有可能采用的是以整数为主的低精度运算,这在目前已公布的 AI 芯片项目中属于首创。
7 d4 o9 C/ N' n: M( p% ?- u, K实际上,寒武纪在计算机计算领域的开创精神和技术积淀由来已久。早在 2014 年—2016 年期间,寒武纪创始人兼 CEO 陈天石、陈云霁两兄弟的研究就基本奠定了神经网络芯片的经典设计思路,也就是现在常谈到的 AI 芯片架构。
( ?: A% _: D+ \  i, |# y当时他俩的「DianNao 系列」论文横扫体系结构学术圈: Diannao(电脑)是 ASPLOS'14 最佳论文(亚洲第一次),DaDiannao(大电脑)是 MICRO'14 最佳论文(美国以外国家的第一次)……, r; ]. X( p' e! w  N
而在大洋彼岸,美国两家风头正劲的 AI 芯片公司 Graphcore、GTI(Gyrfalcon Technology, Inc.)正是沿用了 DianNao 系列论文的基本思路,采用大量堆叠的简单计算单元以实现复杂的云端计算。(机器之心曾进行过相关报道,《一款芯片训练推理全搞,Hinton 为其背书,Graphcore 完成 2 亿美元融资》、《30 年前的「CNN 梦」在这颗芯片落地,能效比高出 Tesla10 倍 | CES 直击》)
: [% }/ E9 S( j( m0 r此外,要切数据中心市场的蛋糕,一套完备成熟的软件生态也是其核心竞争力的重要体现。英伟达之所以能够在云端训练领域成为绝对主流,其 CUDA 软件生态的基础功不可没。1 X9 G0 S- f, M& V, y0 i
据机器之心了解,寒武纪从 2016 年起逐步推出了寒武纪 NeuWare 软件工具链,该平台终端和云端产品均支持,可以实现对 TensorFlow、Caffe 和 MXnet 的 API 兼容,同时提供寒武纪专门的高性库,可以方便地进行智能应用的开发,迁移和调优。
/ U) I  X4 y( O! U6 Z/ L7 P到今年,该软件工具链进行了哪些层面的迭代值得关注,比如是否可兼容更为流行的框架 Pytorch 等。8 _) y% i) m+ s# [2 h% T
「云芯」之争一触即发
! y% u8 U* n* J9 r) W: u9 B, K1 H尽管前述了寒武纪的种种硬核技术护体、大资本和客户加持,但想要真正在数据中心市场扎下根,以实现陈天石去年在发布会上谈到的目标:到 2020 年底,力争占据中国高性能智能芯片市场的 30% 份额,仍然面临着异常残酷的市场竞争。4 e% z3 J6 h0 ^3 y2 h
整体上,英特尔在数据中心服务器芯片市场仍然牢牢占据着的 95% 以上份额。/ n2 s7 {8 v. X+ B
而随着深度学习计算和人工智能技术逐步兴起的云端训练市场,同样被巨头绝对垄断。目前 90% 以上的云端加速采用英伟达 GPU,AMD、FPGA 占据非常小的份额,剩余市场还在被国内外芯片创业公司不断瓜分。
( z$ c3 b7 s9 }. ]" G据机器之心了解,近期还有一家国内知名 AI 算法公司将要入局云端推理芯片市场。据德勤最新出炉的报道显示,到 2022 年,全球人工智能训练市场的规模将达到约 170 亿美元,云端推理芯片市场的规模将达到 70 亿美元。/ u8 m, Z" s" q' h/ x
可以预见,2019 年,AI 芯片之争将从端燃及云上,云端的大体量、高增速市场势必迎来更多强劲玩家。* l7 i, v% U. n6 e* v" q  G
(应采访者需求,文中李立、王一均为化名。)( R1 `# i6 `5 d$ g7 V

0 L* w  K. F* b) h9 S0 |2 I来源:http://www.yidianzixun.com/article/0Lv84v5E
/ ^4 q0 ]+ q4 [8 v免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

×

帖子地址: 

梦想之都-俊月星空 优酷自频道欢迎您 http://i.youku.com/zhaojun917
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ|手机版|小黑屋|梦想之都-俊月星空 ( 粤ICP备18056059号 )|网站地图

GMT+8, 2026-3-19 09:44 , Processed in 0.041762 second(s), 24 queries .

Powered by Mxzdjyxk! X3.5

© 2001-2026 Discuz! Team.

快速回复 返回顶部 返回列表