datasheet

Icbank半导体行业观察

文章数:8545 被阅读:24108247

账号入驻

AI爆发带来的“超级摩尔定律”

2018-11-11
    阅读数:

来源:内容由新智元翻译自「zdnet.com」,作者Tiernan Ray,谢谢。


人工智能和机器学习的爆炸式发展正在改变计算的本质。


说这话的是谷歌软件工程师Cliff Young,而谷歌是人工智能最大的实践者之一。


Cliff Young上周在硅谷的一个芯片研讨会发表了主题演讲,他说,AI的使用已经达到了一个“指数增长阶段”(exponential phase),与此同时,关于半导体发展的经验法则——摩尔定律——已经陷入停滞。


摩尔定律的内容是:集成电路上可容纳的晶体管数目,约每隔两年便会增加一倍。经常被引用的“18个月”是由英特尔的David House提的:每18个月,芯片的性能提高一倍。


“这个时间有点神经质,”Cliff Young说:“数字CMOS的增速正在放缓,我们也看到英特尔在10纳米芯片的生产方面面临困境,还有格芯(GlobalFoundries)已经宣布放弃了7纳米制造工艺研发,与此同时,深度学习进展迅猛,存在经济需求。”CMOS即Complementary Metal Oxide Semiconductor(互补金属氧化物半导体),是计算机芯片最常见的材料。


Young认为,由于传统芯片难以实现更高的性能和效率,来自AI研究人员的需求正在激增。他一口气列举了一些数据:arXiv上关于机器学习的学术论文数量每18个月就增加一倍;在谷歌,专注于AI的内部研究项目数量也每18个月增加一倍。更为激烈的是,执行机器学习神经网络所需的浮点运算量每三个半月就翻一番


Young说,所有这些计算需求的增长构成了“超级摩尔定律”,他称这种现象“有点可怕”,“有点危险”,“令人担忧”。


“为什么AI领域出现了这些指数级的增长?”他说,“部分原因是,深度学习确实有效。”


他说:“很长一段时间里,我的职业生涯都忽视了机器学习,因为那时尚不清楚这些东西会不会流行起来。”


但后来,图像识别等领域的突破开始迅速出现,很明显,深度学习“非常有效”。Young说:“在过去5年的大部分时间里,谷歌一直是一家AI-first的公司,我们以AI为基础重建了大部分业务,从搜索业务到广告业务等等。”


谷歌内部领导AI研究的是Google Brain团队,它的需求是“巨型机器”。例如,神经网络有时是通过他们使用的“权重”数量来测量的,这些变量被应用于神经网络,以形成对数据的操纵。


传统的神经网络必须要计算的可能有数十万个这样的权重,甚至数百万,谷歌的科学家们说“请给我们一个tera-weight级的机器”,让计算机能够计算一万亿权重。


这是因为“每次你将神经网络的大小增加一倍,它的准确率就会提高。”AI的规则就是越大越好。


当然,为了应对这样的需求,谷歌一直在开发自己的机器学习芯片,即“张量处理单元”(Tensor Processing Unit,TPU)。由于传统的CPU和图形芯片(GPU)跟不上速度,TPU以及类似的部件是需要的。


Young说:“在很长一段时间里,我们都踌躇不前,并表示英特尔和英伟达在构建高性能系统方面做得非常好。但我们在五年前跨过了这个门槛。”


TPU于2017年首次亮相,标榜其性能优于传统芯片,引起了业界轰动。谷歌目前已进入TPU的第三次迭代,不过是在内部使用,并通过谷歌云提供按需计算节点。


TPU v3 Pod


谷歌继续制造越来越大的TPU实例。它的“pod”配置将1024个单独的TPU连接在一起,形成一台新型超级计算机,而且谷歌打算“继续扩展”这个系统。


Young说:“我们正在打造巨大的多处理器计算机,具有几十petabytes的计算力。我们同时向多个方向推进,tera-ops级的也在继续开发。”


他说,这样的工程“带来了超级计算机设计中会出现的所有问题。”


例如,谷歌工程师们采用了传奇的超级计算机公司Cray所使用的技巧。他们将芯片中负责神经网络计算的“巨大的矩阵乘法单元”与“通用向量单元”和“通用标量单元”结合在一起。标量单元和向量单元的结合让Cray的性能优于其他处理器。


谷歌开发了自己的新型算法结构来编程芯片。所谓的“bfloat16”是一种表示实数的方法,可以提高神经网络数字运算的效率。bfloat16的全称是truncated 16-bit floating point(截断浮点数),被通俗地称为“brain float”。


TPU采用最快的内存芯片,即所谓的高带宽内存(HBM)。在训练神经网络时,对内存容量的需求也在激增。


Young说:“内存在训练中更加集中。不只是数亿个权重,还涉及处理神经网络激活变量的问题”。


谷歌也在调整编程神经网络的方式,以充分利用硬件。他们在数据和模型并行性方面做了大量工作,包括“Mesh TensorFlow”等项目,这是对TensorFlow编程框架的改编,目的是将数据和模型并行性在pod-scale上结合起来。


有一些技术细节Young不愿透露。他指出,谷歌没有过多地谈论“互连”(interconnects),即数据在芯片中移动的方式,只是说“我们有巨大的连接器”,拒绝提供更多信息。


Young谈到一些可能并不遥远的更有趣的计算领域。例如,他建议通过模拟芯片进行计算,这种电路将输入作为连续值而不是作为1和0来处理,这样可以发挥重要作用。他说:“也许我们将从模拟领域进行采样,在物理、模拟计算或非易失性技术方面确实有一些很酷的东西。”


今天是《半导体行业观察》为您分享的第1763期内容,欢迎关注。


推荐阅读

集成电路人才引进政策汇总,哪个城市最给力?

进击的国产VCSEL芯片厂

市场需求下行,中国封测业未来之路如何走


关注微信公众号 半导体行业观察(ID:icbank),后台回复以下关键词获取更多相关内容

氮化镓 | 中美贸易 | 碳化硅 | 财报 | 被动元件 | 开源 | 射频 | 光刻机 | 展会

回复 投稿,看《如何成为“半导体行业观察”的一员 》

回复 搜索,还能轻松找到其他你感兴趣的文章!

关于摩尔精英

摩尔精英是领先的芯片设计加速器,重构半导体基础设施,让中国没有难做的芯片。主营业务包括“芯片设计服务、供应链运营服务、人才服务、企业服务”。覆盖半导体产业链1500多家芯片设计企业和50万工程师,掌握集成电路精准大数据。目前员工200人且快速增长中,在上海、硅谷、南京、北京、深圳、西安、成都、合肥、广州等地有分支机构和员工。


点击阅读原文了解摩尔精英

About Us 关于我们 客户服务 联系方式 器件索引 网站地图 最新更新 手机版

站点相关: TI培训

北京市海淀区知春路23号集成电路设计园量子银座1305 电话:(010)82350740 邮编:100191

电子工程世界版权所有 京ICP证060456号 京ICP备10001474号 电信业务审批[2006]字第258号函 京公海网安备110108001534 Copyright © 2005-2018 EEWORLD.com.cn, Inc. All rights reserved