datasheet

基于Volta的超级计算机强力推进人工智能与科学探索

2017-11-16来源: 互联网 关键字:NVIDIA  Volta  人工智能

最新发布的TOP500超算榜单中,NVIDIA加速系统数量新增34个,再创历史新高,总计达到87个。

但是对NVIDIA来说,这仅仅只是个开始。当明年六月的新一期榜单出炉之时,搭载NVIDIA全新Volta GPU架构的第一批超级计算机也将登场。美国橡树岭国家实验室(ORNL)的Summit将因此成为全球最强大的超级计算机之一。美国劳伦斯利弗莫尔国家实验室的Sierra和日本的ABCI(AI Bridging Cloud Infrastructure)也将紧随其后。

本周在丹佛举办的SC17汇聚了全球最强大的超级计算机制造商,而上述三台超级计算机无疑成为了全场焦点。

在展会上,与会人员可以通过各种演讲和展示,更多地了解GPU和Volta将如何推进科学和人工智能的发展。

AI拓展HPC新性能

Volta的性能是其上一代Pascal架构的5倍。像Pascal一样,Volta也将AI和传统的HPC应用程序在单一的平台上结合在了一起。

高性能计算是现代科学的基石,它让研究人员能够模拟并预测现实世界中可能发生的情况,例如人体对新药物治疗的反应、或新能源的效率等。通过AI和HPC的结合,Volta能够使研究人员借助AI,从数据中获得洞察,并加速科学探索的进程。

Summit、Sierra和ABCI都采用了NVIDIA Tesla V100 GPU加速器,它将100个CPU的计算能力集成到了一个GPU中,同时能耗仅为上一代GPU的一半。三者都同时搭载了CPU和GPU,全部通过NVIDIA NVLink高速互连技术进行连接。

Summit彰显性能新高度

Summit为满足全球研究人员和科学家对于计算资源不断增长的需求而打造。预计其最高性能将达到200 petaflops(对于AI应用能达到3 exaflops以上),超越当前超级计算领域的世界冠军——最高峰值达到125.4 petaflops的中国神威·太湖之光。这一计算能力也相当于一直以来美国最强大的系统——ORNL的Titan超级计算机的5倍。

“对于我们来说,最在意的不仅是它顶尖的性能本身,而是我们可以利用Summit进行科学研究,” ORNL国家计算科学中心科学计算组负责人Tjerk Straatsma如是说。

有了更高的计算能力,研究人员就能够解决更大、更具挑战性的问题,执行更精准的仿真,并做出更准确的预测,Straatsma说道。例如,研究人员计划借助Summit打造一个项目,旨在预测气候变化的长期影响。其他应用还包括加速新药开发、提高植物燃料成本效益、或助力清洁的混合能源广泛使用等。

高性能的 Sierra

Sierra将成为美国能源部管理并保障国家核武器、以及防止核扩散和实施反恐计划的首要系统。预计,Sierra的最高性能将达到125 petaflops,它能提供的性能也是目前最快的LLNL系统Sequoia的5~10倍。

LLNL计算物理项目副主任Chris Clouse说,有了这些新增的功能,科学家们将能够以更高的保真度进行仿真,并运行现今高性能计算机无法实现的三维仿真。

他还表示,该实验室还计划将Sierra用于基础科学应用和AI研究,旨在实现更加稳健且精准的仿真。

橡树岭国家实验室的超算项目还包括CyberShake地震危险性地图,它能够为工程师提供设计更多地震安全结构所需的信息。图片由南加州地震中心提供。

ABCI—面向AI而设计

由日本国立高级工业科技研究所(National Institute of Advanced Industrial Science and Technology)运营的ABCI将于2018年作为全球人工智能创新平台正式亮相。ABCI的预计峰值将能够达到37 petaflops,其在深度学习环境下可达到550 petaflops,将成为日本国内最快的超级计算机。

AIST表示,ABCI是针对人工智能、机器学习和深度学习而专门打造的,将“加速人工智能在实际商用和社会中的部署”。

关于 NVIDIA

NVIDIA(纳斯达克股票代码:NVDA)是一家人工智能计算公司。它在1999年发明的GPU激发了PC游戏市场的增长,重新定义了现代计算机显卡,并且对并行计算进行了革新。最近,通过将GPU作为可以感知和理解世界的计算机、机器人乃至自动驾驶汽车的大脑,GPU深度学习再度点燃了全新的计算时代——现代人工智能 。


关键字:NVIDIA  Volta  人工智能

编辑:鲁迪 引用地址:http://www.eeworld.com.cn/afdz/article_2017111611298.html
本网站转载的所有的文章、图片、音频视频文件等资料的版权归版权所有人所有,本站采用的非本站原创文章及图片等内容无法一一联系确认版权者。如果本网所选内容的文章作者及编辑认为其作品不宜公开自由传播,或不应无偿使用,请及时通过电子邮件或电话通知我们,以迅速采取适当措施,避免给双方造成不必要的经济损失。

上一篇:假如有一天,AI能自我“繁殖”?
下一篇:大联大诠鼎集团推出结合Semtech和钰太科技的产品的智能家居语音控制解决方案

关注eeworld公众号 快捷获取更多信息
关注eeworld公众号
快捷获取更多信息
关注eeworld服务号 享受更多官方福利
关注eeworld服务号
享受更多官方福利

推荐阅读

NVIDIA推动中国下一代车辆发展

众多中国初创公司、卡车制造商和供应商为新一代自动驾驶汽车选用NVIDIA DRIVE AGX 中国苏州——GTC China——2018 年 11 月 21日——自动驾驶技术正在带动一场交通运输业的革命——从个人旅行到物流和配送——这一变化在中国这一全球最大的汽车市场中更加明显。 中国约占全球汽车销量的三分之一,年产汽车约2,450万辆,在全球向自动驾驶的过渡中提供了巨大的推动力,且领先公司已选用NVIDIA为其新一代汽车提供技术支持。 本周在中国举行的NVIDIA GPU技术大会(GTC大会)上,新贵汽车制造商、货运公司和领先的供应商为其即将推出的自动驾驶系统平台选用NVIDIA
发表于 2018-11-26

AMD与Nvidia股价大跌 芯片股出现死亡交叉

10 月,与半导体有关的股票带动了科技股的卖压。一项指数显示出了技术性跌势讯号。投资人担忧中美贸易战。单单 10 月,费城半导体指数 SOX 下跌了 10.3%,并带动其他指数走低。升息及贸易战担忧,为股市利空。10 月以来,道琼下跌 5.2%,S&P 500 下跌 6.3%,以科技股为主的 Nasdaq 大跌 8.1%。周二,SOX 指数出现了死望交叉,即 50 日移动平均线跌破 200 日移动平均线。此一技术性指标显示空头市场即将来临。SOX 指数自 3 月 13 日所创高点 1464.62 点大跌了逾 16%。空头市场的定义则是 ,指数自近来高点下跌逾 20%。10 月跌幅最大的芯片股为 AMD 与 Nvidia
发表于 2018-10-25

NVIDIA再提黄氏定律:每10年GPU性能增长1000倍

   尽管英特尔口头上不承认摩尔定律失效,但现实就是摩尔定律已经不像之前那样有效了。没了摩尔定律,芯片行业该用什么来衡量变化趋势呢?NVIDIA联合创始人、CEO黄仁勋日前在欧洲GTC大会上再一次分享了他的看法,指出每10年GPU性能增长1000倍,而这个定律在这次会议上被戏称为黄氏定律(Jensen'Law)。GPU性能每10年提升1000倍的说法不是现在才有的,去年的GTC大会上老黄就这么提过,今年的GTC大会上也用过这样的PPT,现在欧洲GTC分会上老黄再一次分享了他在这方面的看法,重申了他对GPU算力发展的预测——单线程性能已经陷入停滞,每年只提升10%左右,而GPU性能每年提升50
发表于 2018-10-13
NVIDIA再提黄氏定律:每10年GPU性能增长1000倍

Nvidia释出开源GPU数据科学平台RAPIDS

   Nvidia推出名为RAPIDS的机器学习平台,其包含的软件函式库可以让数据科学家方便的使用GPU的运算能力,执行端到端的数据科学以及分析工作管线,RAPIDS使用CUDA进行低阶计算优化, 并提供Python接口方便数据科学家使用GPU的高效能运算能力。RAPIDS的目的是要提供企业高效能运算能力,以解决需要处理大量数据的高度复杂问题,像是信用卡盗刷、预测库存或是了解消费者的购买行为。 Nvidia创办人兼执行长黄仁勋提到,现今企业越来越仰赖数据驱动,而数据分析以及机器学习现正是高效能运算的热门领域。开源的RAPIDS是一套基于GPU分析的CUDA加速函式库,可用来执行机器学习
发表于 2018-10-13
Nvidia释出开源GPU数据科学平台RAPIDS

华为推出全新AI芯片叫板NVIDIA

说起华为的芯片我们首先想到的就是麒麟980、麒麟970,其实华为不只有麒麟处理器,也一直在研发AI芯片。在刚刚举行的华为全链接2018 (HUAWEI CONNECT 2018)大会上,华为轮值CEO徐直军公布了华为全栈全场景AI解决方案,并正式推出了昇腾910、昇腾310两款AI芯片。华为全栈全场景AI解决方案华为昇腾910华为全联接大会2018主题为“+智能见未来”,主要围绕人工智能技术。那么,华为发布的这两款AI芯片到底有多强呢?单芯片计算密度最大的华为昇腾910的半精度算力达到256 TFLOPs,比目前最强的英伟达V100的125 TFLOPs高出了一倍!昇腾910采用台积电7nm工艺制程,最大功耗仅为350W。华为昇腾3
发表于 2018-10-10
华为推出全新AI芯片叫板NVIDIA

为游戏产业重塑新高度,NVIDIA新一代RTX 20系列

NVIDIA新一代采Turing架构3款GeForce RTX 20绘图卡整体效能表现,已获得外界进行游戏评测,整体发现最高端GeForce RTX 2080 Ti在各主要游戏评测上平均帧率表现均程度不一优于前一代GeForce GTX 1080 Ti,GeForce RTX 2080效能表现也优于预期,部分评测的平均帧率甚至优于GeForce GTX 1080 Ti。 根据Fudzilla、TechSpot及AnandTech报导,GeForce RTX 2080 Ti有4,352个CUDA核心,较前一代1080 Ti增加21%,若连同Tensor及RT核心,可见2080 Ti的绘图芯片(GPU)晶粒大小增加达60
发表于 2018-09-26
为游戏产业重塑新高度,NVIDIA新一代RTX 20系列

小广播

About Us 关于我们 客户服务 联系方式 器件索引 网站地图 最新更新 手机版

站点相关: 视频监控 智能卡 防盗报警 智能管理 处理器 传感器 其他技术 综合资讯 安防论坛

北京市海淀区知春路23号集成电路设计园量子银座1305 电话:(010)82350740 邮编:100191

电子工程世界版权所有 京ICP证060456号 京ICP备10001474号 电信业务审批[2006]字第258号函 京公海网安备110108001534 Copyright © 2005-2018 EEWORLD.com.cn, Inc. All rights reserved
pt type="text/javascript" src="//v3.jiathis.com/code/jia.js?uid=2113614" charset="utf-8">