NVIDIA Blackwell 平台发布,赋能计算新时代

发布者:CelestialLight最新更新时间:2024-03-19 关键字:NVIDIA  AI  模型 手机看文章 扫描二维码
随时随地手机看文章


 image.png?imageView2/2/w/1000


● 全新 Blackwell GPU、NVLink 和可靠性技术赋能万亿参数规模的 AI 模型

● 全新 Tensor Core 与 TensorRT- LLM 编译器将 LLM 推理运行成本和能耗降低多达 25 倍

● 全新加速器助推数据处理、工程模拟、电子设计自动化、计算机辅助药物设计和量子计算领域实现突破

● 各大云提供商、服务器制造商和头部 AI 企业纷纷采用


美国加利福尼亚州圣何塞 —— GTC —— 太平洋时间 2024 年 3 月 18 日 —— NVIDIA 于今日宣布推出 NVIDIA Blackwell 平台以赋能计算新时代。该平台可使世界各地的机构都能够在万亿参数的大语言模型(LLM)上构建和运行实时生成式 AI,其成本和能耗较上一代产品降低多达 25 倍。


Blackwell GPU 架构搭载六项变革性的加速计算技术,这些技术将助推数据处理、工程模拟、电子设计自动化、计算机辅助药物设计、量子计算和生成式 AI 等领域实现突破,这些都是 NVIDIA 眼中的新兴行业机遇。


NVIDIA 创始人兼首席执行官黄仁勋表示: “三十年来,我们一直深耕加速计算领域,力求实现像深度学习和 AI 这样的变革性突破。生成式 AI 是我们这个时代的决定性技术,Blackwell GPU 是推动新一轮工业革命的引擎。通过与全球最具活力的企业合作,我们将实现 AI 赋能各行各业的承诺。”


许多企业都在计划采用 Blackwell,其中包括亚马逊云科技、戴尔科技、谷歌、Meta、微软、OpenAI、Oracle、特斯拉和 xAI。


Alphabet 和谷歌首席执行官 Sundar Pichai 表示: “通过扩展谷歌搜索和 Gmail 等服务以服务于数十亿用户,我们对于如何管理计算基础设施有了更加深入的了解。随着公司业务进入 AI 平台转型期,我们将继续为自身产品和服务以及云客户扩大基础设施投资。我们有幸与 NVIDIA 建立了长期合作伙伴关系,并期待着将 Blackwell GPU 的突破性功能带给我们的云客户以及包括 Google DeepMind 在内的谷歌团队,以加速未来的探索进程。”


亚马逊总裁兼首席执行官 Andy Jassy 表示: “我们与 NVIDIA 的深度合作可以追溯到 13 年前,当时我们在 AWS 上推出了全球首个 GPU 云实例。如今,我们在云端提供了最为广泛的 GPU 解决方案,以支持全球那些技术上最先进的加速工作负载。正因如此,NVIDIA Blackwell GPU 能够在 AWS 上运行得如此出色,NVIDIA 也选择与 AWS 共同开发 Project Ceiba,将 NVIDIA 新一代 Grace Blackwell 超级芯片与 AWS Nitro System 的高级虚拟化和超快速的 Elastic Fabric Adapter 网络结合,以用于 NVIDIA 自身的 AI 研发。通过 AWS 与 NVIDIA 工程师的共同努力,我们将持续创新,使 AWS 成为每一个想要在云端运行 NVIDIA GPU 的用户的最佳选择。”


戴尔科技董事会主席兼首席执行官 Michael Dell 表示: “生成式 AI 对于创建更智能、更可靠和更高效的系统至关重要。戴尔科技与 NVIDIA 将携手塑造未来科技。随着 Blackwell 的发布, 我们将继续为用户提供新一代加速产品和服务,以提供推动跨行业创新所需的工具。”


谷歌 DeepMind 联合创始人兼首席执行官 Demis Hassabis 表示:“AI 的变革潜力令人难以置信,它将帮助我们解决世界上那些最重要的科学问题。Blackwell 突破性的技术性能将提供所需的关键算力,从而帮助那些世界上最聪明的大脑绘制新的科学蓝图。”


Meta 公司创始人兼首席执行官 Mark Zuckerberg 表示: “从我们的大语言模型到内容推荐、广告和安全系统,AI 已经在赋能一切,而且 AI 在未来将会日益重要。我们期待通过 NVIDIA Blackwell 帮助训练我们的开源 Llama 模型,打造下一代 Meta AI 和消费产品。”


微软执行董事长兼首席执行官 Satya Nadella 表示: “我们致力于为客户提供最先进的基础设施,以赋能其 AI 工作负载。一直以来,我们致力于为云端优化 NVIDIA GPU,通过在我们的全球数据中心采用 GB200 Grace Blackwell 处理器,我们得以在这一进程中再进一步,助力世界各地的组织实现 AI 落地。”


OpenAI 首席执行官 Sam Altman 表示: “Blackwell 实现了巨大的性能飞跃,并将加速我们提供尖端模型的能力。我们很高兴能继续与 NVIDIA 合作,共同提升 AI 计算。”


Oracle 董事长兼首席技术官 Larry Ellison 表示: “Oracle 与 NVIDIA 的紧密合作将推动 AI、机器学习和数据分析领域实现质和量的突破。为了让用户能够获取更多具有可操作性的洞察,正需要像 Blackwell 这样专为加速计算和生成式 AI 而打造的、更强大的引擎。”


特斯拉及 xAI 首席执行官 Elon Musk 表示:“当下的 AI 领域,NVIDIA硬件无可比拟。”


新架构以纪念 David Harold Blackwell 命名,他不仅是一位专门研究博弈论和统计学的数学家,也是第一位入选美国国家科学院的黑人学者。这一新架构是继两年前推出的 NVIDIA Hopper™ 架构以来的全新架构。


Blackwell 的多项创新技术为加速计算和生成式 AI 提供助力


凭借六项变革性的技术,Blackwell 能够在拥有高达 10 万亿参数的模型上实现 AI 训练和实时 LLM 推理,这些技术包括:


● 全球最强大的芯片:Blackwell 架构 GPU 具有 2080 亿个晶体管,采用专门定制的双倍光刻极限尺寸 4NP TSMC 工艺制造,通过 10 TB/s 的片间互联,将 GPU 裸片连接成一块统一的 GPU。


● 第二代 Transformer 引擎:得益于全新微张量缩放支持,以及集成于 NVIDIA TensorRT™-LLM 和 NeMo Megatron 框架中的 NVIDIA 先进动态范围管理算法,Blackwell 将在新型 4 位浮点 AI 推理能力下实现算力和模型大小翻倍。


● 第五代 NVLink:为了提升万亿级参数模型和混合专家 AI 模型的性能,最新一代 NVIDIA NVLink® 为每块 GPU 提供突破性的 1.8TB/s 双向吞吐量,确保多达 576 块 GPU 之间的无缝高速通信,满足了当今最复杂 LLM 的需求。


● RAS 引擎:采用 Blackwell 架构的 GPU 包含一个用于保障可靠性、可用性和可维护性的专用引擎。此外,Blackwell 架构还增加了多项芯片级功能,能够利用 AI 预防性维护来运行诊断并预测可靠性相关的问题。这将最大程度地延长系统正常运行时间,提高大规模 AI 部署的弹性,使其能够连续不间断运行数周乃至数月,同时降低运营成本。


● 安全 AI:先进的机密计算功能可以在不影响性能的情况下保护 AI 模型和客户数据,并且支持全新本地接口加密协议,这对于医疗、金融服务等高度重视隐私问题的行业至关重要。


● 解压缩引擎:专用的解压缩引擎支持最新格式,通过加速数据库查询提供极其强大的数据分析和数据科学性能。未来几年,每年需要企业花费数百亿美元的数据处理将越来越多地由 GPU 加速。


一个超大规模的超级芯片


NVIDIA GB200 Grace Blackwell 超级芯片通过 900GB/s 超低功耗的片间互联,将两个 NVIDIA B200 Tensor Core GPU 与 NVIDIA Grace CPU 相连。


为了实现超高的 AI 性能,搭载 GB200 的系统可与同在今天发布的 NVIDIA Quantum-X800 InfiniBand 和 Spectrum™-X800 以太网平台连接。这两个平台均可提供速度高达 800Gb/s 的高性能网络。


GB200 是 NVIDIA GB200 NVL72 的关键组件。NVIDIA GB200 NVL72 是一套多节点液冷机架级扩展系统,适用于高度计算密集型的工作负载。它将 36 个 Grace Blackwell 超级芯片组合在一起,其中包含通过第五代 NVLink 相互连接的 72 个 Blackwell GPU 和 36 个 Grace CPU。此外,GB200 NVL72 还内置 NVIDIA BlueField®-3 数据处理器,可在超大规模 AI 云中实现云网络加速、组合式存储、零信任安全和 GPU 计算弹性。对于LLM 推理工作负载,相较于同样数量的 NVIDIA H100 Tensor Core GPU,GB200 NVL72 最高可提供 30 倍的性能提升以及多达 25 倍的成本和能耗降低。


该平台可作为一个单 GPU,具有 1.4 exaflops 的 AI 性能和 30TB 的快速内存,是组成最新一代 DGX SuperPOD 的基础模块。


NVIDIA 提供的 HGX B200 是一个通过 NVLink 连接 8 块 B200 GPU 的服务器主板,支持基于 x86 的生成式 AI 平台。基于 NVIDIA Quantum-2 InfiniBand 和 Spectrum-X 以太网网络平台,HGX B200 支持高达 400Gb/s 的网络速度。


Blackwell 的全球合作伙伴网络


合作伙伴将从今年晚些时候开始供应采用 Blackwell 架构的产品。


AWS、Google Cloud、Microsoft Azure、Oracle Cloud Infrastructure 将成为首批提供 Blackwell 驱动实例的云服务提供商。同时 NVIDIA 云合作伙伴计划的公司 Applied Digital、CoreWeave、Crusoe、IBM Cloud 和 Lambda 也将提供上述服务。Indosat Ooredoo Hutchinson、Nebius、Nexgen Cloud、Oracle EU Sovereign Cloud、Oracle US, UK, and Australian Government Clouds、Scaleway、新加坡电信、Northern Data Group 的 Taiga Cloud、Yotta Data Services 的 Shakti Cloud 和 YTL Power International 等主权 AI 云也将提供基于 Blackwell 架构的云服务和基础设施。


GB200 还将通过 NVIDIA DGX™ Cloud 提供,NVIDIA DGX™ Cloud 是一个与领先的云服务提供商共同设计的 AI 平台,可为企业开发人员提供专门的基础设施和软件访问权限,使他们能够构建并部署先进的生成式 AI 模型。AWS、Google Cloud 和 Oracle Cloud Infrastructure 计划在今年晚些时候托管采用 NVIDIA Grace Blackwell 的新实例。


Cisco、戴尔科技、慧与、联想和 Supermicro 预计将提供基于 Blackwell 产品打造的各种服务器。Aivres、永擎电子、华硕、Eviden、Foxconn、技嘉、Inventec、和硕、QCT、Wistron、纬颖和 ZT Systems 也将提供基于 Blackwell 的服务器。


此外,越来越多的软件制造商网络,包括工程仿真领域的全球领导者 Ansys、Cadence 和 Synopsys,将使用基于 Blackwell 的处理器来加速其用于设计和仿真电气、机械和制造系统及零件的软件。他们的客户可以更低成本、更高能效地使用生成式 AI 和加速计算,来加速产品上市。


NVIDIA 软件支持


Blackwell 产品组合由生产级 AI 端到端操作系统 NVIDIA AI Enterprise 支持。NVIDIA AI Enterprise 中包含同日发布的 NVIDIA NIM™ 推理微服务以及 AI 框架、程序库和工具,企业可以部署在由NVIDIA 提供加速的云、数据中心及工作站上。


了解关于 NVIDIA Blackwell 平台的更多信息,请观看 GTC 主题演讲回放并注册 GTC 以参加由 NVIDIA 和行业领导者带来的会议。本届 GTC 将持续举办至 3 月 21 日。


关键字:NVIDIA  AI  模型 引用地址:NVIDIA Blackwell 平台发布,赋能计算新时代

上一篇:行业云平台推动中国企业的业务创新
下一篇:NVIDIA 发布全新交换机,全面优化万亿参数级 GPU 计算和 AI 基础设施

推荐阅读最新更新时间:2026-03-23 16:35

NVIDIA 宣布推出 Cosmos 世界基础模型和物理 AI 数据工具的重大更新
新模型可实现物理 AI 的预测、可控世界生成和推理 两款全新Blueprint为机器人和自动驾驶汽车后训练提供海量物理 AI 合成数据生成技术 1X、Agility Robotics、Figure AI、Skild AI 是最早采用该技术的公司 美国加利福尼亚州圣何塞 —— GTC —— 太平洋时间 2025 年 3 月 18日 ——NVIDIA 今日宣布推出全新 NVIDIA Cosmos™ 世界基础模型 (WFM) 的重大更新, 该模型引入了开放式、可完全定制的物理 AI 开发推理模型,让开发者以前所未有的方式控制世界生成。 NVIDIA 还推出了两款由 NVIDIA Omniverse™ 和 Cosmos
[工业控制]
<font color='red'>NVIDIA</font> 宣布推出 Cosmos 世界基础<font color='red'>模型</font>和物理 <font color='red'>AI</font> 数据工具的重大更新
NVIDIA 推出开放推理 AI 模型系列,助力开发者和企业构建代理式 AI 平台
由 NVIDIA 后训练的全新 Llama Nemotron 推理模型,为代理式 AI 提供业务就绪型基础 埃森哲、Amdocs、Atlassian、Box、Cadence、CrowdStrike、德勤、IQVIA、微软、SAP 和 ServiceNow 与 NVIDIA 合作,率先推出推理 AI 智能体,改变工作方式 美国加利福尼亚州圣何塞 —— GTC —— 2025 年 3 月 18 日 —— NVIDIA 今日发布具有推理功能的开源 Llama Nemotron 模型系列,旨在为开发者和企业提供业务就绪型基础,助力构建能够独立工作或以团队形式完成复杂任务的高级 AI 智能体。 NVIDIA
[网络通信]
<font color='red'>NVIDIA</font> 推出开放推理 <font color='red'>AI</font> <font color='red'>模型</font>系列,助力开发者和企业构建代理式 <font color='red'>AI</font> 平台
JFrog与NVIDIA合作,利用NVIDIA NIM提供安全的AI模型
为满足对企业级生成式AI日益增长的需求,JFrog Platform 集成了NVIDIA NIM,以提供 GPU 优化的AI模型服务 2024年9月18日 —— 流式软件公司、JFrog 软件供应链平台的缔造者JFrog,现已通过收购 Qwak AI将业务扩展至涵盖统一 MLOps 平台,近期宣布与NVIDIA NIM 微服务(NVIDIA AI Enterprise 软件平台的一部分)进行新的产品集成。 将JFrog Artifactory模型注册和NVIDIA NIM集成至JFrog Platform,有望实现在端到端软件供应链工作流中将GPU优化、预获批的AI模型与集中式DevSecOps流程相结合,使企业能够以极快的速
[网络通信]
英伟达H100即将上天!可运转简化大模型
“算力上天” 是指将数据中心、计算设备等算力基础设施部署到太空环境中,其核心目标是推动数据处理模式从 “天数地算” 向 “天数天算” 转变,实现数据的近源处理。即在探测器附近或太空中转节点(如卫星、空间站)实时分析数据,并快速反馈决策,从而提升任务效率和成功率。 北京时间 5 月 14 日 12 时 12 分,我国在酒泉卫星发射中心使用长征二号丁运载火箭,成功将国星宇航研发的太空计算星座 “021” 任务的 12 颗卫星发射升空。卫星顺利进入预定轨道,这标志着全球首个太空计算星座成功建成。无独有偶,美国初创公司 Starcloud 计划于今年 8 月将一颗冰箱大小的卫星送入太空,值得关注的是,该卫星将搭载英伟达 H100 芯片,
[嵌入式]
英伟达为台湾国研院自动驾驶研究提供仿真程序/计算机/模型
据外媒报道,当地时间4月18日,中国台湾国家实验研究院(国研院,NARL)与 图形 芯片 制造 商 英伟达 (Nvidia Corp)签署了一份有关推广 自动驾驶 技术的谅解备忘录(MOU),英伟达承诺将共享其多个自动驾驶仿真系统。 2月25日,国研院曾推出台湾首个封闭式自动驾驶汽车试验场CAR(网联汽车、自动驾驶汽车和道路 测试 )实验室,而且NARL与宏碁公司(Acer Inc)、7Starlake公司、国立成功大学(Na ti onal Cheng Kung Unive rs ity)、中华电信股份有限公司(Chunghwa Te lecom Co)以及其他公司也建立了合作伙伴关系。 NARL院长王永和表示,自动驾驶
[汽车电子]
<font color='red'>英伟达</font>为台湾国研院自动驾驶研究提供仿真程序/计算机/<font color='red'>模型</font>
TI 携手 NVIDIA 推出面向下一代 AI 数据中心的完整 800V DC 电源架构
TI 的完整电源解决方案包括多个突破性的参考设计,具备业界领先性能指标 TI 的 800 VDC 电源架构最大限度地提高了整个电源路径的转换效率和功率密度,助力 AI 数据中心实现更高扩展性与可靠性。 TI 与 NVIDIA 合作,为下一代 AI 数据中心开发了完整的 800 VDC 电源解决方案。 作为此次合作的一部分,TI 展示了一种从 800V 到处理器供电仅需两级转换的电源架构。 TI在 NVIDIA GTC 2026 上展示了该 800 VDC 电源解决方案。 中国上海(2026 年 3 月 20 日) – 德州仪器 (TI)近期推出完整的 800V 直流 (DC) 电源架构,该架构基于 NVIDI
[电源管理]
TI 携手 <font color='red'>NVIDIA</font> 推出面向下一代 <font color='red'>AI</font> 数据中心的完整 800V DC 电源架构
消息称现代汽车端到端自动驾驶系统 Atria AI 成熟度不佳,公司考虑转向英伟达技术
1 月 27 日消息,据韩媒 The Elec 报道称,现代汽车(Hyundai Motor)开发的端到端自动驾驶系统 Atria AI 在内部测试中获得了“非常低的评价”,评分仅 25(满分 100)。 据报道,现代汽车新任自动驾驶及高级车辆平台(AVP)负责人 Minwoo Park 在上任后对这套系统进行重新评估,公司使用 Waymo Open Dataset 等标准数据集对各大公司系统进行测试,其中特斯拉的系统得分约 90 分,Mobileye 和 Momenta 都在 50 分左右,明显高于 Atria AI 的表现。 因此,现代汽车认为自家 Atria AI 系统成熟度相当不足,继而对项目的前景产生疑虑,并可能考虑放弃
[汽车电子]
三星和英伟达宣布共建 AI 工厂,采购超 5 万块 GPU
10 月 31 日消息,英伟达 CEO 黄仁勋于本周四对韩国进行了 15 年来首次正式访问,三星今日宣布与英伟达达成新合作,启动一个配备超过 5 万块英伟达 GPU 的完整 AI 工厂项目。 三星表示,通过部署超过 5 万块英伟达 GPU,AI 将贯穿三星整个制造流程,加速下一代半导体、移动设备和机器人的研发与生产。 三星还计划借助英伟达加速计算技术,并利用 NVIDIA Omniverse 库实施数字孪生制造。 NVIDIA Omniverse 是一个用于构建和操作实时 3D 应用、服务和虚拟世界的模拟平台。数字孪生制造可创建物理制造过程的虚拟副本,使公司能够实时监控和分析整个流程。 三星计划建立数字孪生,以数字化、可视化其晶圆
[半导体设计/制造]
小广播
最新网络通信文章
厂商技术中心

 
EEWorld订阅号

 
EEWorld服务号

 
汽车开发圈

 
机器人开发圈

About Us 关于我们 客户服务 联系方式 器件索引 网站地图 最新更新 手机版

站点相关: 综合资讯 其他技术 下一代网络 短距离无线 基站与设施 RF技术 光通讯 标准与协议 物联网与云计算 有线宽带

索引文件: 4 

词云: 1 2 3 4 5 6 7 8 9 10

北京市海淀区中关村大街18号B座15层1530室 电话:(010)82350740 邮编:100190

电子工程世界版权所有 京ICP证060456号 京ICP备10001474号-1 电信业务审批[2006]字第258号函 京公网安备 11010802033920号 Copyright © 2005-2026 EEWORLD.com.cn, Inc. All rights reserved