Arm CEO表示Arm比其他架构更适合数据中心的省电需求

发布者:EEWorld资讯最新更新时间:2024-04-19 来源: EEWORLD关键字:Arm 手机看文章 扫描二维码
随时随地手机看文章

Arm CEO Rene Haas日前表示,当前人工智能 (AI) 的爆炸式增长,特别是生成式人工智能 (gen AI) 的训练和操作,存在“无法满足的能源需求”,但他表示,Arm处于独特的地位,可以提供帮助,并指出最新的 Neoverse CPU IP 可以提供比竞争对手更好的能效。


“人工智能有潜力超越上个世纪创造的所有变革性创新。在医疗保健、生产力、教育和许多其他领域给社会带来的好处将超出我们的想象。”Haas声称。“为了运行这些复杂的人工智能工作负载,全球数据中心所需的计算量需要呈指数级增长。然而,这种对计算的永不满足的需求暴露了一个严峻的挑战:数据中心需要巨大的电力来推动这项突破性的技术。”


Haas 表示,如今,数据中心每年消耗的电力约为 460 太瓦时,相当于德国全年的能源消耗量。 他声称,到 2030 年,对人工智能的需求将增加两倍,超过世界上人口最多的国家印度的总耗电量。 “公司需要重新思考解决能源效率问题的一切,而这种思考自然应该包括转向 Arm 技术。”


目前,大多数数据中心都运行 Intel 或 AMD 的 x86 处理器,以及 Intel、AMD 或 NVIDIA 的加速器。 尽管 Arm 在嵌入式和便携式计算领域取得了相当大的成功,但它长期以来一直在努力打入数据中心——Haas 表示,随着最新 Neoverse 处理器技术的发布,这种情况正在发生变化,该技术已被亚马逊、微软、谷歌和甲骨文采用。


Haas 表示:“随着 Arm 部署的扩大,这些公司可以节省高达 15% 的数据中心总电力。这些巨大的节省可以用来在相同的功率范围内驱动额外的人工智能容量,而不是增加能源问题。从长远来看,这些能源节省可以运行 20 亿个额外的 ChatGPT 查询,为四分之一的日常网络搜索提供动力,为 20% 的美国家庭提供照明,为哥斯达黎加大小的国家提供了电力。”


为了用确凿的数字来证明这些说法,Haas 列举了一些公司的产品,比如


AWS 基于 Arm 的 Graviton:  Amazon Sagemaker 的 AI 推理性能提高了 25%,Web 应用程序速度提高了 30%,数据库速度提高了 40%,效率比竞争对手提高了 60%。 


Google Cloud 基于 Arm 的 Axion:与传统竞争架构相比,性能提高 50%,能效提高 60%,为基于 CPU 的人工智能推理和训练、YouTube、Google Earth 等提供支持。


Microsoft Azure 基于 Arm 的 Cobalt:与竞争对手相比,性能提高了 40%,为 Microsoft Teams 等服务提供支持,并与 Maia 加速器结合以驱动 Azure 的端到端 AI 架构。 


Oracle Cloud 基于 Arm 的 Ampere Altra Max:与传统竞争产品相比,每机架服务器的性能提高了 2.5 倍,功耗降低了 2.8 倍,并用于生成 AI 推理模型 - LLM 训练的数据汇总、标记化以及批量推理用例。  


不过,Arm 并不是唯一一家认为自己能够满足人工智能转型日益增长的能源需求的公司:英特尔刚刚在桑迪亚国家实验室完成了基于 Loihi 2 的 Hala Point 系统的部署,该系统使用了受大脑启发的神经拟态计算,与传统 CPU 和 GPU 部件相比,可实现更高的效率,而 NVIDIA 的 Blackwell 平台承诺能效比该公司上一代同类产品提高 25 倍,该产品采用了Arm 的处理器 IP 与 NVIDIA 的 GPU。

关键字:Arm 引用地址:Arm CEO表示Arm比其他架构更适合数据中心的省电需求

上一篇:英特尔以开放、可扩展的软硬件,携手生态共同释放AI潜力
下一篇:英特尔至强和AI PC等产品为Meta Llama 3生成式AI工作负载提供加速

推荐阅读最新更新时间:2026-03-19 15:30

应对端侧AI算力、内存、功耗“三堵墙”困境,安谋科技Arm China “周易”X3给出技术锦囊
AI大模型正加速从云端向边缘与端侧渗透,然而,算力、内存、功耗等却成了制约其规模化落地的“高墙”。专为AI计算而生的神经网络处理器(NPU),成为破墙关键。安谋科技Arm China“周易”X3 NPU IP,通过架构创新、软硬件协同优化与开放生态等,为应对端侧AI“算力墙”、“内存墙”、“功耗墙”困境给出技术锦囊。 锦囊一:应对“算力墙”,从“定点”到“浮点”,架构升级与算力灵活配置 端侧AI从CNN向Transformer迁移,对高精度浮点运算的需求激增。传统NPU受限于架构适配性差、算力调度效率低等,难以满足复杂AI场景的动态需求。为应对大模型对端侧算力的严苛需求,“周易”X3提供了高效的解决方案。 “周
[嵌入式]
应对端侧AI算力、内存、功耗“三堵墙”困境,安谋科技<font color='red'>Arm</font> China “周易”X3给出技术锦囊
Arm 扩展与清华大学合作,共筑产学研融合与人才培养新范式
Arm 控股有限公司(以下简称 Arm)昨日(12 日)与清华大学经济管理学院在北京正式签署合作协议 ,该协议是基于双方长期合作的基础,进一步扩大教学科研的实践和 AI 人才的培养。在此次合作协议中,双方不仅将在授课项目、教材开发、人才交流等方面展开合作,同时 Arm 捐赠专项资金,用于采购搭载 Arm 架构的国产服务器等科研资源,从基础设施底层支撑学院开展教学科研、大模型部署及数据推理分析工作。这一举措不仅将 Arm 与清华大学的合作拓展至技术应用层面,更标志着 Arm 在中国产学研生态建设的又一重要落地,为中国科技和产业人才成长注入新动能。 Arm 战略与中国副总裁 Philip Stanbury-Jones(左) 和
[嵌入式]
<font color='red'>Arm</font> 扩展与清华大学合作,共筑产学研融合与人才培养新范式
云开发者正加速向 Arm 架构迁移:构建面向 AI 时代的未来基础设施
云开发者正加速采用基于 Arm 架构的平台,凭借其无可比拟的每瓦性能和成本优势,更快落地可扩展并投产的 AI 工作负载。 人工智能 (AI) 正重塑数字格局,开发者也正面临全新挑战:基础设施不仅要具备强大算力,还需兼具可扩展性、成本效益和高能效等特征。当前,亚马逊云科技、谷歌、微软、Oracle Cloud Infrastructure (OCI) 及 NVIDIA 等超大规模云服务提供商与 AI 领军企业,均已基于 Arm 架构打造定制化解决方案,布局 AI 数据中心。 这一趋势正在蓬勃展开。2025 年头部超大规模云服务提供商的新增服务器算力中,有近半数是基于 Arm 架构。Arm Neoverse 平台正在为量
[网络通信]
云开发者正加速向 <font color='red'>Arm</font> 架构迁移:构建面向 AI 时代的未来基础设施
深入解析Arm Neoverse计算平台的技术架构与性能优势
十年前,云基础设施主要承担Web应用和企业级工作负载,其性能与功耗相对稳定且可预测;如今,云基础设施必须应对多样化工作负载的规模化扩展,保障多租户环境的安全,并将计算能力从数据中心延伸至数据产生的源头。 如今的云平台在全球各地运行,AI 工作负载对内存带宽和性能提出了更高的要求;与此同时,分布式系统使算力更加接近于用户和设备,而运营商则面临提升能效比、加强架构安全性、缩短部署时间的多重压力。 基础设施正朝着分布式、软件定义和 AI 赋能的方向演进,必须在固定功耗与成本限制内,实现高性能,并高效扩展。这正是 Neoverse 平台诞生的使命。 详解 Arm Neoverse 平台 Arm Neoverse 平台是一系
[单片机]
深入解析<font color='red'>Arm</font> Neoverse计算平台的技术架构与性能优势
Arm 赋能机器人:产品落地的底层技术
现在机器人和物理 AI 太热了,不光是初创企业,产业链上大部分企业都在开始寻找自己在这个新时代开启时候的位置。 从工厂车间到家庭服务,从仓储物流到医疗康养,机器人接下来配合AI技术会以前所未有的速度渗透人类生产与生活的每一个角落。 在这场深刻的产业变革中,芯片技术和背后的Arm,作为支撑全球机器人智能化升级的核心技术底座,究竟扮演什么角色?我们可以来讨论一下。 Part 1 机器人市场的发展 在Elon Musk拿出擎天柱机器人的时候,这个机器人更像是一个概念作品,但是随着英伟达和中国许许多多的创业企业,都在推动这个发展的时候,特别是欧洲经济政策研究中心(CEPR)预测,AI 有望为全球 GDP
[机器人]
<font color='red'>Arm</font> 赋能机器人:产品落地的底层技术
ARM64硬件中断处理机制深度解析
一、先搞懂:什么是硬件中断? 你正在用刷视频,突然收到微信消息 —— 这就是生活中的 “ 中断 ” 。对 64 (手机、服务器、设备的核心)来说, 硬件中断是外设(如键盘、网卡、)向 发送的 “ 紧急请求 ” :比如网卡收到数据要处理、到点要触发任务、按键被按下要响应,这些都需要 CPU 暂停当前工作,优先处理紧急事务。 没有中断机制的话, CPU 只能 “ 轮询 ” 外设(挨个问 “ 有没有事? ” ),既浪费资源又反应迟钝。而中断就像 “ 快递敲门 ” , CPU 不用一直等,收到再
[嵌入式]
<font color='red'>ARM</font>64硬件中断处理机制深度解析
Arm Neoverse 平台集成 NVIDIA NVLink Fusion,加速 AI 数据中心应用落地
Arm 与 NVIDIA 持续深化合作,在 AI 时代推动协同设计与合作迈向新高度。 生态系统合作伙伴可将高效的 Arm 架构计算能力集成至 NVIDIA NVLink Fusion 生态系统,实现全缓存一致性与高带宽互连。 随着 AI 数据中心对 Neoverse 的需求持续增长,客户在将工作负载加速器连接至 Arm 平台时拥有更多选择。 人工智能 (AI) 正在重塑数据中心计算架构,推动一场划时代的架构变革。随着 AI 模型与工作负载呈指数级增长,能耗已成为性能瓶颈,这使得高能效计算成为开启下一波 AI 创新浪潮的关键。在这一全新时代, 成功的衡量标准不再局限于原始性能,而是“每瓦智能”,即单位能耗下能够输出的有效
[网络通信]
Arm Unlocked 2025 深圳站:驱动 AI 从云到端落地,携手共绘计算未来
继上海、首尔站之后, Arm Unlocked 2025 AI 技术峰会 深圳站于今日(10 月 30 日)圆满落幕。在面对持续增长的人工智能 (AI) 算力需求,Arm 正持续推进“平台优先”战略,在高性能、高能效及高可扩展性的底层计算架构基础上,携手产业各方共建从云到端的 AI 计算平台。 本次峰会上,四大主题分论坛结合开发者专场共计吸引 1,500 余位来自产业链各环节的行业专家、企业领袖与开发者积极报名参与 。现场聚焦 AI 计算在边缘 AI、消费电子、汽车及基础设施等关键领域的前沿技术创新与产业落地实践。 边缘 AI:从集中处理迈向本地智能 AI 的未来发展正加速向边缘侧迁移,推动边缘 AI 进入蓬勃发展
[网络通信]
<font color='red'>Arm</font> Unlocked 2025 深圳站:驱动 AI 从云到端落地,携手共绘计算未来
小广播
最新网络通信文章
厂商技术中心

 
EEWorld订阅号

 
EEWorld服务号

 
汽车开发圈

 
机器人开发圈

About Us 关于我们 客户服务 联系方式 器件索引 网站地图 最新更新 手机版

站点相关: 综合资讯 其他技术 下一代网络 短距离无线 基站与设施 RF技术 光通讯 标准与协议 物联网与云计算 有线宽带

索引文件: 4 

词云: 1 2 3 4 5 6 7 8 9 10

北京市海淀区中关村大街18号B座15层1530室 电话:(010)82350740 邮编:100190

电子工程世界版权所有 京ICP证060456号 京ICP备10001474号-1 电信业务审批[2006]字第258号函 京公网安备 11010802033920号 Copyright © 2005-2026 EEWORLD.com.cn, Inc. All rights reserved