英伟达、谷歌、华为,为什么都要做垂直供电(VPD)?

发布者:EEWorld资讯最新更新时间:2026-02-24 来源: EEWORLD关键字:英伟达  谷歌  华为 手机看文章 扫描二维码
随时随地手机看文章

VPD(垂直供电)在最近这拨AI热中彻底被带火了。

今年CES上,英伟达确定Rubin会用VPD方案。根据英伟达的说法,Rubin架构将搭载更宽、更多的HBM4显存,HBM因为已经占据了GPU封装周围所有空间,物理位置已经没有给横向供电(LPD),因此VPD是确定性方案。

无独有偶,英特尔、谷歌也都已开始尝试VPD方案。甚至,华为也在关注这项技术,华为有一项关于“芯片垂直供电系统”的发明专利申请,该专利旨在提供一种为芯片供电的电压调节模块(VRM)设计方案。

可以说,VPD将会是现代处理器最关键的技术之一。那么,这项技术有哪些值得关注的细节,哪些厂商在布局这项技术?今天EEWorld将进行详细的解析。


为什么必须是VPD



长期以来,处理器的供电任务一直由环绕在芯片封装四周的多相电压调节器承担,如下图所示,便是常见的横向供电(LPD)。其提供了两级供电系统:第一级为非稳压IBC,将48V降压至IBV;第二级由多个VR构成,为GPU不同域提供精确稳压和调频功能,同时满足瞬态要求。

尽管这一方案技术成熟、久经考验,却受制于基础物理定律。随着处理器工作电流不断攀升,供电网络PDN)内的电阻和电感效应所引发的功率损耗也随之加剧。

图片

英伟达的Hopper GPU横向供电架构

即便采用了先进的主板设计与电源优化技术,这种横向供电” 模式仍会在处理器与本地电源之间形成漫长且曲折的电流路径。一方面,这些路径会产生额外的寄生参数,不仅降低了供电效率,还会劣化瞬态响应能力,而对于电流需求瞬息万变的AI工作负载而言,瞬态响应恰恰是决定性能的关键。另一方面,当前板上的空间愈发局促,把电源模块放在垂直方向上,也可以给HBM等关键部件让出空间。

传统的多相稳压器的横向供电方式,在突破1000A门槛时,功率损耗问题就开始凸显。随着GPUTPUAI处理器尺寸不断变大,新一代AI处理器现在要求核心电压在当前2000A5000A甚至更高的水平。根据行业预测,其但随着芯片尺寸的不断增大、供电电压降至约0.4 V,其总电流消耗预计将在十年内攀升至10000 A

VPD应运而生。

图片


看懂VPD



垂直供电架构(VPD)很容易理解,即通过穿透PCB层垂直向上输送电力,直接给上方的处理器供电,从而有效缩短了从VRMSoC的电力传输距离。

实现这一目标的核心手段之一,是将POL直接放置在PCB背面、处理器正下方,以此缩短次级供电轨的长度。

图片图片

相较于传统横向供电,垂直供电(VPD)具备多重关键优势:

  • 电阻损耗更低:更短、更直接的供电路径天然降低了电阻,有效减少I²R损耗,在减少额外发热的同时,为处理器输送更多有效功率

  • 瞬态响应更好:更少的路径断点与更短的供电回路,让VPD实现更快的瞬态响应,这对电流需求剧烈波动的现代处理器至关重要

  • 信号完整性更好:将高频开关组件移至主板背面,并在PCB中集成屏蔽层,可隔离敏感信号层与供电噪声;同时保留顶层更多连续铜箔,提升高速信号性能与电磁兼容性(EMC,这在高密度服务器环境与共封装光互连场景中尤为关键;

  • 空间优化:释放主板正面空间,使设计人员能在处理器周边集成更多内存、光模块与系统级功能,在不增加板卡面积的前提下,实现更高内存带宽、更多处理资源与扩展系统特性

  • 可扩展性:VPD通过减少长距离的当前路由来提升可扩展性

  • 更好释放处理器性能:降低PDN阻抗、提升瞬态响应,可直接满足AI核心对小于1V 的严苛电压容差要求,更快的调节速度意味着更稳定的运行、更少的电压跌落与降额,从而释放处理器的全部性能。

虽然VPD前景广阔,但会带来更多工程难题,整个供电模块都需要重新设计,这些问题主要包括:

  • 散热压力:高性能计算的电流密度已达3~4 A/mm²,在处理器下方的狭小空间内实现这一功率水平,需要高度集成的多层模块设计,结合先进磁芯、平面电感技术与优化的开关拓扑

  • 高度限制:VPD模块位于PCB与系统机箱之间,z轴高度通常被限制在2mm以内

  • 热隔离问题:传统设计中,处理器与调节器共享正面散热系统,而VPD将调节器置于主板背面,与系统散热器和气流形成热隔离。要在保持高电流吞吐的同时应对这一问题,需要创新的封装设计、均热材料,甚至局部主动散热方案

  • 热区重叠:供电模块与处理器的x-y平面footprint重叠,使两个热源集中在同一区域,加剧了散热挑战,增加了性能下降或故障风险

行业正通过先进封装、超薄磁性材料与热界面技术创新,推动VPD规模化落地。


从背面供电,到基板供电


事实上,除了把供电模块放在背面,VPD还有一种更优解,就是把供电模块直接放在基板上。英飞凌就曾在24日发布的技术简报展示了一个发展路线图

第一阶段是离散/横向供电(Discrete/Lateral),功率级、电感、电容直接布置在处理器(GPU)旁边,成本最低,生态与质量体系成熟。不过,GPU电流超850~1000A 时,损耗会超过100WPDN总电阻约为90~140μΩ

第二阶段是背面垂直供电(BVM),采用垂直布局,顾名思义,供电模块采用垂直穿透布局,从基板/主板背面垂直对接处理器,缩短传输路径。通过消除多个小型模块间的间距,移除处理器下方的电源/控制信号布线,提升功率密度,简化主板设计大幅降低PDN总电阻10~15μΩ横向低89%

第三阶段是基板集成电压调节器供电(SIVR),将电压调节器直接集成在基板上,垂直传输路径进一步精简,是损耗控制的最优解。能够额外减少10~15%的基板PDN损耗,PDN总电阻达到7~10μΩ(横向低93%)。英飞凌在2023年就提出过这样的概念,不过这些迭代主要靠处理器厂商牵头来做,目前背面垂直供电刚刚进入大规模商业化阶段。

图片



哪些厂商在布局VPD



Vicor

Vicor VPD的布局很早,也是英伟达确认的合作伙伴之一,在CES英伟达公布Rubin采用VPD架构后,Vicor成为了最大受益者,股市也相当活跃。有报道指出,48V AI系统应用中,Vicor曾一度占据高达85%市场份额,合作伙伴包括英伟达、谷歌、英特尔、AMDCerebrasTesla等。

VicorVPD解决方案是一个由三层组成的集成模块:下层是一个Gearbox,中间层是 VTM电流倍增器阵列,上层是PRM稳压器,这样的三层组成了一个完整的VPD解决方案,Vicor称之为DCM

Gearbox执行两个功能:一是包含高频去耦电容,二是把来自VTM的电流重新分配形成与上面的处理器镜像一致的模式。VTM阵列的大小取决于处理器输入电流要求,PRM的大小取决于总的功率需求。如果GPUASIC需要多个电源轨,则VTM层和PRM层可以分别使用独立的PRMVTM来实现,其大小可以满足每个特定轨的电流和电压要求。

Vicor VPD方案通过将MCM/GCM电流倍增器直接置于处理器下方,把PDN电阻进一步降至5~7 µΩ,最大化发挥AI处理器的算力与能效。根据Vicor的垂直电源传输方式可将PDN损耗降低 95%

图片

Infineon

去年3月,Infineon(英飞凌)推出OptiMOS TDM2454xx四相功率模块,实现了真正的垂直供电(VPD),并提供行业领先的2安培/平方毫米电流密度。此模块延续了英飞凌2024年推出的OptiMOS TDM2254xDTDM2354xD双相功率模块,继续为加速计算平台提供卓越的功率密度。

英飞凌表示,在传统水平供电系统中,电流需要流经半导体晶圆表面,这导致了电阻增加并产生了明显的功率损耗。垂直供电通过缩短电流传输路径,减少电阻损耗,从而提升系统效率。

通过采用英飞凌强大的OptiMOS 6沟槽式技术功率组件和嵌入式芯片封装,OptiMOS TDM2454xx模块可以提供优异的电气和散热性能,同时运用创新的超薄电感设计技术,不断提高VPD系统性能和质量的极限。此外,OptiMOS TDM2454xx的结构设计有利于模块化拼接,且能改善电流传导,进而提升电气、散热和机械性能。该模块在四相电源中最高支持280A电流,并在仅10x9 mm²的小型封装内整合了嵌入式电容层,结合英飞凌的XDP控制器,可实现稳定耐用的高电流密度功率解决方案。

图片

MPS

MPSMonolithic Power Systems)在VPD布局也很积极,有报道称MPSH100 GPU供电方案中有相当一部分应用。不过,MPSVPD方案名字不太一样,叫“Z轴供电”(ZPD)。Z轴供电将稳压器放置在PCB底部、处理器的下方。这种方法可以显著降PDN损耗(超过10倍)。

图片

去年,MPS针对AI服务器需求,推出新一代超高功率密度AI电源方案,其核心产品MPC24380采用Z轴供电架构,集成输出电容,搭配DrMOS顶置设计优化散热,具有四路260A高输出电流以及2A/mm2 超高功率密度等亮眼优势;同时也推出了不同规格的MPC22158,超小体积实现两路130A输出电流,以高效率高集成度等多重优势助力AI芯片供电,破解能源与散热困局。

图片图片 

图片

ADI

ADI(亚德诺半导体)也在研究类似VPD的结构,不过当前还没有更多进展。ADI研究出了一种Notch CLNCL)结构的新型耦合电感,以优化极低输出电压和激进负载瞬态规格的应用性能。

NCL可以放置在PCB底部,正好在GPU陶瓷旁路上方,电源级环绕NCL的周边。这种方法类似于垂直电力传输(VPD)布置,可能增强瞬态与波纹之间的权衡(实际上是瞬态效率)。不过,ADI表示,实施这样的改变将是对现有设计和布局的重大转变。未来是否考虑这一方案将取决于客户偏好。

图片

TDK

TDK在布局VPD。其推出的的μPOL直流变换器采用芯片嵌入技术SESUB,以实现最佳紧凑尺寸,非常适合这些应用的1A200A垂直电源。 

图片

TDK的FS1525集成了功率电感,以平滑μPOL将功率推入负载时产生的电流纹波。这种集成通过减少寄生效应,实现了更小的形态和更高的效率。通过将所有元件压缩到一个小型电源模块中,DC-DC可提供每立方厘米127安培的功率密度。

该模块实现了一种更先进的调制方式,称为自适应时间调制(AOT),实现超快瞬态响应,并实现内部环路补偿。基于锁相环(PLL),该调制方案在15安培和25安培下分别实现了91%和89%的效率。此外,I2C和PMBus为工程师提供了额外的遥测选项。

图片

Empower Semiconductor

Empower Semiconductor是谷歌投过的一家电源芯片公司。去年6月,Empower Semiconductor宣布 Marvell 展开深度合作,联合研发集成式电压调节器(IVR)及垂直供电(VPD)架构,核心目标是将传统板级电压调节设计,升级为硅基集成或近芯片供电解决方案,以此应对千瓦级芯片时代下的各类供电难题。


总结



目前,数据中心的能耗占全球能耗的2%以上。在人工智能的推动下,数据中心的功率需求预计将在2023年至2030年间增长165% 。要进一步提高计算性能,同时降低总体拥有成本(TCO),不断提高从电网到核心的功率转换效率和功率密度至关重要。

多重压力下,VPD以更短供电路径、更低PDN阻抗、更优瞬态响应、更省板上空间,成为支撑高算力、高集成度AI芯片的关键支撑。可以预见,这项技术,将会逐渐成为市场标配。




关键字:英伟达  谷歌  华为 引用地址:英伟达、谷歌、华为,为什么都要做垂直供电(VPD)?

上一篇:EPC与瑞萨签署氮化镓全面授权协议
下一篇:最后一页

推荐阅读最新更新时间:2026-03-25 07:54

消息称谷歌正打破 TPU 完全自托管局面,强化与英伟达 AI 芯片竞争
9 月 4 日消息,谷歌自研 AI 芯片 TPU 张量处理器已有多年历史、历经数次迭代,其不仅支持谷歌自身 AI 业务,还以 Google Cloud 上的云端算力形式提供给 OpenAI 等合作方。 谷歌的 TPU 芯片迄今为止仍然完全在自家数据中心托管,未部署到外部物理环境中。不过根据外媒 The Infomation 的报道,这一局面即将被打破。 ▲ 谷歌 TPU v7p Irodwood 最新报道指出,谷歌近期正与主要对外租赁英伟达 AI GPU 的小型云服务供应商展开谈判,希望这些企业在数据中心也托管部署谷歌的 TPU 芯片。谷歌已与至少一家合作方(Fluidstack)就此达成协议。 对于谷歌而言,这可能意味着其
[嵌入式]
摆脱依赖英伟达!OpenAI首次转向使用谷歌芯片
近日,据知情人士透露,OpenAI近期已开始租用谷歌的张量处理单元(TPU),为旗下ChatGPT等热门产品提供算力支持。这一举措不仅标志着OpenAI首次实质性地使用非英伟达芯片,更显示出其正在逐步摆脱对英伟达芯片的深度依赖,在算力布局上迈出了重要战略调整的一步。 OpenAI依赖英伟达GPU的算力支持 在人工智能飞速发展的当下,OpenAI作为行业领军者,对算力的需求呈现出爆发式增长。以OpenAI推出的模型为例,当推出参数规模达1750亿的GPT - 3模型时,其训练消耗的算力相当于30万颗CPU全年不间断运行。这种指数级的算力需求增长,在2024年达到新高度,谷歌Gemini、百度文心一言4.0等多模态大模型的训练算力需求
[嵌入式]
NVIDIA 助力谷歌量子 AI 通过量子器件物理学模拟加快处理器设计
NVIDIA CUDA-Q 平台使谷歌量子 AI 研究人员能够为其量子计算机创建大规模的数字模型,以解决设计中面临的各种挑战 SC24 — NVIDIA 于今日宣布正在与谷歌量子 AI 合作,使用 NVIDIA CUDA-Q™ 平台进行模拟,加快下一代量子计算器件的设计工作。 谷歌量子 AI 正在使用量子-经典混合计算平台和 NVIDIA Eos 超级计算机,来模拟其量子处理器的物理特性。这将有助于克服量子计算硬件当前的一些局限,即量子计算硬件只能运行一定数量的量子运算,然后由于存在研究人员称之为“噪声”的现象就必须终止计算。 谷歌量子 AI 的研究科学家 Guifre Vidal 表示:“要想开发出商用的量
[网络通信]
<font color='red'>NVIDIA</font> 助力<font color='red'>谷歌</font>量子 AI 通过量子器件物理学模拟加快处理器设计
谷歌开发出第三代AI芯片 有望取代英伟达图形处理器
  图注:谷歌CEO皮查伊发布第三代AI芯片    凤凰网科技讯 据CNBC网站北京时间5月9日报道,谷歌公司在周二宣布,公司已开发出第三代人工智能(AI)专用芯片。    最新张量处理单元(TPU)有助于谷歌改进AI应用,在录音过程中识别言语,在照片和视频中发现目标,在书面文本中洞察潜在情绪。而且,它还能够取代英伟达公司的图形处理单元(GPU)。    而且,如果新版TPU 3.0能够像其前代芯片,它还便于第三方开发者通过谷歌公共云服务使用,可能有助于谷歌与亚马逊公司、微软公司竞争。本周早些时候,微软宣布为其Azure云服务推出专用芯片。    TPU 3.0    谷歌CEO桑达尔·皮查伊(Sundar Pichai
[手机便携]
谷歌开放TPU 每小时6.5美元与英伟达必有一战
   谷歌 的机器学习利器Cloud TPU将首次全面对外开放。 谷歌 传奇芯片工程师Jeff Dean连发了十条twitter宣布了这一消息,第三方厂商和开发者可以每小时花费6.5美元来使用它,但需要先行填表申请。下面就随网络通信小编一起来了解一下相关内容吧。   此前,TPU都被用于 谷歌 内部产品,随着Cloud TPU的开放,这意味着AI芯片和公有云市场将迎来新的变局。   谷歌同时发布了Cloud TPU的beta版,这一版本通过谷歌云平台提供,能够帮助更多机器学习专家更快地运行模型。Cloud TPU是谷歌设计的硬件加速器,专为加速、扩展特定的TensorFlow机器学习工作负载而优化。   “把自用的TPU开放出来
[网络通信]
谷歌云新增Nvidia GPU机器学习提速
  Google宣布在多个地区上线新的Nvidia GPU,希望以此更多用户在Google云中运行他们的 机器学习 和人工智能工作负载。下面就随网络通信小编一起来了解一下相关内容吧。   专用的云GPU(例如Nvidia开发的GPU)旨在加速 机器学习 训练和推理、地球物理数据处理、模拟、地震分析和分析建模等工作负载。   Google Compute Engine产品经理Chris Kleban和Ari Liberman在近日的一篇博客文章中表示,Google已经宣布开始测试Nvidia的P100 GPU。此外据称Nvidia的K80 GPU现在也已经出货了。他们补充说,Google将在这些GPU上提供“持续使用折扣”,以鼓励
[网络通信]
谷歌、英特尔和英伟达各自推出无人驾驶芯片,贵圈真乱
近年来,科技发展速度也超乎了人们的想象,智能汽车、自动驾驶汽车不再是科幻,昔日科幻已经不遥远, 无人驾驶 作为汽车发展趋势,也将改变未来“出行”方式,也许,未来人们无须购买私人汽车,因“出行”形式逐渐向按需转变,将催生全新的“乘客经济”(这一词由 英特尔 创造),Strategy Analytics预测,到2050年“乘客经济”高达7万亿美元。   在笔者看来,无人驾驶汽车推进并非由消费者需求所驱动,而是来自强大的经济动力,包括前面所提到的催生7万亿美元“乘客经济”,另外,来自市场预测,到2025年,全球无人驾驶汽车市场规模将达到420亿美元;2030年,将有1.2亿辆不同程度的无人驾驶汽车上路;2035年,无人驾驶汽车将占全球汽
[嵌入式]
谷歌TPU势头正劲 英伟达GPU突围AI芯片胜算有几分
  2017台北国际电脑展COMPUTEX 2017已经于5月30日开幕。英伟达的创始人兼CEO黄仁勋在AI论坛上发表了演说,谈到了英伟达的人工智能规划。下面就随网络通信小编一起来了解一下相关内容吧。   今年5月9日,英伟达公布了第一季度的财报,第一季度营收19.4亿美元,同比跳涨48.4%,净收入5.07亿美元,比去年同期跳涨126%。其中,游戏显卡业务营收占了总营收的53%,仍然是英伟达的主力军。但是数据中心业务收入翻倍至4.09亿美元,汽车业务收入也增长了24%至1.4亿美元。从去年起,数据中心和汽车业务加速发展,为提振股价起到了重要作用。黄仁勋曾表示,人工智能已经到了变革的边缘,最终将会有1万亿的设备拥有人工智能,而英
[网络通信]
小广播
最新电源管理文章
厂商技术中心

 
EEWorld订阅号

 
EEWorld服务号

 
汽车开发圈

 
机器人开发圈

电子工程世界版权所有 京ICP证060456号 京ICP备10001474号-1 电信业务审批[2006]字第258号函 京公网安备 11010802033920号 Copyright © 2005-2026 EEWORLD.com.cn, Inc. All rights reserved