AI服务器供电走到拐点:从48V到HVDC,谁在重写下一代电源架构?
AI服务器功耗飙升,正将电源系统从后台推向台前,成为影响整机效率和扩展能力的关键。
当单机负载上升,传统的供电架构开始逼近设计边界。电流、线损、散热和空间利用率等问题被同步放大,使供电环节从过去的"配套角色",转变为决定AI服务器性能的关键变量。
48V的边界正在被重新定义
48V供电体系之所以被广泛采用,在于它在安全性、成熟度、成本之间取得了较好平衡。对传统服务器来说,这套体系至今仍是有效方案。
但AI服务器带来的变化,在于功率密度的跃升。进入更高功率场景后,原本分散的问题会叠加出现:电流变大,传输损耗上升;损耗增加,热设计压力抬高;热压力上升,又反过来影响器件布局和系统稳定性。
许多团队面临的不是"48V还能不能用",而是"在下一代AI负载下,原有路径能否继续高效支撑系统演进"。这正是更高压直流架构被重新放到台前的原因。
HVDC/800VDC为何成为热点
HVDC/800VDC成为热点,并非因为"电压更高"本身,而是它提供了重新平衡系统效率、传输损耗和配电能力的可能性。对于高密度AI服务器,供电架构变化的核心在于改变整套系统的承载方式。谁能在更高功率条件下,把效率、体积、热管理重新组织起来,谁就更有可能进入下一阶段的设计窗口。
从产业链动作看,GPU厂商、服务器企业、电源模块商,以及功率器件、驱动控制企业,都在加快围绕更高压方向的布局。NVIDIA、台达、村田等企业的动作,反映的是基础设施层面对下一代供电的重视;ROHM、英飞凌、安森美、Wolfspeed等厂商,也都在围绕宽禁带器件持续加码。
下一轮竞争:系统协同而非单点器件
外界讨论AI电源时,常把注意力集中在SiC或GaN等明星器件上。但真正做系统设计的人都清楚,AI服务器供电升级从来不是单点问题。它不仅涉及主功率级器件,还关系到拓扑选择、隔离驱动、电流检测、保护策略、控制逻辑、热设计和量产导入。很多时候,决定项目效率的不是某颗器件的纸面参数,而是谁能更快把整套方案跑通。
正因如此,下一轮竞争比拼的不是单点最强,而是系统协同能力。
把这一轮供电升级放在产业语境中看,日本功率半导体制造商罗姆的策略非常值得关注,并不只是因为它是全球领先的SiC厂商,而在于它试图参与的不只是单颗器件,而是更完整的电源系统。
在行业分工越来越细的背景下,客户关心的不是"哪家参数更漂亮",而是"谁能在主功率级、驱动控制、保护之间形成顺畅协同"。罗姆在SiC、GaN、Si及模拟控制链路的布局,更适合被理解为系统能力补位,而非单点竞争。除了主功率器件之外,他们同步完善热插拔控制、驱动、电流检测、电源管理与保护相关的产品组合,提升了与之配套的检测、控制和保护能力。
RightIC观察
AI服务器电源的关注点,正在从"某颗器件够不够强"转向"整套系统能不能更快落地"。对工程师来说,接下来要看的不只是器件参数,而是方案在目标负载区间是否稳定、热设计有无余量、驱动与保护链路是否完整。而对采购和供应链管理而言,重点也不只是品牌,而是系统风险能否前置识别、配套空间是否充足以及项目节奏能否被稳定支撑。
说到底,AI服务器越往高密度走,电源系统就越不能再被简单理解为"幕后配角"。下一轮竞争,先被重新定义的很可能正是它。而围绕这条链路,行业领先企业包括罗姆、英飞凌、安森美及更多参与者正在做的,也不只是推出单个产品,而是试图在下一代架构中找到各自更稳的位置。


