台达电子800HVDC方案解析

由 AI 推动的基础设施升级潮里,一个最明显的变化是:数据中心的电力系统正在被彻底重写。过去十几年,从电网输进来的 10–35kV 中压一路降到 400/480V,再进入机柜内的 PSU 转成 48/50V,最后再到主板上的 VRM,把电压调到芯片能用的范围。这套传统路径曾经很“够用”,但现在算力密度动不动就是一柜 300kW、600kW,甚至未来迈向 1MW,老架构就显得吃力。
台达提出的 800 HVDC(800 伏直流供电)方案,它的价值非常直接:提升电压,让电流大幅下降,减少配电损耗,缩短电力链路,让整个机房在高密度 AI 场景下能继续往前走。我们可以简单理解成,把原本的“多级降压、多级整流”变成“从行级就整成高压直流,然后在机架侧一次降到服务器需要的电压”,流程更短、损耗更少、设备也可以做得更集中。更重要的是,它没有破坏服务器现有的 50V 生态,而是通过机架级 DC-DC 的方式,把高压转换到服务器熟悉的 50V。
这一点非常关键,因为这意味着不需要等 GPU、CPU 厂商全部改完主板电源设计才能上 800VDC,而是能在不动服务器的前提下,马上把数据中心配电效率提升到一个新高度。台达的路线可以用“平滑过渡”四个字来总结。它把整个 800VDC 的落地分成三段:现在是 AC→PSU→50V→服务器;过渡阶段是行级先把 AC 转成 800VDC,再在 rack 层做 800→50V;未来才是服务器原生支持高压母线,甚至直接和固态变压器(SST)对接。
也就是说:你可以一步步升级,不需要一口气重做整个机房。随着 AI 服务器越来越“塞满”GPU,机柜内部已经很难留出空间给大体积的电源模块,Power Shelf 的时代正在快速退场。台达提出的 In-Row Power Rack 就是为了解决这个问题,把电源集中到机柜旁边的一整列里,让所有 AC 输入、800V PSU、储能模块和配电全都在行级处理,真正做到“服务器机柜只放算力”,供电系统独立管理。这种方式的好处很明显:电力架构模块化、易替换、易维护,功率密度也能大幅提升,让整列甚至整机房的配电更有整体性。相比 AC 体系,800VDC 的难点当然不只在整流本身,而是安全——直流电弧比交流更难熄灭,800V 的绝缘、保护、断路要求更高。
台达在 DC-PDU(直流配电单元)里加入了 DC 专用继电器、高额定熔丝、SurLok 快接端子以及冗余的 crosslink 母线,把高压直流的可用性和维护性做到了可工程化落地的水平。这是架构能不能在真实数据中心规模部署的关键基础,而不是停留在概念图阶段。至于 800→50V 的 DC-DC 模块,它其实就是这条架构里最关键的“桥”。台达的机架级 DCDC 单元可以做到 108kW 总功率、6 路独立输出、隔离式设计,还能通过 Redfish/Ethernet 做集中管理,效率更高、散热更容易。比起服务器内的 PSU,集中式 DC-DC 不仅效率更好,而且坏一个不会影响整机房的稳定性,运维更轻松,也更便于自动化调度。
在更远的未来,台达提出的是“MV→SST →800VDC→服务器”的全直流架构。也就是用固态变压器直接把中压电网变成高压直流,再分发给机房,彻底告别交流链路。这套路径和可再生能源、储能系统天然兼容,很适合未来 500MW、1GW 级别的 AI 数据中心集群,也符合目前全球头部云厂商都在推进的“全直流化 + 液冷化”路线。
从行业趋势来看,AI 时代的大算力正在把电力系统逼到一个重新设计的临界点。机柜功率翻倍、液冷全面渗透、GPU 负载瞬时跳变剧烈,都意味着电力系统必须走向更高电压、更高效率、更集中、更可控。Google、Meta、微软都已经在往 48V、400V、800V 甚至更高压直流方向推进,台达则给出了一个能够真正落地、又兼顾现网兼容性的完整路径。用一句话来概括 800 HVDC 的意义,就是:它让数据中心能继续在 300kW、600kW、1MW 的算力时代往前走,而不用推倒重建整个服务器生态。在未来算力密度不断提升的趋势下,800VDC 注定会成为越来越多 AI 数据中心的“标配基建”,甚至可能会成为下一个十年的数据中心主流供电形态。

作者:极客石头

在搞事情的路上越走越远。

发表评论

您的邮箱地址不会被公开。 必填项已用 * 标注