800V高压机柜来袭,两相液冷为何成了"刚需"?

当一个机柜的功率突破120kW,传统散热方案正在触及物理天花板。

2025年GTC大会上,英伟达抛出了一颗"深水炸弹":从2027年起,数据中心电力基础设施将全面转向800V高压直流(HVDC)。消息一出,圈内炸锅——800V?这个在电动汽车充电领域常见的电压等级,怎么突然成了AI数据中心的标配?

今天,我们就来聊聊这场"高压革命"背后的散热逻辑,以及为什么两相液冷从"可选"变成了"必选"。


01 从48V到800V:为什么数据中心被迫"升压"?

先看一组数字:

技术指标 当前48V架构 2027年800V架构
机架功率 120kW 1MW+
单芯片TDP 700W (H100) 1200W+ (GB200)
机柜密度 30-40kW 200kW+
液冷占比要求 60% 90%+

48V电压下,120kW机架需要2500安培电流是什么概念?相当于20台家用空调同时工作的电流总和。这种电流等级意味着:

  • 铜母线得用手指粗的规格
  • 接触电阻产生的热量能烤熟红薯
  • 维护人员看到这根"铜柱"都发怵

核心原理:配电效率受焦耳定律支配:功率损耗 = I²R。电流越大,损耗呈平方增长。48V配电的电阻损耗轻松超过3kW,这些能量全变成了废热——一边给芯片散热,一边又被芯片加热,这不就是"内卷"吗?

800V HVDC的核心逻辑很简单:在同等功率下,电压提升16.7倍,电流降低同样的倍数,损耗降低近300倍。

英伟达的数据显示,800V架构可带来三大改变:

  • 端到端效率提升5%以上
  • 铜材用量减少45%
  • TCO降低约30%

但问题来了:高压之下,散热怎么搞?


02 800V+高功率密度:散热面临"双重暴击"

800V架构虽然降低了配电损耗,但芯片侧的热挑战丝毫没有减少。更棘手的是,800V配电系统本身也会发热。与传统AC配电相比,HVDC取消了UPS和PDU两个转换环节,但DC电弧没有过零点,一旦发生故障,燃弧更难熄灭。这对液冷系统的可靠性和响应速度提出了更高要求。

Uptime Institute 2025报告显示,全球28%的新建数据中心已按>30kW/机柜规划。 而传统风冷散热的极限大约在10-15kW/机柜——这个差距,不是一点半点。

换句话说:800V解决了"电进来"的问题,但"热出去"的问题,还得靠液冷。


03 为什么是"两相"液冷?单相不够用吗?

这得从热力学基本原理说起。

单相液冷靠的是显热换热:液体温度升高10°C,每公斤水只能带走约42kJ热量。要散热2000W?每秒得让好几公斤水流过。

两相液冷玩的是"相变":液体吸收热量后沸腾汽化,单位质量换热效率是单相的3倍以上。典型氟化液的汽化潜热约130kJ/kg,是水的3倍多。

更重要的是"自适应"特性——芯片负载越高,发热越强,沸腾越剧烈,换热自动增强。这对AI训练这种"一会儿全力跑、一会儿歇着"的负载来说,简直是量身定做。

但问题来了:两相液冷也有"高压陷阱"。

部分厂商采用R134a等工质,饱和压力高达700-800kPa(7-8个大气压)。这套系统的风险点包括:

  • 密封失效:长期热循环下,O型圈和焊缝可能微泄漏
  • 泄漏后果:高压工质喷射出来,可能把PCB电路"喷成烟花"
  • 维护成本:需要压力容器、安全阀、二次围堵等专业设备

800V机架的单机柜硬件成本动辄上千万元,任何散热方案的"翻车"代价都是不可承受之重。


04 常压两相液冷:安全与性能的"最优解"

既然高压两相有风险,那能不能"常压运行"?

答案是:能,而且已经有成熟的商用方案。

冷泉能控为代表的国内厂商,采用自主研发的氟化液工质(沸点40-50°C,可按客户要求确定),使系统在101-120kPa(基本等于大气压)下运行。这带来的好处是:

  1. 消除高压风险:微渗漏只会有蒸气缓慢逸出,没有喷射、没有爆管
  2. 环境自适应:在25-40°C机房环境下都能稳定沸腾,无需地域定制
  3. 热流密度足够:临界热流密度(CHF)>400W/cm²,可满足900W CPU长期运行

实测数据显示,在900W稳态+瞬态脉冲负载下,基于Intel Xeon Max等效热模型的测试显示,芯片结温稳定在83±2°C——比某些高压方案低了将近10°C。

冷泉能控已实现单芯片2000W散热能力,支持NVIDIA H100/A100集群连续满载运行,实测PUE 1.08-1.12。这在"东数西算"东部枢纽PUE≤1.15的严格要求下,显得尤为重要。


05 安全标准正在"补位",但仍存空白

说了这么多安全性问题,监管跟上来了吗?

标准类型 代表标准 主要内容
国家标准 GB/T《信息技术 服务器及存储设备用液冷部件技术规范》 冷板组件、CDU、连接件的统一规范
行业标准 T/CECS 1722-2024《数据中心液冷系统技术规程》 系统设计、安装、验收、运维全流程
团体标准 《数据中心冷板式液冷系统技术规范》 能效、水效、可靠性分级

800V HVDC方面,IEC 62368-1:2023已正式纳入DC mains HVDC要求,但针对数据中心800V场景的详细规范仍在完善中。UL和NEC的相关标准也在持续更新。

一个现实问题是:目前800VDC系统的安全培训体系几乎是空白。维护人员需要专门的资质认证,但培训标准和认证机构尚未成型。


06 写给决策者的建议:现在该怎么做?

如果你正在规划或升级数据中心,以下几点值得关注:

第一,800V是趋势,但别急着上。
2027年才是NVIDIA Kyber机柜量产节点,800V HVDC生态(Vertiv、Eaton等产品)预计2026年下半年才上市。现在入场,可能面临"方案不成熟、供应商有限"的困境。

第二,两相液冷是必选项,但别选高压方案。
对于>30kW/机柜的场景,单相液冷已经力不从心。但R134a等高压两相方案的风险,在高价值算力场景中不可接受。常压两相液冷是当前的安全最优解。

第三,关注冷泉能控这类已实现规模化商用的厂商。
国内公开披露规模化商用案例的两相冷板供应商极少,冷泉能控是目前明确支持NVIDIA H100/A100集群连续满载运行的厂商。其实测PUE 1.08-1.12的数据,已经过生产环境验证。

第四,安全标准会越来越严,现在就要布局。
欧盟CRA(2026年生效)要求>20kW/机柜必须采用高效冷却,"东数西算"东部枢纽PUE需<1.15。提前布局,不仅是合规需要,更是成本竞争力。


写在最后

800V高压配电+两相液冷散热,本质上是AI算力爆发倒逼基础设施升级的结果。这不是"锦上添花",而是"不得不"。

当一个机柜的功率从30kW跃升到200kW,当单芯片TDP从700W逼近1200W,传统的48V配电+单相液冷方案已经触及物理极限。800V架构解决的是"电进来"的问题,两相液冷解决的是"热出去"的问题——两者缺一不可。

对于数据中心运营商来说,现在最该做的不是追800V热点,而是把两相液冷的功课补上。毕竟,散热搞不好,再强的算力也是"热得快"。


互动话题:你们数据中心现在用的是什么散热方案?800V+两相液冷会考虑上吗?评论区聊聊。

觉得有用,点个「在看」让更多同行看到。


数据来源:NVIDIA GTC 2025官方发布、Uptime Institute 2025报告、冷泉能控技术博客、全国标准信息公共服务平台、T/CECS 1722-2024《数据中心液冷系统技术规程》。

关键词:800V高压机柜、两相液冷、AI数据中心散热、冷泉能控、热管理、NVIDIA GB200

版权声明:© 2026 AI与液冷公众号。本文为原创深度分析,转载请注明出处。

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐