智通财经APP获悉,2025年11月27日,联想(00992)正式宣布将其Neptune海神液冷技术扩展至全线数据中心产品组合,以应对现代数据中心日益增长的计算需求与能耗压力。
就在其宣布这则消息的同一天,美国芝加哥商品交易所(CME)的交易系因数据中心冷却故障而瘫痪,全球衍生品市场陷入了一场长达逾10小时的交易暂停。
这场巧合背后,是AI算力狂飙下传统数据中心散热体系的全面承压,功耗暴增与能耗失控正将全球数字基建推向"热失控"边缘,一场大规模的技术迭代迫在眉睫。
“冷却”失灵的代价
此次故障因位于伊利诺伊州奥罗拉的数据中心突然触发高温保护机制,服务器集群自动关机。据CME事后声明,该数据中心故障根源是一台冷水机组突发机械故障,导致机房温度在90分钟内从24℃飙升至48℃,远超电子元件安全阈值。
造成的代价也相当惨重,数万亿美元合约因此受到影响——亚洲时段的CME期货电子盘完全停摆,欧洲交易商被迫转向流动性更低的场外市场,标普500指数期货主力合约在恢复交易后短时间内波动幅度扩大至2.3%,创2025年以来单日最大盘中震荡。
CME宕机事件并非孤例,这不仅是一次交易中断,更是对金融市场基础设施可靠性的考验,也是全球数据中心集体陷入“热失控”的缩影。
算力与散热的失衡
随着生成式AI、大模型训练等高密度计算场景普及,服务器功耗正以指数级速度攀升:英伟达的Blackwell架构GPU单芯片功耗突破1000瓦,较5年前的A100提升3倍;标准服务器机柜功率从传统的5-10千瓦跃升至600千瓦,相当于一座小型工厂的用电规模。
问题的核心在于,散热技术的迭代速度远远落后于算力增长。空气的导热系数仅为水的1/20,传统风冷系统最多只能应对单芯片350瓦的散热需求,而当前主流AI芯片早已突破这一极限。
数据更能说明困境。国际能源署(IEA)统计显示,全球数据中心年耗电量已占总用电量的1.8%,其中38%的电力被用于冷却系统——这意味着每产生1度电的计算价值,就有近0.4度电被消耗在“对抗热量”上。微软首席执行官萨提亚・纳德拉(Satya Nadella)近期在 BG2播客中表示,尽管市场对AI芯片的需求持续高涨,但微软当前面临的并非算力过剩,而是数据中心的供电和物理空间已接近极限,导致大量AI芯片只能滞留在库存中,无法“通电运行”。
联想瞄准液冷市场
在风冷逼近物理极限的背景下,液冷技术正成为行业转型的核心方向,而全球数据中心建设的热潮预示着这一市场的巨大空间。联想集团此时宣布将Neptune海神液冷技术扩展至全线数据中心产品组合,正式瞄准了这一市场机遇。
最新数据显示,搭载联想Neptune海神液冷系统的服务器,能耗较传统风冷降低40%,电源使用效率(PUE)可低至 1.1—— 这意味着每1瓦计算能耗仅需0.1瓦冷却能耗,远优于风冷系统1.5以上的平均PUE。

液冷技术的核心优势在于 “源头散热”。以联想Neptune的直接液冷(DWC)架构为例,45℃的温水通过精密冷板直接接触CPU、GPU等发热元件,热量吸收效率达 100%,且无需依赖高能耗的冷水机组。
“我们为梦工厂动画公司打造的数据中心应用中,不仅将HPC系统性能提升20%,还减少了 35%的冷却用水。” 联想集团ISG亚太区执行董事库Kumar Mitra表示,韩国气象厅、马来西亚国家科研中心等机构已全面采用该技术,以应对气象模拟、基因测序等高密度计算需求。
Mitra 强调,联想在 Top500 和 Green500 榜单上的领先地位,充分证明了这些创新技术的实际应用价值。随着人工智能的规模化发展,兼具性能与负责任能耗的解决方案将定义数字增长的下一个时代,而这正是联想所交付的核心价值。
此次芝商所宕机事件已成为行业变革的 “催化剂”,全球科技巨头与政策制定者势必加速布局液冷技术。
中国三大电信运营商2025年规划显示,超50%的新建数据中心将采用液冷方案;北美云服务商亚马逊 AWS、微软 Azure 已将液冷写入下一代数据中心设计规范,计划2027年前实现80%的AI服务器液冷化。
数据显示,2025年中国液冷服务器市场规模将达到33.9亿美元,较2024年增长42.6%。预计2025年至2029年,该市场年复合增长率将达到约48%,2028年市场规模将达到约162亿美元。这一快速增长态势不仅反映了市场对高性能计算需求的激增,也体现了数据中心绿色转型的迫切需要。
高盛预测到2030年全球数据中心的电力需求将增加165%,届时巨额的电费需求将对科技巨头们当前的天价营收预测构成巨大的风险。这就意味着,能效与商业成功的关联日益紧密。更高能效的数据中心产品组合,将成为巨头们的必选项。