国企进化论|谁在拯救“发烧”的AI服务器?

大众新闻 陈晓婉  赵雅南  张海飞   2026-02-10 15:49:54原创

当AI大模型参数从千亿级冲向万亿级,训练所需的算力集群功率密度也水涨船高,单机柜功耗从10千瓦级跃升至40千瓦以上,数据中心的服务器正陷入一场无声的“烤验”。

传统风冷散热早已逼近物理极限。散热,这个曾被行业忽视的“配角”,正演变为影响AI产业规模化发展的“天花板”。一场由液冷技术驱动的结构性变革,已在全球数据中心悄然掀起。

这场变革的背后,是头部企业的提前布局与技术突围。在山东济南,浪潮通信信息系统有限公司的实验室里,液冷散热系统已经研发成熟,其技术成果在一个月前落地北京某运营商数据机房的改造项目,让单机柜功率从5千瓦跃升至45千瓦,年节电4468兆瓦时,相当于近1500户家庭一年的用电量。这并非孤例,而是全国液冷产业加速崛起的缩影。

在AI服务器功耗飙升与能耗管控趋严的双重驱动下,液冷需求正从“小众方案”快速成长为“主流选择”。高盛预测,全球服务器冷却市场2025—2027年将迎来爆发式增长,液冷渗透率将从2024年的15%跃升至2027年的80%。

行业的焦虑与机遇,都聚焦在一个核心问题上:当风冷无法承载AI算力的散热需求,液冷这场关乎算力存续的“冷却革命”,将如何改写行业格局?

给狂飙的算力“退烧”

这场散热革命的“导火索”,是AI算力的爆发。

在此之前,服务器的降温逻辑相对简单,风冷技术如同给机房装上无数台“风扇”,依靠加速空气流动带走服务器表面的热量。风冷技术成本低、部署快,在单机柜功率低于10千瓦的时代游刃有余。

然而,数字化与AI浪潮迅速推高了功率密度。单机柜功率突破40千瓦,被业界视为风冷技术的“临界点”。

当AI训练集群将功率密度推至40千瓦以上,相当于把20台家用电暖器塞进一个冰箱大小的机柜同时烤火,产生的热量几分钟就能烧开一浴缸水。”浪潮通信副总经理郭振君指出,“在此量级的热量面前,仅靠风冷降温便捉襟见肘,芯片会因为过热而降频,性能大打折扣。”

不仅如此,当功率超过40千瓦,风冷不仅难以解决芯片局部热点问题,还会让PUE(能源使用效率)急剧攀升至1.3以上。这意味着,每消耗1度电用于核心计算,就需要额外消耗0.3度电用于散热,既无法适配当前高密算力的需求,也难以满足日益严格的节能管控要求。

“AI的功耗飙升实在太快了。”行业内的这句感叹,既是对传统散热体系的无奈,也揭示了液冷从“可选项”变为“必选项”的根本动因。

政策层面也在持续加压。2024年7月,国家发展改革委等部门联合发布《数据中心绿色低碳发展专项行动计划》,明确要求到2025年底,新建及改扩建大型和超大型数据中心PUE降至1.25以内,国家枢纽节点数据中心项目PUE不得高于1.2。这一硬性约束,使得高能效散热方案成为市场竞争的“入场券”。

通俗来讲,液冷就是利用液体替代空气作为冷却介质,通过液体的循环流动将服务器产生的热量带走。与风冷相比,液冷系统的热交换效率提升3-5倍,液冷能将数据中心PUE降至1.05,接近“理论极限值”。PUE数值越接近1,表明电能越集中用于计算设备本身,几乎把能耗都用在了刀刃上。

“液冷技术的崛起,本质是算力密度与能耗政策双重挤压下的必然选择。”郭振君表示,“在算力需求爆发初期,我们就观察到AI芯片功耗从几百瓦向千瓦级跃升,叠加‘双碳’政策对数据中心PUE的硬性约束,液冷必然成为破解‘散热+节能’双重难题的核心路径。因此浪潮提前研发,构建了从冷板、浸没到风液同源的全系列技术体系,以应对市场上对冷却方案的爆发式增长需求。”

液冷如何改写数据中心“能源账本”?

从北京某运营商数据机房的改造案例看,液冷就像是给“高烧不退”的AI服务器量身定制的“退烧药”,既高效又经济。但这场技术革新背后的路线博弈与落地难题,远比想象中复杂。

当前液冷技术主要分为两大路线,冷板式和浸没式,两条路线各有侧重,共同构成了当前液冷市场的竞争格局。

冷板式液冷就像给发热器件贴上“定制冰袋”,通过将液冷冷板固定在服务器的主要发热器件上,再通过密闭管道中循环的冷却液带走热量。其最大优势就是无需改变服务器原有架构,适配性强、改造难度低,可快速落地应用。

浸没式液冷,则是把服务器“泡进恒温凉水池”,通过冷却液的对流或相变实现热量传递。这种方式的散热效率是风冷的1000倍以上,属于“直接接触散热”,专为超算、高端AI训练等超高功率场景而生,被称为“终极方案”。

郭振君介绍,浪潮通信的冷板式液冷方案PUE低于1.15,浸没式方案更是低至1.05。“冷板式是‘当前最优解’,适配80%以上的智算、通算升级场景;浸没式是‘未来终极解’,针对超算等极端高密场景。两者共同构成全场景覆盖。”

但无论选择哪条技术路线,都绕不开液冷系统的核心风险——“泄漏”与“腐蚀”。

冷却液在密闭管路中持续循环数年,对防腐防锈、化学稳定性和微生物控制提出极高要求。浪潮通信数据中心研发负责人李俊山形象比喻:“这就像不锈钢水杯,静置盛水无恙,但加工成细密管网,经水流长期循环冲刷后,若钝化工艺不达标,极易发生锈蚀。锈蚀产物与菌落堆积会堵塞流道,导致芯片局部升温异常,严重影响数据中心的整体性能。”

这也正是浪潮通信将水管连接、泄漏防控等细节视为研发重心的原因。2025年12月,“浪潮预制模块化弹性液冷智算中心”被中国职工技术协会认定为2025年度职工技术创新成果特等成果。不片面追求“高精尖”,反而深耕工艺优化的“工匠精神”,恰恰击中了液冷规模化落地的真正痛点。

千亿赛道,谁能踏浪而行?

政策与效益双重驱动,液冷市场迎来爆发式增长。但其规模到底有多大?

李俊山认为:“目前风冷仍是主流,液冷市场占比接近20%,但因为AI爆发带动了高功率服务器需求,液冷增长势头很猛,预计2030年市场份额将达到40%到50%。”国际数据公司(IDC)等机构预测,到2028年,中国液冷服务器市场规模将突破102亿美元,年复合增长率超40%。数字背后,是一条清晰上扬的产业曲线,也是AI时代赋予散热行业的巨大机遇。

千亿市场的诱惑之下,隐藏着不容忽视的陷阱:液冷并非简单“替代”风冷,而是“重构”散热逻辑。尽管液冷优势显著,但供应链完善、成本优化仍需时间,产业链成熟度、部署成本及运维的复杂性,仍制约着液冷技术的规模化落地。

未来一段时间,风冷与液冷将长期共存、协同互补——低功率密度的通算、存储场景,风冷技术成熟、成本可控,仍有不可替代的价值;中高功率密度的智算、超算场景,液冷则是唯一兼顾效率与节能的方案。高盛也预测,2027年风冷市场规模仍将维持24亿美元,不会彻底消失。

针对行业长期存在的“风液脱节”与“资源错配”难题,浪潮通信推出的“风液同源解决方案”给出了新的破题思路。传统风液同源架构多采用双环网设计——即一套低温供水管与一套高温回水管,风冷与液冷系统均从同一低温环网取水。然而,二者对水温的实际需求并不相同:风冷需要更低温的冷水才能保证换热效率,而液冷因自身高热容特性,仅需中温水即可满足散热要求。传统架构“一刀切”地供给低温水,实则是将高品位冷量用于低需求场景,造成“大材小用”的能效浪费。

浪潮通信以“分温支流环网”架构取代传统双环网。该设计通过三个独立环网,分别为风冷供应低温水、为液冷供应中温水,并共用一套高温回水网络,实现冷量的精准分级与梯次利用。系统可根据实际负载,在纯风冷、纯液冷及混合模式间无缝切换,犹如混合动力系统智能调配油电比例,灵活适应算力波动。

这一架构再搭配浪潮自主研发的AI智控平台,便构成了散热系统的“智慧大脑”。平台能够实时预测算力负载变化,自动调节供水温度与流量,实现制冷策略的动态优化。凭借此项集成创新,浪潮通信荣获2025年度中国IDC产业创新技术产品奖。其基于多年实践编撰的《弹性液冷算力中心建设与管理指南》,亦为行业提供了从设计到运维的标准化方法论。

业界将2023年、2024年视为液冷起步年,2026年则是其规模化爆发的关键节点。

液冷的革命才刚刚拉开序幕。千亿赛道之上,那些能破解核心痛点、适配多元场景的参与者,才能在这场算力时代的浪潮中,踏浪前行。

(大众新闻记者 陈晓婉 赵雅南 设计 赵雅南 陈晓婉 张海飞)

相关链接:国企进化论|“钢铁侠”的新征

责任编辑:金雪