“吹风扇”“泡冷水” 为“发烧”的AI服务器降温
大众新闻 陈晓婉 赵雅南 2026-02-27 06:41:20
从“吹风扇”到“泡冷水”,数据中心掀起冷却革命
为“发烧”的AI服务器降温

当AI大模型参数从千亿级冲向万亿级,训练所需的算力集群功率密度也水涨船高,传统风冷散热逼近物理极限,数据中心的服务器正陷入一场无声的“烤验”。
散热,这个曾被行业忽视的“配角”,正演变为制约AI产业规模化发展的“天花板”。在AI服务器功耗飙升与能耗管控趋严的双重驱动下,液冷散热技术正快速成长为主流选择。高盛预测,全球服务器冷却市场2025—2027年将迎来爆发式增长,液冷渗透率将从2024年的15%跃升至2027年的80%。
在济南,浪潮通信信息系统有限公司(以下简称“浪潮通信”)的实验室里,液冷散热系统已经研发成熟,其技术成果去年落地北京某运营商数据机房改造项目,让单机柜功率从5千瓦跃升至45千瓦,年节电4468兆瓦时,相当于近1500个家庭一年的用电量。
这并非孤例。当风冷无法承载AI算力的散热需求,液冷这场关乎算力存续的“冷却革命”,将如何改写行业格局?
在AI服务器功耗飙升与能耗管控趋严的双重驱动下,液冷散热技术正快速成长为主流选择。图为浪潮通信液冷微模块。(□赵亚伟供图)
给狂飙的算力“退烧”
这场冷却革命的“导火索”,是AI算力的爆发。
此前,服务器的降温逻辑相对简单,风冷技术如同给机房装上无数台“风扇”,依靠加速空气流动带走服务器表面的热量。风冷技术成本低、部署快,在单机柜功率低于10千瓦的时代游刃有余。
然而,数字化与AI浪潮迅速推高了功率密度。
“当功率密度被推至40千瓦以上,相当于把20台家用电暖器塞进一个冰箱大小的机柜同时烤火,产生的热量几分钟就能烧开一浴缸水。”浪潮通信副总经理郭振君指出,“在此量级的热量面前,仅靠风冷降温捉襟见肘,芯片会因过热而降频,性能大打折扣。”
不仅如此,当功率超过40千瓦,风冷不仅难以解决芯片局部热点问题,还会让PUE(能源使用效率)急剧攀升至1.3以上。这意味着,每消耗1度电用于核心计算,就需要额外消耗0.3度电用于散热,既无法适配当前高密算力的需求,也难以满足日益严格的节能管控要求。
政策层面也在持续加压。2024年7月,国家发展改革委等部门明确要求到2025年底,新建及改扩建大型和超大型数据中心PUE降至1.25以内,国家枢纽节点数据中心项目PUE不得高于1.2。这一硬性约束,使得高能效散热方案成为市场竞争的“入场券”。
通俗来讲,液冷就是利用液体替代空气作为冷却介质,通过液体的循环流动将服务器产生的热量带走。与风冷相比,液冷系统的热交换效率提升3-5倍,能将数据中心PUE降至1.05,接近“理论极限值”。PUE数值越接近1,表明电能越集中用于计算设备本身,几乎把能耗都用在了刀刃上。
“液冷技术的崛起,本质是算力密度与能耗政策双重挤压下的必然选择。”郭振君表示,“在算力需求爆发初期,我们就意识到液冷必然成为破题关键。因此浪潮通信提前研发,构建了从冷板、浸没到风液同源的全系列技术体系,以应对市场上对冷却方案的爆发式增长需求。”
液冷如何为服务器降温
从北京某运营商数据机房的改造案例看,液冷就像是给“高烧不退”的AI服务器量身定制的“退烧药”,既高效又经济。但这场技术革新背后的路线博弈与落地难题,远比想象中复杂。
当前液冷技术主要分为冷板式和浸没式两大路线。
冷板式液冷就像给发热器件贴上“冰袋”,将液冷冷板固定在主要发热器件上,再通过密闭管道中循环的冷却液带走热量。其最大优势是无需改变服务器原有架构,适配性强、改造难度低,可快速落地应用。
浸没式液冷,则是把服务器泡进“恒温凉水池”,通过冷却液的对流或相变实现热量传递。这种方式的散热效率是风冷的1000倍以上,属于“直接接触散热”,专为超算、高端AI训练等超高功率场景而生。
郭振君介绍,浪潮通信的冷板式液冷方案PUE低于1.15,浸没式方案更是低至1.05,“冷板式是‘当前最优解’,适配80%以上的智算、通算升级场景;浸没式是‘未来终极解’,针对超算等极端高密场景。”
但无论选择哪条技术路线,都绕不开液冷系统的核心风险——泄漏与腐蚀。
冷却液在密闭管路中持续循环数年,对防腐防锈、化学稳定性和微生物控制提出极高要求。“若钝化工艺不达标,管网极易发生锈蚀。锈蚀产物与菌落堆积会堵塞流道,导致芯片局部升温异常,严重影响数据中心整体性能。”浪潮通信数据中心研发负责人李俊山说。
这也正是浪潮通信将水管连接、泄漏防控等细节视为研发重心的原因。2025年12月,“浪潮预制模块化弹性液冷智算中心”被中国职工技术协会认定为2025年度职工技术创新成果特等成果。
百亿级赛道,谁能踏浪而行
政策与效益双重驱动,液冷市场规模到底有多大?
李俊山认为,目前,风冷仍是主流,液冷市场占比接近20%,但因为AI爆发带动了高功率服务器需求,液冷增长势头迅猛,预计2030年市场份额将达到40%至50%。国际数据公司(IDC)等机构预测,到2028年,中国液冷服务器市场规模将突破102亿美元,年复合增长率超40%。
市场诱惑下,隐藏着不容忽视的问题:尽管液冷优势显著,但供应链完善、成本优化仍需时间,产业链成熟度、部署成本及运维的复杂性,仍制约着液冷技术的规模化落地。高盛预测,2027年风冷市场规模仍将维持24亿美元,不会彻底消失。
针对行业长期存在的“风液脱节”与“资源错配”难题,浪潮通信推出的“风液同源解决方案”给出了新的破题思路。传统风液同源架构多采用双环网设计——即一套低温供水管与一套高温回水管,风冷与液冷系统均从同一低温环网取水。然而,二者对水温的实际需求并不相同:风冷需要更低温的冷水才能保证换热效率,而液冷因自身高热容特性,仅需中温水即可满足散热要求。传统架构“一刀切”地供给低温水,实则是将高品位冷量用于低需求场景,造成“大材小用”的能效浪费。
浪潮通信以“分温支流环网”架构取代传统双环网。该设计通过3个独立环网,分别为风冷供应低温水、为液冷供应中温水,并共用一套高温回水网络,实现冷量的精准分级与梯次利用。系统可根据实际负载,在纯风冷、纯液冷及混合模式间无缝切换,犹如混合动力系统智能调配油电比例,灵活适应算力波动。
这一架构再搭配浪潮自主研发的AI智控平台,便构成了散热系统的“智慧大脑”。平台能够实时预测算力负载变化,自动调节供水温度与流量,实现制冷策略的动态优化。凭借此项集成创新,浪潮通信获2025年度中国IDC产业创新技术产品奖。
业界将2026年视为液冷规模化爆发的关键节点。这场冷却革命中,那些能破解核心痛点、适配多元场景的参与者,才能在这场算力时代的浪潮中踏浪前行。
(大众新闻·大众日报记者 陈晓婉 赵雅南)
责任编辑:许光宇
