云计算行业:智算中心液冷产业全景研究报告(2025年)
一、政策与需求合力推动液冷产业蓬勃发展
(一)我国智算中心迈向提质增效新阶段
算力结构持续优化,智算中心加速布局。近年来,我国智能算力规模持续扩大,智能算力占算力总规模比重进一步提升。截至2025年6月,我国智能算力规模达到788EFLOPS(FP16)。智能算力的旺盛需求同样带动了智算基础设施建设热潮,我国境内拟建、在建、已建成的智算中心项目数量持续突破,项目地点遍布30余座城市,已成为我国综合算力基础设施体系中的重要组成部分。
节能降碳政策频出,推动绿色技术深化应用。2024年我国算力中心总耗电量达到1660亿kW·h,约占全社会总用电量的1.68%。为引导我国算力基础设施实现绿色低碳高质量发展,国家有关部门出台了一系列政策举措,鼓励液冷等节能技术应用。国家发展改革委等四部门联合印发的《数据中心绿色低碳发展专项行动计划》提出,“因地制宜推动液冷、蒸发冷却、热管、氟泵等高效制冷散热技术,提高自然冷源利用率”。工业和信息化部等六部门联合印发的《算力基础设施高质量发展行动计划》提到,“支持液冷、储能等新技术应用”。
(二)液冷系统重构智算中心散热新范式
液冷技术可显著降低智算中心运营成本。液冷是一种新兴的智算中心散热形式,其相较于传统风冷散热方案更为简化,取消了冷水机组、空调末端等高能耗设备。借助冷却工质较高的比热容与优异的导热性能,液冷系统能够支持智算中心单机柜功率密度轻松突破40kW。对智算中心运营方而言,引入液冷技术有助于降低后期运维成本与能源支出。同时,在面对土地资源紧张、土建成本高昂等诸多不利条件时,可通过部署液冷系统解决服务器高密部署的散热难题,以实现算力规模扩展与初期投资的高效平衡。施耐德电气曾对采用不同散热技术的高功率密度部署场景进行了比较分析,结果显示,在假设算力规模相同时,对于单个机架功率为20kW的场景,使用液冷技术可以比传统的风冷方案节省大约10%的投资成本;而当单个机架功率增加到40kW时,这一比例上升到了14%。
液冷技术可解决AI服务器高功率密度下的散热难题。智算中心部署的AI服务器通常由内部搭载的GPU(GraphicsProcessingUnit,图形处理器)等各类计算芯片承担计算任务。在芯片设计层面的不断优化和异构技术的加持下,虽然芯片制程逐渐逼近硅基材料的晶格结构和物理特性极限,但单个芯片的功耗仍然增加迅速。根据实验数据,当芯片功率超过300W时,传统风冷系统散热能力便已失效,芯片热失控风险急剧升高。液冷技术利用液体比热容高于空气的优势,通过与发热元器件紧密结合,实现对芯片精准散热,芯片结温可降低约15℃至25℃,充分满足了高密部署场景下的芯片散热需求。
二、不同技术路径呈现出多样发展态势
智算中心液冷散热系统主要有三种形式,分别为:冷板式液冷系统、浸没式液冷系统和喷淋式液冷系统。从工程应用进展来看,冷板式液冷系统与浸没式液冷系统均已实现规模化部署,呈现良好发展态势。喷淋式液冷系统受限于喷嘴结构设计等硬件因素,以及冷却液射流或喷雾在温度均匀性和传热特性等微观层面的局限,实际工程实践较少,其发展有待进一步观察。
本站内容源自互联网,如有内容侵犯了您的权益,请联系删除相关内容。 本站不提供任何金融服务,站内链接均来自开放网络,本站力求但不保证数据的完全准确,由此引起的一切法律责任均与本站无关,请自行识别判断,谨慎投资。