<section><section><section><img src="http://www.iteaq.com/upload/1765501609.gif" style="max-width:100%;" contenteditable="false"/></section></section><section><section><section><section><p><br/></p></section></section></section></section><section><section><section><p><strong>关键词</strong><strong>|液冷、风冷、节能、智算中心</strong></p></section></section></section><section><section></section> </section><section><p>随着人工智能算力需求的爆发式增长,智算中心服务器功率密度持续攀升,冷却技术作为保障算力稳定输出的核心支撑,选型与发展方向备受行业关注。基于多年数据中心基础设施建设实践与技术研发经验,<strong>艾特网能</strong><strong>技术专家大成师兄针对行业关于冷却技术的五大核心疑问给出专业解答。</strong></p></section><section><section></section> </section><p><br/></p><section><section></section></section><section><section> <section><section><section><section><p><strong>1、提问:</strong><strong>单机柜功耗到多少以上适合采用液冷方案?</strong></p></section></section></section></section></section></section><section><section> <section><section><section><section><p><strong>回答:</strong></p><p>针对智算高密场景,创新型风冷方案可支持达50kW/R,并非有些观点认为的单柜20kW或30kW以上必须采用液冷方式。艾特网能在多个项目实践中采用创新型风冷近端冷却等多维协同散热,单机柜风冷能力可突破40kW,最大可达到50kW。当单机柜功率密度达到50kW以上建议风液混合或风液同源形式冷板液冷方案。</p></section></section></section></section></section></section><section><section><section><section><section><p><strong>算力高密场景冷却选型破局:50kW成液冷适配关键阈值</strong></p></section></section></section></section></section><p><br/></p><section><section><section><p><b>2、</b><strong>提问:</strong><strong>智算中心是否风冷和液冷在相当长一段时间会共存?</strong></p></section></section></section><section><section> <section><section><section><section><p><strong>回答:</strong></p></section></section></section></section> </section></section><section><section><section><p>1、冷板式液冷是液冷应用最多的形式,冷板液冷方案液冷近针对GPU/CPU内存等核心发热元件,其他如电容、电源模块PSU等仍需要风冷方式散热,也造就了冷板液冷是具备一定风液比的混合冷却方案,<strong>风液融合方案成为冷板式液冷最重要应用场景。</strong></p><p>2、应用层面,目前国内获取的算力服务器大多数是风冷版本,极小部分是液冷设备,其次在存量市场而言,国内的风冷数据中心已经运行了相当长的时间,规模也相当大。</p><p>3、液冷成本与可靠性:液冷的建设成本和运维成本较高。此外,液冷的可靠性问题,也是制约液冷大规模发展的重要原因之一。</p><p>4、风冷在某些场景有着独特的优势。智算中心里面的存储、交换机,其功耗很低,如果采用液冷冷板的方案来进行适配,那么其整体的经济性就很差,没有必要。</p><p>5、在数据中心,除了服务器之外,还有重要的需要散热的部分,就是供配电系统,包括UPS、高压直流电等,也需要温控,但是并没有必要采用液冷。</p></section><section><section><section><p><strong>核心共识:风冷液冷并非替代关系,而是长期共存互补</strong></p></section></section></section></section></section><p><br/></p><section><section><section><p><strong>3、</strong><strong>提问:</strong><strong>当前液冷项目系统架构痛点?</strong></p></section></section></section><section><section> <section><section><section><section><p><strong>回答:</strong></p></section></section></section></section> </section></section><section><section><section><p>水系统冷板液冷面临的问题和痛点有:</p><p><strong>规划层面:</strong></p><p>• 功率密度持续攀升,难以提前规划;风液需求不定,兼容成本很高 (常规液冷系统一次、二次侧均为水系统大循环方案,另有风侧系统独立部署或一次侧风液同源方式);</p><p>• 制成芯片差异太大,接口标准化很差。(不同服务器接口差异、软管材质、密封材料不一);</p><p>• 液冷冗余可靠性问题,泄露带来的损坏。(冷板液冷先天性备份性差、从管网设计角度降低爆炸半径、优化软管接头技术);</p><p>• 受二次侧供液温度降低趋势、添加剂造成换热性能降低、极端气候等因素限制,冷却塔无法单独供用,一次侧需备冷机。</p><p><strong>运营层面:</strong></p><p>• 一、二次侧添加剂造成换热性能降低、粘度/阻力增大、运行功耗增加,节能空间受限;</p><p>• 水质问题——脏堵/腐蚀——缓释除垢/维护周期短——独立水处理设备;</p><p>• 互插混插的兼容性和责任问题(UQD、UQDB、TDU接头等标准兼容设计);</p><p>• 不同服务器使用不同溶液甚至专用冷却液;</p><p>• 运维团队的技能和经验都是比较缺失。</p></section><section><section></section></section><section><section><section><img src="http://www.iteaq.com/upload/1765502076.png" style="max-width:100%;" contenteditable="false"/><p><strong>水系统冷板液冷在规划与运营层面均面临突出痛点</strong></p></section></section></section></section></section><p><br/></p><section><section><section><p><b>4、</b><strong>提问:</strong><strong>板式液冷有哪些形式?</strong><strong>为什么风液同源是冷板式液冷的推荐方式?</strong></p></section></section></section><section><section> <section><section><section><section><p><strong>回答:</strong></p></section></section></section></section> </section></section><section><section><section><p>冷板液冷典型形式包含一次侧采用水及制冷剂相变介质的同源或混布冷源方案,二次侧采用去离子水或EG25%、PG 25%(加缓蚀剂)等介质,同时业内也正在尝试采用低沸点相变介质冷板式液冷实践验证。</p><p>1、基于算力负载及风液比需求不确定性,<strong>风液同源方案简化CDU一次侧的管网设计及工程,能更好兼顾风液比;</strong></p><p><strong>弹性部署:</strong>风冷、液冷比例可动态调节,能够适配不同机型,智能化调整液风比。相比传统液冷数据中心,无需设置两套冷源系统、两套温控系统,减少了系统的复杂性,降低了运维难度与成本。</p><p><strong>简化设计与施工:</strong>采用水侧的风液同源设计,从室外侧到室内侧是同样的冷却水,将CDU和风侧双盘管空调布置在同一个冷却水环路中,室外冷源可按照整个服务器功耗去设计,可以简化整个系统的设计和前期的施工难度。</p><p>2、目前国内外很多头部客户都在规划和实践风液同源的方案。如果业务无需液冷,那么就改为风冷机房正常使用。 如果业务用于大规模的训练或者推理业务这种比较确定的AI高密场景,那么从长期的角度来考虑,那就一定要用液冷技术来降低CLF。</p></section><section><section></section></section><section><img src="http://www.iteaq.com/upload/1765502146.png" style="max-width:100%;" contenteditable="false"/><p><strong>中温液冷智算场景(40℃供液):冷却塔/干冷器 + 液冷换热 + 水冷混动双擎补冷</strong></p><p><br/></p></section><section><section></section></section><section><img src="http://www.iteaq.com/upload/1765502153.png" style="max-width:100%;" contenteditable="false"/><p><strong>低温液冷智算场景(≤30℃供液):悬浮多联主机 + 氟-液CDU换热 + 风冷热管末端补冷,“无水”液冷</strong></p></section><section><p><br/></p></section><section><section><section><p><strong>冷板液冷优选路径:风液同源方案破解行业痛点</strong></p></section></section></section></section></section><p><br/></p><section><section><section><p><strong>5、</strong><strong>提问:</strong><strong>制约液冷大规模发展的关键原因?</strong></p></section></section></section><section><section> <section><section><section><section><p><strong>回答:</strong></p></section></section></section></section> </section></section><section><section><section><p>当前液冷项目系统架构存在诸多痛点,这些痛点也是制约液冷大规模发展的关键原因,具体如下:</p><p><strong>•标准化体系缺失:</strong>行业尚未形成标准化的接口形式与技术规范,不同厂商产品兼容性适配障碍明显,服务器与机柜强耦合,限制了IDC规划部署。同时,第三方检测机构缺乏统一的可靠性评估标准,导致液冷项目平均交付周期延长,制约了产业协同发展。</p><p><strong>•设计经验不足:</strong>许多数据中心建设方或设计方仍以风冷逻辑或传统暖通思路套用液冷系统,缺乏对液冷架构的系统理解,导致布局混乱、热路径不清,甚至出现热回流或流量不均等问题。冷板选型、CDU配置、管路布设等环节也常边施工边摸索,隐藏工程隐患。</p><p><strong>•系统集成门槛高:</strong>液冷系统中设备安装的精度和工艺标准远高于传统风冷系统,牵涉硬件定制、液路设计、控制系统集成、建筑土建适配等多个环节。施工团队对液冷结构和工艺理解有限,且施工图纸缺乏可执行性,导致现场返工频繁,影响工期与稳定性。</p><p><strong>•运维难度大:</strong>液冷系统维护异于风冷,运维专业性要求高,需定期维护冷板、水质、管路、CDU等。很多用户不具备专业知识,易导致冷却液污染、水垢腐蚀、微生物生长等问题长期积累,引发系统故障风险。</p><p><strong>•全生命周期成本考量:</strong>国内企业在液冷技术投资决策上更关注初期采购成本,忽视了液冷技术在长期运营中的显著优势。而液冷系统的初期建设成本通常较高,这使得许多企业对液冷技术的大规模应用持谨慎态度。</p><p><strong>•技术与供应链瓶颈:</strong>液冷技术需要跨领域协同,涉及结构工程、热流体力学、材料化学、智能算法等多个领域,由于缺乏统一标准规范,产能扩张受限。同时,液冷技术的供应链体系还不够完善,零部件供应的稳定性和质量控制面临挑战。</p></section><section><section><section><p><strong>液冷大规模发展瓶颈:六大痛点亟待行业协同破解</strong></p></section></section></section></section></section><p><br/></p><section><p>自2025年初全新发布CoolNova系列冷板式液冷全栈解决方案以来,已在西北、华北、华东等地交付30MW以上风液混合部署的冷板式液冷整体解决方案,实现稳定高效运行,以卓越性能与可靠表现赢得客户高度认可。</p></section><p><br/></p><section><section></section></section><section><p><img src="http://www.iteaq.com/upload/1765502182.png" style="max-width:100%;" contenteditable="false"/></p></section><section><section><section><section><section><p><b>结语</b></p></section></section></section></section></section><section><section><section><p>大成师兄最后表示,艾特网能未来将持续深耕风液融合冷却技术研发,参与行业标准制定,以自身实践经验助力破解液冷发展瓶颈,用协同合作推动产业升级,推动数据中心冷却产业向更标准化、规模化发展。</p></section></section></section><p><img src="http://www.iteaq.com/upload/1765502192.gif" style="max-width:100%;" contenteditable="false"/></p></section>

粤ICP备20042652号