厄尔尼诺带来高温“烤”验 数据中心迎峰度夏有新方
证券时报 2023-07-15 09:39

近日,中央气象台持续发布高温橙色预警,多省份局地温度达40℃以上。持续高温下,数据中心的散热问题受到各方关注。去年夏天,在高温的冲击下,谷歌、甲骨文等科技巨头的数据中心一度出现冷却系统瘫痪,导致运行故障。前车之鉴历历在目,国内数据中心将如何迎接“烤”验?

证券时报记者近日调研发现,液冷技术凭借其在制冷方面的诸多突出优势,成为数据中心建设的重要选择。除了强化技术储备和应用试点外,三大运营商已确定2025年将液冷的渗透率推至五成以上。

数字社会迎来新“烤”验

“从现实情况来看,全球范围内因天气过热、散热系统出现问题所导致的数据中心宕机事件已屡屡发生。”网宿科技数据中心实施交付总监谢洪明对证券时报记者表示,散热是数据中心的生命线。数据中心的服务器和算力设备运行时,会产生巨大的热量。若不及时散热,数据中心机房内温度过高可能会导致设备宕机和损坏,进而发生业务中断。

世界气象组织7月4日宣布,热带太平洋再次形成厄尔尼诺条件,这可能导致全球气温飙升、破坏性天气和气候模式的出现。

近年来,随着全球温度持续升高,数据中心在极端高温下突发故障的现象已不鲜见。例如,去年7月,伦敦经历数日的极端高温,科技巨头谷歌、甲骨文的数据中心冷却系统瘫痪,导致系统宕机。去年9月,美国加州气温一度超过40度,导致当地的推特数据中心停摆。

在5G等新技术的快速普及下,数据中心已成为数字经济发展的关键基础设施和重要支撑。庞大的设施体量以及日益增长的算力需求,使数据中心散热需求也呈现井喷势头。厄尔尼诺伴随盛夏来临,数据中心散热迎来新的考验,这关乎整个数字社会的正常运转。

液冷方案助力数据中心迎峰度夏

走近网宿科技上海嘉定云计算数据产业园区的风冷散热系统冷冻站,冰凉扑面而来,密布的银白色管道里传出低沉的“嗡嗡”声。

谢洪明向记者介绍,这套散热系统,是以冷冻水为冷媒,将低温冷冻水送至数据机房,通过精密空调,把数据机房服务器吹出的热空气冷却后再送风。冷冻水温度因此而升高,当冷冻水返回冷冻机房后,通过压缩机系统,将冷冻水温度再降低,形成往复循环——这正是传统数据中心的风冷冷却技术。

不过,风冷对土地资源和环境因素存在一定要求,前期的建设成本往往较高。在未来算力持续增加、数据中心功率和密度提高的大背景下,业内正积极寻求散热技术的革新,液冷方案已脱颖而出。

根据中国移动、中国电信、中国联通今年6月共同发布的《电信运营商液冷技术白皮书》,当前,单相浸没式液冷、冷板式液冷为液冷技术的主要形式。浸没式液冷是服务器完全浸入冷却液中,全部发热元件热量直接传递给冷却液,通过冷却液循环流动或蒸发冷凝相变进行散热的一种方式。冷板式液冷是服务器芯片等高发热元件的热量通过冷板间接传递给液体进行散热,低发热元件仍通过风冷散热的一种方式。

跟风冷相比,液冷能从根本上改变主设备的散热方式,并满足高密度机柜、芯片级精确制冷要求,具有更节能、噪声更低等优点。

在网宿科技浸没式液冷技术机房,谢洪明向记者展示了浸没式液冷技术。只见机柜里,一排排服务器紧密排列,静谧地浸没在清澈的液体中。据介绍,这是上海首座全浸没式液冷机房,该机房的电能利用效率(PUE)低至1.1。

“浸没式液冷技术是一种高效、环保、可靠的散热方法,也是业内公认的数据中心下一代散热解决方案。液冷技术使用液体取代空气作为冷媒,为发热部件进行换热,可将服务器散热能耗降低80%至90%、IT设备能耗降低5%至10%,实现高效散热。”谢洪明表示。

据了解,通过传统风冷与浸没式液冷的结合使用,网宿科技嘉定园区的整体PUE低至1.25,不仅落实“双碳”政策,也实现了节约效应。

在2023世界人工智能大会的燧原科技展区上,记者在现场观察了冷板式液冷的运作原理。

只见庞大的云燧智算集群展示机柜搭载了8台云燧S201-L液冷开放加速计算服务器,而在单个服务器上,红蓝两条管道正模拟散热的过程。蓝色管道的冷却液向服务器内部流动,绕了一圈的同时带走内部的热量,并经过红管向外流出。同时,服务器外部的冷液分配装置(CDU)会将已吸收热量的冷却液进行再冷却处理,从蓝管再度流入,从而形成了服务器的液冷循环。

燧原科技技术相关负责人对证券时报记者表示,传统风冷模式在散热效率方面弱于液冷,尤其当整台服务器机柜的功耗超过25千瓦时,风冷散热存在的风险较大。从能耗上看,一般来说,风冷的PUE在1.2至1.3之间,而液冷的PUE可以达到1.1甚至1.1以下。

此外,风冷机柜在叠放单个服务器时,往往需要中间隔一层以便于散热,即存在“占地方”的缺点。相比之下,液冷则可以把服务器的实际使用空间扩大一倍。

“风冷主要通过空气流动将服务器产生的热量带走,这本质上仍依赖于整个空调和散热系统,外界气温也形成干扰因素。相比之下,液冷对外界的依赖性较小,只要CDU正常运作,散热就可以持续。”燧原科技技术相关负责人表示。

三大运营商推进液冷技术规模化应用

液冷技术大规模应用已近在咫尺。

《白皮书》对液冷技术提出三年发展愿景:三大运营商将于2023年开展液冷技术验证;2024年开展规模测试,新建数据中心项目10%规模试点应用液冷技术,推进产业生态成熟,降低全生命周期成本;2025年开展规模应用,50%以上数据中心项目应用液冷技术。

不过,与传统风冷产品比较,液冷仍存在初期投资高、全生命周期成本高、产业生态不完善、标准化程度低等问题。

浪潮信息数据中心产品部副总经理李金波表示,液冷数据中心的建设既要发挥液冷自身的特点优势,又需要综合考虑客户的实际需求和行业技术现状。面对复杂多变的需求,标准化是液冷数据中心发展的重要抓手。通过标准化可以有效地降低液冷应用的技术门槛和成本门槛,从而实现产业化、批量化。

技术路线选择方面,冷板式液冷与单相浸没式液冷各有千秋。《白皮书》认为,两者生态均需完善,未来一定时间内将并存发展,三大运营商将同时推进两种技术路线。

“AI大模型、超算、智算、边缘计算等场景将带来高算力需求,散热要求随之提高。同时,‘双碳’目标对数据中心的能耗要求也趋于严苛。因此,我们认为浸没液冷将成为数据中心的必选项,并迎来应用推广。”谢洪明表示。

奥飞数据相关负责人对证券时报记者表示,对于新建数据中心,公司配备了更为高效节能的精密空调等温控设备,部分数据中心还部署了分布式光伏发电,利用新能源作为补充以达到绿色减碳的目标。液冷作为一种新型的冷却方式,较主流的风冷方式而言,其效果是比较显著的。但目前配备了液冷的数据中心数量较少。

“由于涉及客户服务器运行稳定性和成本,公司主要以客户需求为导向,如果客户有相关需求我们也有能力配合客户实现。”奥飞数据相关负责人表示,公司将关注液冷技术的发展,并保持开放态度与相关方探索液冷在数据中心的落地和应用。

编辑/范辉

相关阅读
拉美长期干旱,谷歌调整在该地区数据中心建设规划
央视财经 2024-10-20
数据中心太耗电?英伟达合作伙伴的“油冷”技术大砍至多50%能耗
财联社 2024-08-30
节能降碳是数据中心必答题
经济日报 2024-08-17
智能高效与绿色低碳并行 北京移动积极打造绿色算力中心
北京青年报客户端 2024-08-06
AI算力竞争加剧 散热技术向液冷革新已成趋势
证券日报 2024-05-14
算力需求大爆发 高能耗难题何解?
21世纪经济报道 2023-09-16
大模型推高算力能耗 液冷是节能的好办法吗?
第一财经 2023-09-09
AI算力需求大增 产业链公司迎来新机遇
上海证券报 2023-09-04
最新评论