随着算力产业及通信网络的快速发展,硬件不断更新升级,设备集成度及单机柜功率密度显著提高,在当前算力需求急剧增长和能效要求日益严苛的背景下,三大运营商积极响应国家绿色、节能、低碳政策要求,推动建立并完善数据中心液冷技术生态系统,通过寻找高效的液冷解决方案,以应对数据中心日益严峻的能耗和散热问题。

以位于河北石家庄的联通浸没式液冷可移动集装箱式高密度绿色数据中心为例,联通在推动液冷行业业内实践及应用落地的过程中,与兰洋科技进行了深入的技术交流与合作探讨。基于对液冷技术的共同理解和认可,兰洋科技团队在针对项目应用场景及应用需求的深入评估后,为联通提供了一个创新且高效的解决方案:远程部署浸没式液冷可移动集装箱式高密度绿色数据中心。

(图一)浸没式液冷可移动集装箱式高密度绿色数据中心

浸没式液冷可移动集装箱式高密度绿色数据中心

为联通使用场景量身打造的浸没式液冷可移动集装箱式高密度绿色数据中心,在灵活扩容、安全可靠的前提下,由专业的结构、热控、材料、电子工程师团队主导,采用了兰洋科技自主研发的液冷材料和浸没式液冷散热系统。结合成熟的系统设计和管路布局,有效解决了高密度散热难题。此项目方案突破了液冷材料、复杂密封结构设计、系统集成与模块化设计上的诸多挑战与难点,在确保整体散热效率和系统可靠性、扩展性的同时,为迫切需要高效散热解决方案且空间有限的应用环境实现了液冷应用示范。

浸没式液冷集装箱项目亮点及创新点

1BO系列冷却液,安全可靠

在冷却液的选择上,该项目采用了兰洋科技自研BO系列导热液,具有更高的热交换效率,拥有8—10年使用寿命,原料已完全国产化,为散热系统长期稳定运行提供保障,在核心攻关技术问题上完成了国产化替代的同时,也为行业输送了不同应用场景下的一系列优秀液冷工质。液冷材料和浸没式液冷散热系统不仅有效解决了高密度散热难题,还通过成熟的散热系统设计,确保了整体散热效率和可靠性。

(图二)服务器浸没在兰洋科技BO系列导热液中稳定运行

服务器浸没在兰洋科技BO系列导热液中稳定运行

2)多项关键核心零部件及创新设计

该解决方案整体设计中,包含了多项关键核心零部件及创新设计,其代表了领先的整体散热解决方案设计能力,及产业化能力。这些关键核心零部件及产业链上游设计能力对于未来几年算力产业和高效绿色液冷数据中心的发展都将起到关键的推动作用。

3)自主研发技术,散热精准高效

采用自主研发生产的浸没式卧柜设计,具有可靠良好的换热性能和创新的密封结构,可以兼容90%以上服务器;

包含了多项关键核心零部件及创新设计,其代表了兰洋科技领先的整体散热解决方案设计能力,及产业化能力。这些关键核心零部件及产业链上游设计能力对于未来几年算力产业和高效绿色液冷数据中心的发展都将起到关键的推动作用;

作为应用示范案例的关键设计之一,领先的CDU设计思路也是整套设计方案的亮点之一:CDU采用自主设计,并配备有1+1冗余动力泵,精准控制,可对超多散热节点联合部署。

4)系统集成密度高,模块化部署

项目采用一体式设计的集装箱模块化部署方式,显著缩短了部署周期,可实现8-10天快速部署。同时具备优异的可扩展性和灵活性,可根据实际需求在室外部署并实现快速扩容,安装方便快捷,配合性高。

在设备部署密度提升上,液冷技术使得数据中心内部的设备可以更加紧凑地排列,实现了服务器部署数量的增加。这种密集部署可以提高数据中心的总体计算能力,进而提高资源利用率和经济效益。

(图三)浸没式液冷可移动高密度绿色数据中心吊装

浸没式液冷可移动高密度绿色数据中心吊装

5)降低能耗及成本,提高经济效益

在能源效率提升方面,浸没式液冷散热大幅减少了数据中心运行能耗;在节能减排方面,通过减少能源消耗,绿色高密度液冷数据中心可以显著降低碳排放量。

以联通此次液冷集装箱部署地河北为例,本次通过整体的换热系统设计,全年有2个月以上无须依靠一次侧冷源,极大地降低全年综合能耗及数据中心运营成本。

目前联通液冷集装箱项目已部署完成40英尺集装箱内320U的高密度容量并投入使用,80台服务器支持最大550 kW的计算功耗。项目运行稳定,各项数据表现良好。

252U服务器部署后30天内,中央处理器平均温度基本稳定在62±2℃以内,GPU平均温度基本稳定在61±2℃以内,两种硬件之间的平均温差约为4℃,进一步体现了设备运行的稳定性和温度控制的有效性。本项目采用兰洋科技浸没式单相液冷技术,能源使用效率指标实现全年运行PUE值1.1,pPUE值低至1.03,每年节电600万kW·h。

通过兰洋科技针对此项目的方案设计和技术应用,不仅在高效散热和能效利用方面达到了行业领先水平,也在系统可靠性、安全性和扩展性方面建立了新的标准。不仅为中国联通强大的数据处理能力提供了支撑,也为整个行业展示了如何在满足日益增长的数据处理需求的同时,实现能源使用的优化和环境影响的最小化。

(图四)浸没式液冷可移动高密度绿色数据中心内部

浸没式液冷可移动高密度绿色数据中心内部

兰洋科技的液冷散热解决方案可够针对不同散热场景进行定制化调整,有较强的可复制性,现已在全国多个城市落地,并广泛应用于教育、云游戏、通信基站、人工智能等领域。未来兰洋科技将依托“液冷集装箱数据中心”等液冷产品,以创新为驱动力,携手行业伙伴共谋绿色发展之路,为行业数字化转型奠定基础。

关注中国IDC圈官方微信:idc-quan 我们将定期推送IDC产业最新资讯

查看心情排行你看到此篇文章的感受是:


  • 支持

  • 高兴

  • 震惊

  • 愤怒

  • 无聊

  • 无奈

  • 谎言

  • 枪稿

  • 不解

  • 标题党
2024-08-20 15:50:50
市场情报 兰洋科技与燧原科技深化江苏地区智算合作 共筑算力基石
此次兰洋科技与燧原科技强强联合,旨在打造高效、可靠的算力基础设施,为当地及周边企业注入强劲的数字动能,加速区域数字经济的高质量发展。 <详情>
2024-08-16 18:30:19
国内资讯 绿色算力 | 普洛斯常熟东南数据中心获LEED金级认证及IDCC绿色算力基础设施奖
表彰为数据中心行业发展作出突出贡献及树立行业标杆的数据中心厂商、解决方案提供商、设备制造商等。 <详情>
2024-07-31 17:07:00
市场情报 综合性价比超越硅谷,PPIO派欧云发布下一代推理加速引擎
派欧算力云推理加速引擎可广泛应用于多个场景,提供灵活且高效的解决方案。 <详情>
2024-07-24 18:22:47
运维管理 724运维节 | 普洛斯数据中心高效运营,以全生命周期增值服务提升客户体验
普洛斯数据中心运维团队由500多名专业人员组成,共管理逾60,000架的机柜规模,7x24h为全国客户提供运维保障服务。 <详情>
议程揭晓丨12月20日算力技术创新与应用系列论坛
2024-12-09 15:47:29
采访普洛斯数据中心郭仁声:智算时代 我们需要怎样的算力与数据中心
2024-12-09 11:44:05
5040机架 内蒙古云著智算产业园项目一期封顶
2024-12-06 14:24:19
马斯克超级计算集群再升级:xAI扩大GPU规模至百万
2024-12-06 14:21:34
未来10年的智算中心应该怎么建?|12月20日北京,AI算力建设系列论坛将启
2024-12-06 11:44:36
亚马逊发布超级计算机集群和新型AI芯片服务器
2024-12-05 14:54:16
12月20日北京,聚焦区域算力生态|2024算力产业生态高质量发展大会
2024-12-05 11:27:14
以用户需求为核心,科华数据领航高端定制数据中心新赛道
2024-12-04 15:52:50
英特尔CEO突然宣布退休 数据中心芯片竞争力不足或是主因
2024-12-04 10:12:00
莲花控股终止与新华三6.93亿订单:已自持700台算力服务器
2024-12-04 10:06:00
头部算力企业将悉数亮相、大咖云集,完整议程重磅公布|12月19-20日,北京,第十九届中国IDC产业年度大典重磅启幕
2024-12-04 09:54:00
总机柜1.8万个 兴业银行贵安新区数据中心开工
2024-12-03 10:07:00
SUSE推出一站式可观测性平台SUSE Cloud Observability 助力Rancher社区用户告别多工具监控
2024-11-28 15:19:38
800亿 17座数据中心落地马来西亚雪州
2024-11-28 14:53:32
5万机架 中国移动高原大数据中心(二期)开工
2024-11-28 14:47:35