谷歌近日表示,公司的部分数据中心的冷却系统已经交给 AI 算法来控制。

在过去几年中,谷歌一直在测试一种算法,让计算机自我学习如何好地对冷却系统做出调整,以达到降低功耗的目的。该 AI 系统之前就曾向数据中心管理员提出过一些降低冷却功耗的建议方案,再由管理员来决定是否采纳,事实证明这些方案能使功耗降低 40%。

谷歌表示,一些数据中心冷却系统的控制权已经交到这些算法的手上,这些算法可以在无人为干预的条件下进行自主工作。

“就我们所知,这是全世界范围内第一次如此大规模部署工业自动控制系统”人工智能公司 DeepMind 的联合创始人兼应用 AI 负责人 Mustafa Suleyman 说道。

这展示了人工智能管理基础设施的潜力,以及先进的 AI 系统可以如何与人类合作。在这一项目中,虽然算法可以独立地运作,但还是有管理人员进行监督,并在认为可能出现危险的情况下进行人为干预。

此次采用的算法运用了强化学习技术,通过不断试错来达到学习的目的。同样利用了强化学习的,还有此前在围棋比赛中击败了顶级人类棋手的 AlphaGo。

在项目中,DeepMind 将谷歌数据中心收集的大量相关信息输入给算法,让其自行进行学习并最终确定哪种冷却配置能够减少能源消耗。谷歌数据中心副总裁 Joe Kava 表示,该项目将可以节省数百万美元的能源消耗,并能帮助公司降低碳排放量。

Kava 说,管理人员一直都更信任他们之前使用的系统,对 AI 系统控制冷却系统还是有些担心。因此他们为新系统设置了一些安全措施,以防止 AI 系统对整个冷却工作产生任何不利影响。此外还有一位数据中心经理可以随时观察系统的运行情况,及时了解 AI 对系统做出的调整指令,并在认为 AI 做出了不当的举措时进行人为干预。

最近几年来,数据中心的能源消耗已成为科技行业中一个亟待解决的问题。美国能源部劳伦斯·伯克利国家实验室的研究人员在 2016 年做的一份报告指出,2014 年美国所有数据中心的总耗电量约为 700 亿千瓦时,约占全国用电量的 1.8%。

不过,近年来在提高能源效率上的努力已经有了显著的成效。根据这份报告中的数据,因效率提升而节约的能源几乎抵消了由于数据中心数量增加而造成的能源消耗的增加。不过,报告预计到 2020 年,全美数据中心的总能源消耗量将达到约 730 亿千瓦时。

数据中心能源使用方面的一位顶级专家 Jonathan Koomey 说:“机器学习的实际运用是一项重要的发展,但在数据中心的总能源消耗中,制冷系统消耗的只占一小部分,大约只有 10%。”

Koomey 认为,利用机器学习来降低计算机芯片的耗能会有更重大的意义,芯片才是整个数据中心最耗能的部分,他说:“我更希望看到谷歌和其他大公司应用这些工具去优化在计算上的用的负荷,在计算方面的节能潜力要比冷却多数十倍。”

关注中国IDC圈官方微信:idc-quan 我们将定期推送IDC产业最新资讯

查看心情排行你看到此篇文章的感受是:


  • 支持

  • 高兴

  • 震惊

  • 愤怒

  • 无聊

  • 无奈

  • 谎言

  • 枪稿

  • 不解

  • 标题党
2024-02-26 15:34:43
5G资讯 极效、绿色、智能,中兴通讯将携多款重磅数智新品亮相MWC2024
面向移动通信技术未来演进,中兴通讯将呈现5G-A三大愿景和6大场景技术拓展。 <详情>
2024-02-05 17:38:00
市场情报 顶级专家联名推荐,逾70万奖金悬赏最强数学大模型
AGI Odyssey认为,数学作为一种智力和逻辑的象征,更是一种严密、逻辑且普适的语言对于模型的综合能力提供了很好的测评标准。 <详情>
2024-01-26 11:48:34
2024-01-22 15:25:05