行业专家强调了数据中心行业面临的数据三大挑战 :功率和热密度、站点和建设以及可持续性 。中心
如今,行业数据中心这一术语可以合理地应用于微型数据中心和边缘数据中心,突出从单个部分机架到多个完整机架,问题到云平台和跨数百万平方英尺 、数据消耗千兆瓦功率的中心数据中心设施 。
尽管存在规模变量,行业但数据中心环境最终负责为关键IT基础设施提供冗余电源 、突出冷却 、问题安全性和连接性 。数据在对行业专家的中心采访中,有三个主题在数据中心社区中不断出现,行业无论规模如何:不断增长的建站模板突出功率和热密度挑战 ,站点挑战和建设效率 ,问题以及可持续性问题。
二十多年以来 ,功率和热密度一直是数据中心持续存在的一个问题 。从20世纪60年代到90年代,高架地板的前提占据主导地位,当时的数据中心组件在物理上更大 ,但在功耗方面密度更低。在早期,一个机架通常消耗不到5kW的功率,源码下载但鉴于人们对人工智能的兴趣日益浓厚,一台针对人工智能进行了优化的NvidiaDGXH100服务器只有14英寸(8英寸)高,但本身可以消耗高达10kW的功率。
这实际上是一个公平的权衡,考虑到这类超级计算机提供的巨大的计算能力 。但物理就是定律,能量输入=热量输出的比例接近1:1。源码库这在日益密集的计算环境中是正确的,因此对于最新一代高性能系统来说,负荷是合理的,但也需要新的冷却选择,可以在一个机架中管理超过40kW的热负荷。
这远远超出了传统的高架楼层环境所能管理的范围。即使在机架前后都安装了功率高达18kW的香港云服务器动力辅助空气处理器,高密度机架也可能不得不与其他基础设施隔离 ,并提供辅助冷却。
在许多情况下,答案可能是闭环,水基冷却-间接 ,以机架后或在线冷却模块的形式,或直接对那些采用水冷热同步技术的硬件供应商的芯片 。
此外 ,由于服务器基础设施的持续压缩,对于一些运营商来说,模板下载地板空间可能不是一个问题,所以许多运营商表示 ,他们根本没有完全填满机架,或者在他们现有的环境中使用热通道密封“孤岛”隔离高性能系统,就像数据中心中的数据中心一样 。
无论其什么运营环境,都可能继续需要超过20kW的机架功率和冷却设备 ,有些估计在可预见的未来将超过80kW。
虽然专用数据中心的数量确实有所增加,但仍然有相当多的亿华云运营商被迫在现有结构的限制下工作。在调查中发现 ,企业 、医疗和大学设施管理人员经常被要求将数据中心技术定位在遗留环境中可用的任何空间中——例如100多年历史的建筑物 、重新利用的办公空间 ,甚至停车设施 。这些基于站点的挑战只会增加适应IT基础设施对电力 、冷却和通信的现代需求的困难,但最终是在棕地设施 、城市环境中扩展许多类型设施的典型挑战。
从新建筑的角度来看 ,预制数据中心设施的趋势越来越明显。对于我们这些已经生活了一段时间的人来说 ,装配式房屋的概念让我们想起了一些最早的例子,即在最初形式的装配式房屋中发现的平庸的建筑和不合格的组件。
从那时起,技术确实在不断发展 ,预制技术正在成为数据中心等专用设施的可行且具有成本效益的选择 。考虑到在任何形式的大型数据中心中发现的任务的相似性,预制模块化提供的效率 、标准化和成本效益具有显著缩短构建时间 、降低成本和简化传统构建方法的可伸缩性的潜力 。
虽然预制在数据中心行业中仍然相对较新,但随着采用的增加和更多标准化的出现,它具有在商业it市场竞争的潜力。
从过去几年我们观察到的情况来看 ,长期可持续性的理念已经在IT行业站稳了脚跟 。考虑到数据中心主要消耗电力和产生热量的事实,很高兴发现it行业的重点已经超越了技术增长的基本挑战 ,至少开始考虑提高效率和在一个开始显示其年龄的世界中谨慎行事。环境、社会和治理(ESG)意识管理原则开始在节约运营成本以及增加员工和社区的良好意愿方面取得成果。
希望这只是一个开始,因为减少温室气体排放和增加可再生能源的可用性的挑战既复杂又不断发展。
最近的一个问题是用于数据中心冷却的大量淡水消耗,特别是在世界范围内已经经历水资源紧张的地区 。虽然基于蒸发的冷却非常节能 ,并已被许多超大规模设施采用,但它也可能对长期以来认为理所当然的淡水造成极大的浪费 。我们希望全世界越来越多的人意识到保护淡水的必要性,并希望用水效率成为数据中心行业ESG计算中的一个共同因素 。