微软,Facebook带着小说云冷却方法带来了暴跌
在开始测试水下数据中心的想法近四年之后,微软投入了更多的资源进行实验。
这一次,它已经淹没了超过864台计算机服务器(以及他们需要运行的所有相关档位)大约117英尺深的苏格兰海岸的海底。它们被挤进到12个机架中,并容纳在一个40英尺长的容器中,看起来比传统的数据大厅更像潜艇。整个原型耗尽约0.25兆瓦的可再生太阳能和风电,通过岸上的电缆进入它。
高级目标项目Natick.是为了测试在面临严格的工作负荷时,如运行人工智能计算或处理视频流服务时,凉爽的海水能在多大程度上保证该技术的运行。
该实验将持续一年,然后数据中心将被抬出水面,收集功耗、内部湿度和温度等指标。理论上,数据中心不需要长达5年的维护,对于那些想要重新启动“生活”在水下的计算机的人来说,这些计算机仅仅是休闲潜水者的深海极限。
但是它适合航海吗?
潜艇类比不是偶然的:用于勘探或军事应用的水下船是一种信息饥饿的结构,需要非常仔细地平衡电气和热效率。因此,微软聘请了一家来自法国的400年冷的工程公司,潜艇专业知识有助于设计其集装箱。
“在第一次看,我们认为数据中心和潜艇之间存在巨大差距,但实际上他们有很多协同效应,”海军集团的首席技术官员和创新主任埃里克波文说新闻稿。
例如,数据中心的热交换器使用相同的原理:冷水在机架的背面管道,然后强制退出以降低温度。
在很大程度上,传统数据中心的电力需求是通过如何将计算装备过热所需的电力决定。这通常通过设计的组合,例如凸起的地板和特殊通风方法以及风扇和冷却塔等设备来实现。运行服务器所需的功率比率与保持它们酷的需要是所需的称为电力使用效果(扁平)。越越近的得分为1,更好。
第一个项目Natick Design是在加州测试的,在迄今为止更平静的地方,较为浅水区105天。最终,该想法是测试概念是否将在海上工作,使用海上风力涡轮机或潜在,波或潮汐能发生器产生的能量。还有另一个潜在的奖金:更接近的数据中心是他们服务的人口,他们通常提供信息的速度越快。如果他们可以是“能量自给自足”,一如既越好。
这个最新地点是欧洲海洋能源中心的一部分,与此相关的风险是真实存在的。潮汐流的移动速度最高可达每小时9英里,10英尺的海浪很常见。一艘装有起重机和10个绞车的驳船把数据中心拖到海底。
Facebook漂浮在液体冷却中的突破
虽然它没有Microsoft项目的魔法因子,但Facebook也是如此大谈另一个史无前例的系统为了保持大规模的数据中心免受过热。
在其大部分地点,社交媒体公司使用室外通风和户外通风的组合直接蒸发冷却拉出这个的方法。确切的组合取决于数据中心物理位置的位置 - 这种方法无处不在,在气候非常潮湿或尘土飞扬的地方,Facebook使用间接冷却系统。
在后一项工作中,Facebook配合了加热,通风和空调制造商Nortek Air解决方案,开发了一种新的间接冷却系统,使用水而不是空气来冷却数据厅。
这项技术和它的同类技术的主要区别是,它产生的是冷水而不是冷空气,而冷空气经过仔细的过滤,因此可以在最少的维护下重复使用。该机组可以与风扇盘管墙、空气处理器、列式冷却器等系统结合使用,后门热交换器和芯片冷却。
据Facebook称,该系统的一大优势是,它将允许该公司在炎热潮湿的气候中建立数据中心,而目前在这些地区很难高效地建立数据中心。研究小组指出:
该系统不仅可以保护我们的服务器和建筑物免受环境因素,而且还将消除更广泛的气候条件下机械冷却的需求,并为数据中心设计提供额外的灵活性,需要较少的方形镜头以有效地冷却。虽然直接蒸发冷却仍然是冷却环境条件允许的数据中心的最有效的方法,但SPLC为更广泛的气候提供了更有效的间接冷却系统。
直观地,您可能希望这种方法可能会增加耗水量。但是Facebook报道,根据其测试,新技术可以在炎热和潮湿的气候下将水使用约20%。
顺便说一下,Facebook计算其数据中心投资组合中的PUE是1.10。它认为,它的新系统将比其直接冷却方法与直接冷却方法相比,即使在炎热和潮湿的气候中也会运行。