有效的液体散热
数据中心的经理们在系统散热方面的工作实在无法令人满意。
研究机构Uptime Institute公司对一个拥有19间机房、综合建筑面积达到20万平方英尺的数据中心进行调查,发现该中心实际所具备的散热能力比要求的高出2.6 倍,但其中却有60%的散热能力因不合理的布局、通风设计等原因而被浪费掉。而且最终,超过10%的服务器机柜会出现温度过高情况。
掌握以下信息很有必要。数据中心中每个服务器机柜的平均能耗是2.1千瓦。如果机柜间距更小的话,这个平均值可以达到20~40千瓦,产生数倍热量。
乔治亚理工学院(Georgia Institute of Technology)正在应用一种新技术,可以使冷却系统与计算机热源的距离更近,这样每年可以节约160万美元使用成本。学院的系统生物研究中心主任杰夫瑞·斯考尼克(Jeffery Skolnick)见证了该中心价值850万美元的超级计算机的安装过程,其中服务器布局设计和电力分配方案至关重要。中心将IBM刀片服务器系统的 1,000节点服务器集群安装在12个机柜中,而且利用IBM的后门热交换器(Rear Door Heat eXchanger,编者注:又名“酷蓝”散热系统),通过冷水直接在服务器后面进行冷却。
这家数据中心面积为1,300平方英尺,去年部署了酷蓝散热技术。利用酷蓝,该中心取得了多方面的效果。比如,中心所需要的空调制冷量要比当初预计的减少了一半,即从160吨降低到了80吨,同时由于空气流通量减少还降低了噪音。未来几个月内中心还将增加4只机柜,斯考尼克希望,芯片直接散热技术能够帮助中心节约更多的电力成本。他说:“目前,我们认为酷蓝是最可行的技术。但是,每一次技术升级都会带来标准和规则的变化,所以你必须考察哪些技术比较可靠。”
在数据中心里利用水或其他液体进行散热降温的想法吓坏了一些IT员工,他们认为液体会毁坏计算机元件,并造成短路。他们总是想象着水管爆裂和喷头偏离目标等场景。
科林森公司(Callison)的助理主管莱昂那多·拉夫(Lenonard Ruff)说:“除了液体散热,也许没有更好的选择了。”该公司专门从事数据中心的规划设计,目前已经开始测试液体喷射芯片直接散热技术M系列,他们认为芯片直接散热技术十分有效,以致于固定数量的服务器消耗的电能再增加一倍,散热设备也能胜任,数据中心的服务器也不会过热,而且还增加了285%的处理运算能力。这家公司正在向其客户大力推广这种新技术。
市场调研机构顾能公司(Gartner)研究员卡尔·克劳奇(Carl Claunch)预测:“尽管一些数据中心经理毫无道理地反对液体散热技术,但是仍然会有越来越多的企业将在其数据中心采用这些技术。”他还建议企业在筹建新的数据中心时,应该将液体散热系统的基础设施考虑进去,即使企业不准备马上购置并安装液体散热系统的设备。