哪里的世界是Amir Michael的?
以前从来没有做过一台服务器,你该怎么做呢?你阅读了大量描述供电装置的技术手册。于是,你找到了一个能真正制造电源的家伙。
当他开始设计服务器,他想到了Synnex,一家全能公司,在过去30年,深耕于全球的电脑硬件的购买和销售业务。Synnex总部位于美国加利福尼亚州的佛瑞蒙,他与台湾、中国大陆以及其它地区的原始设备制造商(ODM)关系紧密。Michael要求公司指派他与各种各样的电源制造商、主板制造商联系。
“我们也很愉快,”Synnex高级副总裁、总经理Steve Ichinaga表示。Steve Ichinaga与Michael紧密合作。毕竟这是在Facebook。最终,Facebook成为了Synnex的客户。在服务器运往Prineville的数据中心前,Synnex负责对其进行测试。
通过Synnex和其它渠道,Michael与许多设备制造商取得联系,至少3家同意帮助制造服务器:广达,一位于台湾的主板和电脑制造商;台达,另一家台湾制造商,专攻电源装置;宝威,另一家总部在美国的电源制造商。宝威拒绝接收采访,台达和广达没有对采访要求做出回应。但据Michael透露,三家公司不仅为Facebook服务,而且他们之间彼此还有合作。
“我们选择的伙伴非常开放,沟通很顺利,并给我们分享了很多经验,帮助我们更好的优化,”Michael说。“我们与主板供应商分享了我们的供电设计,并邀请他们一起工作。因此,我们紧密的合作。每个人都能看到全局,这让所有的工程师更有效率。让我们有同样的思考方向。”
别的服务器设计师并不这样工作,他补充道,显然在暗指Google。“其它公司将这些事情分离开来,要花很多精力来进行沟通和理解。工程师不可能集中精力设计好的服务器。许多很小的细节,人们也不得不亲自描述。”
Facebook也与Intel和AMD合作,他们的CPU用于制造服务器。Intel数据中心群组高密度计算业务总经理 Jason Waxman拒绝透露合作的细节,但他表示Intel与Facebook在设计服务器项目上工作“非常和谐”。
通过与这些伙伴合作,Michael的目标是制造一个“无浪费”(vanity-free)的服务器,不含有任何一个Facebook不需要的组件。“我们不需要花精力去照看服务器,”他说。“没有喷漆,前面板上没有按键,没有logo或徽章。”但是,这朴实的设计只是我们努力的一部分,这帮助我们减少制冷的成本。
最终,他们被固定在底架上,由于比一般的服务器高,所以可以容纳更大的风扇和散热器。大风扇提供更高效的气流。由于采用更大的散热器,不需要那么多流动的空气。散热器有更大的表面积,帮助CPU散热的效率更高。
同时,Michael的团队从新设计了主板上的芯片位置来增大气流。“这个主意产生了一些列连锁反应,”冷空气吹向发热的设备。设备彼此间不会“遮挡”。更多的冷空气直接吹向需要冷却的设备。通过调整电路设计,我们提升了散热设计。”
Michael从2010年1月开始设计,第一台原型机在夏天到达他的临时实验室。
▲Facebook风洞,测试服务器散热
批萨、啤酒、薯片和主板
批萨和啤酒运到这里已经几周了。在Santa Clara的数据中心,Michael组建了“build聚会。”批萨和啤酒用来招待来自Facebook和其它地方的服务器技术员,技术员被分好区,并在Michael的原型机上工作,他的团队在一边观看。技术员会把他们放在一起,然后再分开。“这很有趣,令人兴奋,并从中学到很多经验,”Steve Ichinaga说,“这是个好办法,让所有的人都知道每件东西是怎么工作的。”
包括Amir Michael和他的工程师在内,工程师们通过众所周知的方法来测试原型机的极端状态。他们安装了热量测试间,并对服务器极端加热和冷却。有时,他们会让服务器迅速加热或冷却,会产生严重的凝结,生成一大块冰。在第三个房间,他们建立的风道,用来测试服务器散热。在风道边旁,一台示波器用于追踪通过主板的信号。
▲Facebook的热量测试间,也称服务器烤箱。
经过3轮原型机、5个月反复测试,他们确定了最终设计方案。12月,整整7个机架的服务器运送到Oregon Prineville的数据中心,Michael和几个工程师也来到这里,不过他们并没有做什么。“我们启动了机架上的服务器,一切都开始工作。没有bug。婴儿的死亡率——服务器在运输过程中的损坏率非常低,比我们用过的那些服务器要低。”他说。“事实上,那是非常无聊的一天。服务器运来。我们调试。然后我们鼓掌。我们没有其它事可做。”对于过去的5个月测试,这是一份遗书,他说。