信息化 频道

企业数据中心里的“绿色生活地图”

【IT168 信息化】绿色、减碳已成为不可忽视的名词,而随着绿色科技的概念全面性进入消费者与企业环境中,过去只讲求“生产力”、“效率”的数据中心(Data Center),或俗称的机房,也无法免于这股趋势。

    本文所谈的绿色数据中心(Green Data Center)应该是范畴更广泛的“绿色IT”的一环。随着全球环保意识高涨,过去不在乎电费账单,近年开始有企业锱铢必较,实施起能源控管。渐渐地,“绿色”、“环保”、“减少碳排放”这种听来唱高调的概念从企业形象、良好社会公民的表征,变成日常生活或环境的建构元素。

    生产笔记本型计算机电源供应器的台达电占有全球四成以上市场,以“节能、环保、爱地球”为公司标语。对能源利用率的重视落实到台达电公司各项层面,包括办公室、研发、工厂管理以及数据中心。台达电在2006年发表了全球先进份介绍企业内部环保、节能、生态之景点、设施与相关绩效的“绿色生活地图(Green Map,简称“绿活图”)”,推动办公室节能、省水等政策。并投入实施绿色无铅制程、回收再利用以及太阳能发电设备的研发。

    其实这股风潮正在如火如荼蔓延,小至能省则省的室内电灯、冷气、用水、再生纸张的使用、电信业者回收手机,大到兴建绿色厂房、绿色建筑,已经在国内屡见不鲜。这是一个整体性的行动,“对实体环境有绿色意识的企业,IT基础设施的绿化也不远矣”IDC台湾研究经理曹永晖说。

    作为一个将本求利的商业组织,真正让企业花钱投入绿色机房,电费还是最明显的理由。事实上,绿色机房已在国外有显著案例。

企业机房的老问题与新问题

    除了企业形象,机房内以前就存在的老问题,现在因为技术的进步,使得解决方案引起大家的重视。 

    许多企业或单位发现,随着服务器愈买愈多,机房变得愈来愈热,成为较旧建筑物内的“热点”。“传统上,这个问题只能藉由着降低空调温度来解决,这也是为什么进机房好比进屠宰场冷冻柜一般得穿上外套,有的甚至低到摄氏14、15度,”销售机房冷却设备的APC技术顾问张明章指出。

    针对这些问题,IT厂商近来提供了诸多节能、低功耗的硬件产品以及其它解决方案,并在营销资源的投入下,逐渐打开市场认知。
高密度机房的出现这是因为,因应企业对机器占地面积的斤斤计较,IT产业乃推出体积更小的刀锋服务器。分析机构iSuppli预估,2001年才出生的刀锋服务器,2006年至2011年,全球销量将成长4倍。以出货量而言,到2011年将达到240万台,占当年所有服务器出货量的21.6%,和2006年的 62万台相比,年复合成长率(CAGR)为31.5%。

    考虑刀锋服务器的功耗,就可以得知为什么机房会愈来愈热。满满一整机架的服务器需要耗掉20-30千瓦电,甚至更高,但传统数据中心每台机架则只提供 2-3千瓦。同时,根据Uptime Institute统计,启动与冷却1000美元等值服务器设备所需的能源,已从2000年的8瓦飙升到今年的109瓦,高密度设备的冷却成本高达三、四倍,刀锋服务器的最大卖点—体积—对许多企业来说已愈来愈不重要。有些企业为了怕宕机,本来是设计装十台服务器的机架数据中心现在只能装两台,改采低密度的运算环境,“尤其是一些机房较旧的企业,”张明章指出。

机房强调降低冷却用电

    另一个原因是,机房内发热量增加,可能已超出现代机房管理与设计的范围。张明章还指出,现代机房常见一般机房多半采用高架蜂巢地板,将网络线、电线及冷却的水管藏在钢或铝地板下。地板上方,冷却系统建在机房一隅,向机房各地吹送冷风。

    蜂巢地板基于强度的要求,通孔率小于30%(即通风孔面积不到整块地板的1/3),即造成送风量不够大。而且下面也不通风;张明章指出,除了专门盖来适用于下吹式冷却系统的IDC (Internet Data Center),地板有60公分高,否则一般处于大楼、都会区的IDC,都只有30公分高,传统冷却技术效果有限。通风不利自然也增加机器运转的风险,并增加冷却用电。

    机房内设备的摆放使得冷却不良情况雪上加霜。基于作业、管理方便的原因,机房内往往是服务器、储存及交换器各自成一区,其中负担运算任务的服务器,发热量会比储存设备及网通设备来得高,因而形成机房内的“热点”,造成整个机房冷热不均,降低冷却效率。而这个问题,也可能引发下一个问题:水气凝结。 

    如果机柜摆设阻碍冷气流通或高发热设备摆放得太远,送风距离过长,造成冷却效果不佳,则MIS可能以增强冷气温度响应之。不幸的是,机器排出的热风一旦与过低冷气相遇,就会形成水气凝结,这会造成主机板受潮、在机器内部残留结晶问题。另一方面,张明章指出,在空气中的水份凝结的同时,导致空气湿度降低,形成静电。静电可是造成设备损害的恶名昭彰的凶手。

    高密度运算技术的出现,带来占地面积与当机风险的两难:有些企业宁愿以增加占地面积以避免机房过热及系统当机风险,选择低负载运算环境。

    然而IDC厂商并没有选择,因为这类代管服务多半是以特定机柜收取月租或年租,故客户多半在单一机架塞满机器。如此一来,这类厂商面临双重要求:客户要求系统不停机的,以及高密度运算导致冷却需求增加,APC机房建置顾问张明章说。

    既然这是出现在IT领域内的管理问题,IT产业内也已经提出以“绿色数据中心”为名的解决方案。
 

IT产业解决方案 

    细究机房内的每一个部分都需要用电。根据Green Grid的分析,机房设备的用电比例以冷却设备占最大,高达30%、机房内空调占9%,18%为UPS不断电设备,至于IT设备如服务器、储存、路由器、交换器等占30%。因此,要解决机房内温度过高,就要从降低机器散热、强化冷却效果来着手。这就要谈到节能解决方案。

IT产业全体总动员

    软件厂商如VMware、微软提出系统管理软件;机柜、电源供应器的厂商,分别为机房太热(或太冷)、太挤等问题提供解决方案。有些厂商如APC提供的是更高效率的电源供应器及新式冷却、散热设备。但是有趣的是,大部分的绿色解决方案,其实是早期技术或概念的再利用。 

    后者如e化方案,像Workflow、IM、Portal等,虽然现在冠上绿色之名,不过早期是诉诸高效率、自动化、低错误率等效益。另外,微软或北电、思科、Polycom等公司提出的IP通讯及视频公司,则藉由减少公司差勤,达到降低汽车、飞机排碳量的环保效益。
至于机房内最耗电的系统:服务器和储存设备。亦提出了绿化解决方案:虚拟化技术即是其中之一。

虚拟化的几种形态 

    数据中心虚拟化有赖虚拟技术的发展。如同IBM与HP的大型主机专属技术,VMware的Hypervisor、Citrix (收购XenSource)的XenServer与微软HyperV(包含于Windows Server 2008)提供的虚拟化技术,可在单一host OS上执行多个guest OS。 

    针对分布式营运组织的远程访问,Citrix XenApp(过去称为Presentation Server)包含的压缩技术,让海外分公司很轻松存取总公司的SAP上的资料。Citrix、F5则提供应用程序的广域网络压缩、传送技术。这有助于跨区域。 

    另一个虚拟化新兴领域在于桌面计算机。为了解决历代Windows造成的程序DLL冲突,桌面虚拟化技术的愿景是让跑较旧操作系统的计算机,也能执行较新版应用,例如在Windows 2000上跑Office 2003。以微软的SoftGrid为例,第一次执行时可在桌面计算机安装独立环境(sand box),如此一来,程序之执行就不会受到本机操作系统的限制。

服务器的虚拟化技术 

    不过,近年来成为市场焦点的虚拟化技术还是寄托在服务器端。 

    服务器厂商如IBM、HP及升阳(Sun)、以及储存厂商HP、EMC、HDS等谈虚拟化,或早期称的公用运算(utility computing),都是承袭大型主机时代的分割(partition)技术。在早年的时空背景下,这些技术提出时强调易于管理、强化资源调度的弹性。透过虚拟层,可做到单一台机器上,运行一个以上的应用系统。这不但可将好几台服务器集中管理,而且能因应特定任务需要较大运算能力,如银行月底结帐、或网站突然涌进大批点阅流量时而事先拨发,等任务结束就挪为他用。 

    藉由机器的整合,可以协助提升硬盘及处理器利用率,减少闲置,就有助于缩减硬件数量,进而节省电费、空调、冷却及照明等能源──以及管理成本──耗用,因为根据机器闲置时仍需耗用高负载时的70-80%的用电,使用共享模块可减少多个部件的用电量。

每一间Unix服务器厂商都有自家的虚拟化技术

    IBM早在1967年就在大型主机System z上提出可以用作虚拟机器Hypervisor;1973年将虚拟化技术落实到硬件层次;1987年LPAR技术问世;1999年LPAR下放至 System p;该公司在陆续推出POWER Hypervisor、Live Partition Mobility、PowerVM等技术。根据统计,IBM有四成的用户已经开始采用PowerVM。 

    HP则在2006年宣布,将以往仅在高阶Integrity服务器——Superdome上出现的虚拟化功能,如nPar、vPar,放进入门级的Integrity机器上。让Integrity服务器上面的处理器资源,在不同分区上执行HP-UX、Linux、Windows以及Open VMS等应用。 HP统计,在采用上述虚拟化技术后,可以提升300%的Integroity服务器使用率,及降低70%的硬件成本。 

    升阳则由于有最甜蜜的负荷——自家的操作系统Solaris 10,致使拥抱虚拟化技术的脚步相较上述两间厂商较为缓慢。一直在2006年以前,升阳提供的虚拟化技术,是多台同样也执行Solaris 10操作系统的升阳机器。Solaris 10内含一项名为Container的虚拟化技术,可在一台升阳服务器里面,切割成多个执行Solaris 10的分区,各自执行不同的应用。

    不过现在,升阳的Sun Fire系列及Sun Blade模块系统,其搭载的Solaris 10操作系统开始支持虚拟化软件VMWare ESX 3.0.1,令前者可以建立多个分割区分别运行Windows或Linux虚拟机器。 另外,自家的Sparc系统,也开始具有逻辑网域(LDoms, Logical Domain)技术:用户可在Solaris Containers上同时执行多个操作系统。

    另一虚拟化技术则是“Solaris on Xen”,Solaris 10操作系统已全面支持开放原始码虚拟化软件Xen。客户将可在搭载Solaris 10操作系统的虚拟机器上,以“guest”的身分同时操作Solaris 10、Linux以及Windows等操作系统。
 
    不过,真正让虚拟化技术大放异彩的,都不是上述服务器大厂。而是近年来股价一路飞扬,被储存龙头EMC收购的虚拟化软件厂商VMWare。原因即在于,其锁定的是占有八成服务器市场、物美价廉的x86服务器。 

    VMWare的虚拟化软件称为VMware Infrastructure(VI)。令单台x86服务器可以分区执行多个操作系统和其上的应用,提升服务器的使用率。其最独到之处,在于称之为VMotion的功能。透过前者可以动态将虚拟机器(VM)从一台实体服务器移往另一台,过程完全不需要中断机器运作。2007年底,VMotion功能可以做到将虚拟机器产生的数据备份到指定的储存空间。 

    VMWare在2008年更进一步,宣布免费提供一精简的虚拟化软件VMware ESX Server 给服务器合作伙伴,让前者可以将仅有32MB大小的ESX Server 3i嵌入闪存中销售给企业用户,包括Dell、Fujitsu-Siemens、HP、IBM 和 NEC在内的主要的服务器厂商均已在其产品中嵌入了VMware ESXi。

    根据IDC的研究显示,使用虚拟化技术的服务器数量,将在2005年至2010年间大幅增加。到2010年,会有170万台虚拟化服务器售出,在整体市场的占有率也将从2005年的4.5%,升至14.6%。
 


x86处理器助阵 

    谈到VMWare的耀武扬威,就必须提及和前者相辅相成的x86处理器:由于英特尔和AMD近年来皆致力于在维持耗电量不变的情况下,将处理器效能节节提升。随着单核、双核、四核乃至于六核心处理器的问世,令单台x86服务器可以支持的虚拟机器更多。也令服务器的整合有望——这意味着省电、省楼板空间。 

    “举例来说,一台四路的六核心服务器,就可以抵过三台、二路的四核心服务器,”推出六核心Xeon处理器(代号为Dunnington)的英特尔企业平台总监Shannon Poulin说。

    除了处理器核心数目、效能提升外,英特尔和AMD也积极将虚拟化技术导入硬件架构。在2005年推出虚拟化技术VT(代号为“Vanderpool”)后,英特尔又陆续推出分别名为“VT-d(Vanderpool for Directed I/O)”和“FlexMigration”的虚拟化技术。VT-d是I/O的虚拟化,让I/O资源亦得以分割给虚拟机器,加快存取速度。

    FlexMigration则比较偏向传统对虚拟化技术的定义,也就是自由挪用跨平台的处理器资源、提高处理器使用率。虽然VMWare的VMotion也能提供类似功能,但是VMotion只能虚拟化同一代的Xeon服务器;在Penryn之后内建的FlexMigration,则确保只要是采用Core Microarchitecture的Xeon处理器服务器,都能够跨代支持虚拟化功能。

    AMD亦有类似FlexMigration的虚拟化技术。名为“AMD-V Extended Migration”的技术,让虚拟机器在不同世代的Opteron系统上线上转移(Live Migration)。过去倘若是不同世代的Opteron系统,必须暂时关闭应用程序的运作后,才能将虚拟机器从一台实体服务器转换到另外一台机器。

    另外,Opteron还提供一名为“Rapid Virtualization Indexing”的技术,宣称前者系将存放在快取里面的数据打上卷标,因此在虚拟机器每次加载(load)数据的时候,被打上卷标的数据可以让处理器得知是从那个虚拟机器而来,这些索引(index)将有助于减少其它的虚拟机器加载数据时的延迟时间。

硬件架构革新

    除了祭出虚拟化技术,服务器厂商也在硬件设计上有所改良,确保机器能够更为散热,进而达到省电功效。 

    IBM即推出了名为“Rear Door Heat Exchanger(RDHX)”的冰水热交换背板,其架设在机柜旁边,声称是最直接最有效率的机柜冷却,可带走60%机柜热量,回避了过去仅开大空调的下吹式水冷系统方式,但是只需传统空四分之一的费用,即可提供相同制冷力。 

    HP的刀锋服务器 BladeSystem C—Class系列亦扬弃传统风扇,而采用主动式冷却风扇 (Active Cool Fan)和热能调节器。宣称可以节省服务器50%的电力消耗及数据中心30%的空调支出。 

    近年来兴起的刀锋服务器规格设计(Form factor),亦被业界视为机房省电的重点。原因即在于,虽然刀锋服务器是高发热源,但若考虑其运算效能。事实上,每一刀锋的能源利用率,是较塔式机种更高,IDC研究经理曹永晖提醒。南亚科技的张武煌也认为,刀锋伺服器具有省电、省空间及易于管理能等多重效益。

系统管理软件 

    系统管理、网络管理及应用管理软件则支持跨OS平台的自动化、智能化的效能管理及资源供应。如CA、IBM Tivoli、HP OpenView等著名的系统及网络管理软件提供效能监控、分析及状况回报等等。 

    但因应服务器虚拟化技术的出现,管理技术也与时俱进。例如虚拟机器的部署、安装修补程序、或效能监控,甚至备份、信息安全等等,如HP Opsware Server Automation System 6.5 Virtualization Director,可提供VMware 和 Solaris 10 虚拟平台上的自动化管理,加入了虚拟系统的发现(discovery)和应用程序依存性对应的功能,以及流程与工作流的自动化。Symantec买下的Altiris的SVS、VMware VMotion与Citrix、甚至微软的System Center也有一系列提供虚拟环境的管理、数据安全产品(如Forefront提供网关、主机及桌面的数据安全,包括防毒、反间谍软件、垃圾邮件等等)。

机房设计

    另一个方法,则是从机器以外的设备,像是冷却及供电系统着手。而HP、IBM两家IT公司则提供号称最专业的机房建置顾问服务,此外,主要SI业者也提供类似服务。 

    新一代冷却系统的原理是让热气吸入水冷式设备经过降温后再排出来,并且缩短送风距离,藉此缩小冷热风温差。此类作法包括IBM、HP及APC。 

    APC提供的机柜式空调InRow Cooling,它是将空调设备置于机柜中,使机器和冷却系统距离不超过2公尺,不但可依机房中热点加强冷却,并可视需求阶段性扩充。IBM的冰水交换背板则是在重点机柜放一块背板。因缩短冷却设备与服务器间的距离,能更有效利用冷风,也避免了冷热风相遇产生露水凝结的损害。 

    APC的“热信道封密系统”,则将机房热通道以隔板更有效隔绝开来,防止热气散逸与冷风混合。APC宣称新技术使机房不需采用高架地板,可省下钢架一平方公尺一万元的成本。一家科技公司就是在木质地板上兴建新的机房。因为电池负载率和发电效率并非成正比,负载率为40%可达到发电效率80%,但前者冲到60%后者只会到90%。因此不能无限制增加负载。APC的产品APC也提供可阶段性扩充容量设计的UPS,强调可依用电扩充规划来安装,以免浪费电力。例如,预计电池负载率20kw预计五年后可能会成长到80%,则1000kw的UPS模块,最多提供80-90颗。

    HP还提供了一称之为“动态智能型散热(Dynamic Smart Cooling, DSC)”的技术,可降低40%的散热成本;还有可以让用户观看数据中心空调系统需要在何处加强散热功能的三D模型,名为“散热区域对映系统(Thermal Zone Mapping, TZM)”。标榜藉由TZM可分析评估数据中心哪些区域较需加强散热冷却功能,运用DSC的下吹式冷却,强化该区域蜂巢板下的冷风,以便着重局部冷却。

    “这让用户不需要在单一机柜温度升高时,就降低整体机房的空调冷却温度;而是仅需要针对特定区域加强冷却效率,”HP亚太区技术解决方案事业群技术顾问管理经理Troy Syn说。

    藉由在并购EYP,HP宣布跨入大型数据中心机房设计服务领域。HP科技与服务事业群顾问服务事业处业务开发部的官员说EYP和HP既有数据中心咨询服务的分野,在于规模的不同。他指出,EYP将专攻大型、负责关键任务的数据中心建置服务,尤其是从无到有者。HP则比较侧重在中小型的数据中心,以改善既有数据中心用电量为主。

    进一步来说,EYP强调的是“设计”。在规划数据中心时,将兼顾机电、空调以及安全性。HP企业系统服务事业群技术规划处副总经理李家瑞表示,过去大家对数据中心的想法是补丁:哪边的服务器过热,就加水冷设备或空调;EYP则从企业整体需求着想:不只是冷却机电设计,还包括了人员的出入管理,确保数据中心的运作更有效率。

    不过,目前HP尚未在这一块交出漂亮的成绩单。该公司表示,在2008年底前,即可望宣布实际为用户规划绿色数据中心的成果。
相较之下,HP的竞争对手IBM,则已经为多间本地用户改造机房,都是藉由IBM为其建立冷热通道、导入Rear Door Heat eXchange水冷式散热技术,解决机房空间有限却要应付服务器数量不断增长,以及高运算量的服务器所形成热点的问题。 不过由于上述技术和服务都索价不斐,加上对用户而言,改造机房需要下定决心,以致于目前绿色机房的成功案例仍屈指可数。


    这么多解决方案无非是要获取IT经理的青睐。不过企业的看法如何?到目前为止,CIO或IT经理们应该都能了解“绿色机房”的诉求。不过实际打开荷包,又是另一回事了。我们也想了解,在花钱购置软硬件时,企业要怎么解决机房耗电太凶、太热的问题。

    一位不愿透过公司及身份的IT经历表示,该公司最近采购一批服务器,因应潮流,的确考虑“绿色节能”刀锋服务器。但是和传统服务器比较,相同效能之刀锋服务器贵上许多,且集中于母柜风险高。该公司精算,刀锋服务器每年约节省电费约40%,约合1~2万元,考虑服务器寿命2~3年,顶多省下6万台币,改换成刀锋机种并不符合成本效益,因此最后仍选择一般服务器。
 

0
相关文章