由于目前经济不景气,数据中心(Data Center)经理不得不在有限的资金预算条件下满足苛刻的业务需求。他们一直在千方百计的削减运营成本,目前数据中心(Data Center)运营成本中增长最快,所占份额最大的部分是能源成本,而然这些能源中的大部分被服务器和冷却系统所消耗。
不幸的是,目前大多数高效的节能技术都需要相当可观的前期投资,并且在数年后才会带来回报。可是人们却忽视了一些几乎不需要什么成本的技术,原因在于这些技术看起来不切实际,或是过于极端。我们在以下为大家列出的8种节能方法已经在实际的数据中心(Data Center)环境中测试过,并且被证明十分有效。其中一些方法几乎不需要任何投资,大家能够立即采用,另外一些方法可能需要一些资金,但是与传统的IT资本支出回报率相比,获得回报的周期要更短。
数据中心(Data Center)能源效率的衡量标准是能源利用率(PUE),也就是数值越低越好,1.0是一个理想数值。PUE指数据中心(Data Center)总电力消耗量与转化为有效计算任务的电力消耗的比值。2.0意味着输入数据中心(Data Center)的2瓦电力中只有1瓦输入到服务器,损失的电力转化为了热能,这导致传统的数据中心(Data Center)冷却系统需要消耗电力去散热。
以下这些技术或许并不能降低你的PUE值,但是你能够通过检查每月的账单来评估它们的效率。节约资金才是真正的目的所在。
在我们列出的方法中,你找不到太阳能、风能或是氢能源。因为这些替代能源需要对先进技术进行大量投资。在目前的经济危机中,这无疑无法马上实现成本节约。相比之下,以下这8种方法除了风扇、通风和管道外均不需要任何其他复杂的技术。
这8种方法分别是:
极端节能方法1:调高温度设置。你在近日下午就能够使用这种最简单的节能方法:调高数据中心(Data Center)恒温器的温度设定值。传统观念认为数据中心(Data Center)温度应当设定在华氏68度以下。通常人们认为,这种温度设置能够延长设备的使用寿命,一旦冷却系统失灵,管理员也能够获得更多的反应时间。
但是经验告诉我们,服务器组件如果发生故障,尤其是硬盘发生故障将会导致运行温度上升。但是近些年来,IT经济已经跨越了一个重要阈值:服务器运营成本通常会超过购置成本。这使得削减运营成本的优先权要高于硬件保护。
在去年召开的GreenNet 会议上,谷歌公司的“绿色能源沙皇”Bill Weihl介绍了谷歌公司提高数据中心(Data Center)温度设置的经验。他称, 华氏80度是新的安全设置温度。不过你的数据中心(Data Center)需要首先满足一个简单的先决条件:尽可能地将冷却用的冷空气与冷却后产生的热空气相隔离,如果需要,能够使用厚塑料门帘或是隔热板。
尽管谷歌公司称华氏80度是安全的温度,但是微软公司的经验告诉我们能够将温度设置的更高些。微软公司在爱尔兰都柏林的数据中心(Data Center)使用的是“无冷却器”模式,它们用免费的外部空气进行冷却,服务器进风口的温度为华氏95度。需要注意的是,随着设定温度的提高,会出现一个收益递减点,因为服务器风扇转速的增加将导致能源消耗增长。
极端节能方法2:关闭不使用的服务器。虚拟化为我们展示了让不使用的处理器、硬盘和内存休眠所带来的节能优势。那么为什么不关闭整个服务器呢?让服务器时刻处于准备状态所带来的“商业灵活性”是否与它们消耗的能源成本等值呢?你是否已经找到了一些能够关闭服务器的情况,如果关闭了服务器,那么你将获得最低的能源消耗值——0,至少对于服务器来说是这样。不过,你首先需要面对的是那些异议人士提出的反对意见。
他们往往认为重新启动会降低服务器的平均寿命,因为电压会加载在主板电容器等一些非热拔插组件上。这种想法已经被证明是错误的:实际情况是,服务器的组件与汽车和医疗设备等一些频繁启动的设备所用的组件是相同的。没有证据能够证明频繁启动将降低服务器的MTBF(平均故障间隔时间)。
第二个错误认识是,服务器启动需要很长时间。对于这种情况,你能够通过关闭启动时的诊断检查,从硬盘镜像启动,以及利用一些硬件具有的热启动功能缩短启动时间。
第三种反对意见是:如果我们必须启动一台服务器以适应增加的负载,这时用户不希望等待——无论启动速度有多快。可是,即使程序申请速度非常慢,大多数应用架构都不会拒绝新用户,这样一来,用户根本意识不到他们是在等待服务器启动。事实证明,当应用受到使用人数限制影响时,只要能够向用户发出“我们正在启动更多的服务器以提高你的申请速度”这一信息,用户是愿意进行等待的。
极端的节能方法3:使用免费的外部空气进行冷却。较高的数据中心(Data Center)温度设置将为你使用第二种节能方法做好准备,即所谓的免费空气冷却。这将方法将温度较低的外部空气作为冷却空气来源,不再需要昂贵的冷却器,微软公司设在爱尔兰的数据中心(Data Center)使用的就是这种方法。如果你试图将温度维持在华氏80度,而外部空气只有华氏70度,只需将外部空气吹入数据中心(Data Center)即可进行冷却。
与方法1相比,这种方法需要花费一些精力。你必须重新布置通风管道,以让外部空气吹入数据中心(Data Center)内。另外,还需要安装一些基本的安全设备,如空气过滤器、干燥器、防火风闸和温度传感器,以确保外部空气不会损坏精密的电子设备。
在试验中,英特尔通过使用外部空气冷却方法成功的降低了74%的能源消耗。在两组服务器中,第一组使用传统的冷却器进行降温,第二组使用外部空气冷却系统与冷却器联合冷却方式,两组服务器运行了十个月。其中,第二组服务器有91%的时间使用的是外部空气冷却。英特尔发现使用外部空气冷却的服务器上积有大量灰尘,这表明该系统除需要安装大颗粒杂质过滤器外,还需要安装一个细颗粒杂质过滤器。另外,由于需要频繁更换过滤器,因此在实际使用中需要采用易清洁并可反复使用的过滤器。
尽管积灰严重,温度变化范围较大,但是英特尔发现使用外部空气冷却的服务器故障率并没有增加。据此,以一个功率为10兆瓦数据中心(Data Center)为例,每年可节约冷却成本300万美元,以及7600万加仑水,在某些地区水的价格非常高。
极端节能方法4:用数据中心(Data Center)冷却后产生的热空气为办公室供暖。你能够通过用数据中心(Data Center)冷却后产生的热空气为办公室供暖的办法将节能效果提高一倍。同样,你也能够使用办公室里温度相对低的空气为数据中心(Data Center)降温。在天冷的时候,你能够获得充足的暖气。与此同时,数据中心(Data Center)额外的冷却空气需求能够完全从外部中获取。
与外部空气冷却不同,你可能不再需要目前的取暖系统。也就是说,你不再需要一个一人多高的取暖炉。你也不用担心数据中心(Data Center)电子设备在产生的热量时会施放出有害物质。如今符合《关于限制在电子电器设备中使用某些有害成分的指令》(RoHS)的服务器在生产时已经不再使用污染环境的镉、铅、水银和多溴化合物等材料。
与外部空气冷却方法一样,你需要的唯一技术是采暖通风与空调系统(HVAC )方面的经验:风扇、通风管道和恒温器。你会发现你的数据中心(Data Center)可提供足够的热量,能够替代传统的取暖系统。IBM位于瑞士Uitikon的数据中心(Data Center)为当地方居民免费供暖,节约的能源成本相当于80户居民的取暖费用。TelecityGroup Paris甚至将数据中心(Data Center)冷却后产生的热空气常年供应一些温室以支持气候变化研究。
重新布置你的取暖系统可能需要花费一周的时间,但是由于成本很低,你在一年内,甚至更短的时间内即可获得收益。
极端节能方法5:为频繁读取的数据集配置SSD(固态硬盘)。由于读取速度快、功耗低、发热量小,因此SSD在上网本、平板电脑和笔记本电脑上非常流行。SSD也能够使用在服务器上,但是其成本高、可靠性低等缺点阻碍了其在服务器上的部署。幸运的是,SSD的价格在近两年出现了大幅下降,数据中心(Data Center)可通过部署SSD实现快速节能,你只需将一些应用存储在SSD上即可。如果配置合理,SSD可大幅降低磁盘阵列的能源和冷却成本。其大约能够减少50%的电力消耗,发热量几乎为零。
SSD无法克服的一个问题是写入操作次数有限。目前适合服务器存储的单层单元(SLC)固态硬盘的写入次数约为500万次。低成本的消费级多层单元(MLC)固态硬盘虽然容量比SLC固态硬盘要大,但是寿命仅为后者的十分之一。
好消息是,你能够从市面上买到接口兼容的固态硬盘,以替代现有的高能耗、高发热量的机械硬盘。为了迅速降低能耗,可将一些通常只需要读取的数据集存储在SSD上,如流视频文件。这样就不会遇到SSD的写入次数限制问题。除了降低能源和冷却成本外,启动速度也将大幅提升。
另外,在选择固态硬盘时,应当选择服务器专用固态硬盘,而不要选择台式机专用固态硬盘。服务器专用固态硬盘为了提高吞吐量,多采用多通道架构。常用的SATA 2.0接口的固态硬盘传输速率为3Gbps,而日立与英特尔联合推出的Ultrastar高端SAS固态硬盘的传输速率可达到6Gbps,容量可达400GB.尽管SSD 还存在一些设计缺陷,但这主要涉及到台式机和笔记本电脑固态硬盘的BIOS密码和加密问题,而服务器专用固态硬盘根本不存在这方面的问题。
极端节能方法6:在数据中心(Data Center)使用直流电。是的,重新使用直流电。道理很简单:服务器在内部使用的是直流电,这样可能消除为服务器供电时将交流电转换为直流电这一环节,实现迅速节能。
在21世纪初,直流电在数据中心(Data Center)中非常流行。因为当时数据中心(Data Center)的服务器电源转换效率仅为75%.但是随着电源转换效率的提高,数据中心(Data Center)开始采用效率更高的208伏交流电。到2007年,直流电已经不再流行。可是在2009年,直流电又重新流行起来,这要归功于高电压数据中心(Data Center)产品的出现。
在早期的数据中心(Data Center)当中,电力公司输出的 16000伏交流电先被转换为440伏交流电,然后再转换为220伏交流电,最后再转换为110伏交流电后才提供给服务器。每一次变压都会浪费一些电力,由于转换率低于百分之百,损失的电力被转化为热能(由于需要冷却系统将这些热量散掉,因此将导致更多的电费开支)。直接转换为 208 伏交流电能够减少一次变压,当时服务器内置电源最大效率为95%.
到了2009年,新的数据中心(Data Center)设备能够将电力公司输出的13000伏交流电直接转换为575 伏直流电输入到服务器机架上。服务器机架将575 伏直流电一次性转换为48 伏直流电后直接为机架上的服务器供电。每一次转换时的效率都是老式AC 变压技术的两倍,并且转化的热量也更少。尽管厂商宣称,能够节约50%的能耗,不过大多数专家认为节约能耗25%更为可信。
这种方法需要一些资金投入,不过所涉及的技术并不复杂,并且已经被证实十分有效。一个潜在的隐性开销是48伏 直流电传输需要较粗的铜电缆。焦耳定律告诉我们,在功率相同的情况下,由于电流更大,低电压比高电压需要更粗的导线。
极端节能方法7:将热量排入地下。在气候比较温暖的地区,外部空气冷却无法常年使用。比如,爱荷华州冬天的气温不是非常低,但是夏天的温度却非常高,空气的温度在华氏90至100度左右,这种温度不适合使用外部空气进行冷却。
通常地下数英尺处的温度相对较低,并且比较衡定。地下几乎不会受到如下雨、酷暑等户外天气的影响。如果将管道埋至地表深处,吸收了服务器热量的冷却水将在地下进行循环,这样冷却水的热量就被周围温度较低的土壤所吸收。
虽然这一技术并不复杂,但是地温冷却需要大量的管道。与此同时,建立一个成功的地温冷却系统需要进行仔细的分析和计算。由于数据中心(Data Center)是持续产生热量,单一的地温冷却槽将导致周围土壤温度饱和,进而导致冷却系统失灵。你需要分析一下数据中心(Data Center)周边土地的散热能力,确定特定区域内能够吸收多少热量,地下含水层是否能够提高散热能力。另外,还需要确定这一方法是否,以及会对环境带来什么影响。
极端节能方法8:通过管道将热量排到大海里。与地温冷却系统不同,大海能够无限地吸收数据中心(Data Center)排出的热量。海水冷却系统与地温冷却系统相似,不过你需要有充足的水源,如位于美国与加拿大边境的五大湖能够作为冷却水源。
将海水作为数据中心(Data Center)的冷却水是最为理想的情况。在滨海地区,通过热交换器,海洋可为数据中心(Data Center)降温。谷歌公司在2007年为此申请了专利。不过,谷歌公司的海水散热方案并不适合我们,因为在谷歌公司的方案中首先要拥有一座岛屿。
如果你的数据中心(Data Center)紧邻海边、大型湖泊或是内陆水道,那就情况就非常简单。数十年来,核电站就一直在用海水或湖水降温。“瑞典计算机”网站在去年秋天曾经报道称,谷歌公司在芬兰Hamina将一个纸浆厂改造成了一个采用这种冷却方式的数据中心(Data Center)。该数据中心(Data Center)将冰冷的波罗的海海水作为唯一的冷却方式。与此同时,这些海水还作为数据中心(Data Center)的紧急消防用水。谷歌公司的实践证明该方案具有极高的可靠性。由于原纸浆厂已经铺设了用于从波罗的海抽取海水的直径2英尺的管道,因此谷歌公司在改造时省去了不少开销。
淡水湖也能够用于冷却数据中心(Data Center)。美国康奈尔大学位于纽约伊萨卡的校区利用附近的卡尤加湖为其数据中心(Data Center)和整个校园提供冷却用水。为此,该校区在2000年率先建立起了一个名为“湖水冷却系统”的冷却设施。该设施每小时可抽取3.5万加仑水,并将这些华氏39度的湖水输送至2.5英里处的校园内。
无论淡水还是海水冷却系统都需要一个昂贵的组件——用于冷却数据中心(Data Center)的热交换器。这种热交换器可将用于直接冷却数据中心(Data Center)的冷却水与外部抽取过来的天然冷却水隔离。这种隔离是必须的,一旦出现泄漏,既可保护环境,也能够保护精密的服务器设备。除了昂贵的热交换器外,海水或湖水冷却系统只需要一些普通的水管。
你希望节省多少资金呢?这些技术的价值在于它们并不互相排斥:你能够同时使用多种方法来实现你的短期目标和长期目标。你能够先采用最简单的办法——提高数据中心(Data Center)的温度设置,然后再根据节约情况评估一下剩余的其它节能七种方法。
声明: 此文观点不代表本站立场;转载须要保留原文链接;版权疑问请联系我们。