数据中心服务器电耗属于中央空调系统电耗吗 风冷空调数据中心

6115℃ ANNIE

数据中心服务器电耗属于中央空调系统电耗吗风冷空调数据中心

数据中心节能

要让数据中心节能效果更加明显,目前还是一个正在研究的命题,目前施耐德电子正着重研究这个问题,施耐德在可再生能源中寻找着节能的效果,最根本的还是减少易耗的使用量,减少发热,优化布局,利用可再生能源降低成本,减少不必要的浪费,这些都算在绿色数据中心节能里面。

如何测量IDC机房的耗电量

运转,大家不难明白高效IDC机房的好处了。除了计算机房空调(CRAC)系统外,影响计算机房冷却效率的几个主要因素是计算机设备相对进气口和排气口的方位。所以,首先要确定服务器、交换机及其他散热设备是不是沿同一个总方向排放热空气。

使用冷热通道的这项技术有助于隔离温度相近的空气,并且确保进入到机器的空气尽可能冷;确保冷空气被送入到任何设备之前没有被抽吸到机房外面。一旦机房里面的布局排成了冷热通道,就可以在那些通道之间添加隔板,进一步提高效率,就像打开汽车空调后,最好把窗户摇起来。另外可以对这种技术稍加变化,只隔离热通道,将计算机的排气口对着CRAC设备的进气口,或者对着充气室天花板的口子。其次是全面的电力审查。 作为全面的电力审查,我们可以测量IDC机房机柜和机架上硬件部件的耗电量。检查客户所用的不间断电源(UPS)系统的寿命。

今天的UPS比仅仅三年前制造的UPS要高效得多。要是使用寿命超过了五年,它们也许可以扔到垃圾堆了。下一步是测量和记录其余IT部件的耗电量。为了简化这项任务,我们从Appropedia获得了这张电力审查(Power Audit)计算表计算表里面包含计算耗电量的公式。一旦计算完毕,就可以确定电力效率最低的部件,然后根据它们各自的设置来设定减少多少耗电量,或者更换成或升级到能效更高的机型。最后一步是摸清PUE.

理想的PUE应该是1.0,这表明计算机资源组成了整个基础架构。当然,这在大多数情况下是不可能的;PUE为2.0或2.5被认为是中小型IDC机房的平均值.. 据调查发现,如果客户的数据中心已经过了充分的隔离,最多可以将空调成本节省15%、将风扇系统的成本节省67%.

下一步是计算IDC机房的电力使用效率(PUE)。

要进行全面的电力审查,必须先完成这一步,因为这可以提供衡量的基准,以便跟踪电力效率的改进。

只要将IDC机房及其基础架构(包括灯光、冷却和所有IT设备)的总耗电量(瓦特)除以IT负载本身,就能得出PUE.IT负载仅仅包括与计算机直接有关的部件,比如服务器、存储系统、交换机和路由器等,而不包括不间断电源(UPS)、冷却系统或没有接入到计算机的任何设备。

为什么说数据中心是耗能大户?

    数据中心是信息化时代发展的必然产物,发展的历史并不久,近些年才逐渐走入了人们的视野,所以大多数人对其实际上并不了解。

    可以称得上是耗能大户的数据中心一般指的都是大型数据中心,其主要的耗电量主要体现在两个方面,一是服务器、存储等设备的,因为无论用户需求多寡,各大网站的数据中心均全天候运作,所以带来了巨大的耗电量。二是为了数据中心中的服务器稳定的运行,数据中心不得不加大机房的散热系统规模和功率,空调设备和风机也是全天候运作,这是造成数据中心耗电量过大的第二个原因。

    据统计,全球互联网数据中心一年的用电功率可能达300亿瓦特,相当于30个核电站的供电功率。一座高端数据中心用电量相当于30到40栋高密度住宅楼房的用电量,所以每年的高额的电费支出是数据中心的主要开销。所以一些大型的互联网公司的数据中心会建立自己的发电站来维持数据中心的运营。称数据中心为耗能大户丝毫也不过分。

    虽说数据中心消耗的是洁净的电能,貌似跟环保扯不上任何关系,但实际上人们关心数据中心是不是耗能大户的核心却不在于其消耗的电能究竟有多大,而正是在于其能给环境带来多大影响。因为电能并非是凭空产生的,它必须由其他能量转换而来,比如烧煤、烧柴油来发电,环保问题也就此产生。所以当下业内提倡的是建设绿色数据中心,在满足业务需求的前提下,尽可能减少能源消耗。不过眼下能够称得上这个绿色称号的数据中心并不多,国外的苹果、亚马逊这样的大企业不是也频频爆出污染环境的新闻吗?在国内,也只有极少数的数据中心,比如中国西部信息中心这样的电信超五星级IDC机房才能够评上“绿色数据中心”的称号。

    总得来说,数据中心的确称得上是耗能大户,但我们需要关注的焦点却不该是其到底有多么的耗电,而是究竟如何“绿化”数据中心,使其更低碳、更节能。 

数据中心的节能降耗应该从哪些方面做起?

更换产品,这个是最低级别的,但是最简单易行的。其次是构建管理系统比如能源管理软件啊,等等。改造数据中心很难,需要现场Audit,然后找到非常资深的人来对标分析。如果新建就容易些,市场上高端的解决方案,能效,成本和工期等等都可以保证。我们这里的数据中心是几年前改造的,APC做的方案和项目,当时数据中心没有更多空间安装新的设备但是电力还充裕,所以先找到一些空间,做了高密度岛,然后把应用迁移到高密度岛呢。腾出更大的空间,再做一个高密度岛。前后持续改造了4年。比原来建一个新的数据中心好多了。热通道封闭的英飞系统。