目前我国大型数椐信息中心用电量比起先进国家差距比较大。例如我国机房的能效比PUE在2.2以上,而谷歌(Google)数椐中心PUE值是1.2,他的PUE平均值只有1.07。
调查国内机房用电分配是:IT占44%,制冷占38%以上(有甚至的高达50%),其余电源、照明占18%左右。可以看出制冷耗电是影响PUE值的关键,空调冷是机房的耗电元凶
1
空调耗电量计算一、机房关键设备机柜的功率
  机柜有服务器(大容量)柜功率为14~30kW;标准存储柜有3~5kW;网络柜1~1.5kW。它们的组合比例是按规划用途设计的,其中标准存储柜占绝大多数,是决定它们的平均功率的决定因素。例如北京电信通三元大厦互连网数据中心(简称IDC):该数据中心内使用了思科、MGE、等多家国际一流厂商的先进技术和设备,;它外网出口有:电报大楼、中国电信、中国联通、中国铁通、中国网通、灶君庙,其次在外省市也有节点,保证最大端到端延迟时间<100ms,网络丢包率<1%,每年网络不可用时间<50秒,可提供的网络利用率>99.99%。该数据中心正在为用户提供全面的高质量服务。
  它的机柜配置如下:机柜总数268台,其中大容量服务器柜10台(每台14kW);网路柜9台(每台1.5kW);设备柜和核心(配电)柜8+4=12台(计80kW);其余全为标准存储柜237台(每台3kW)。以上IT总功率944.5kW,因机柜是单向供电,换到三项并考虑功率因数(0.85)应为:
944.5/1.732/0.85=641.6kVA;
  该系统能效比PUE为16;
它的每台平均功率为944.5kW/268=3.6kW.
  该系统用电配置了1000kVA变压器一台;还配置了四台200kVA的UPS电源作为停电急用。
调研知国内金融行业机房机柜多在3~5kw之间。
                                2
 
二、我国数椐信息中心机房用电发展趋势
本文并不认为机房单台用电功率随发展趋势而增大。原因是:
1大量先进技术的应用使机柜耗电下降
机房中耗电量大的是大容量服务器机柜,只要把用电大户耗电降下就事半功倍。目前推广应用的云计算储存、云计算技术在IT也得到应用,用标准-模块化技术,采用云存储的高性能机制和PB级规模下高密度低功耗的运作模式将有效控制云计算耗电量,可使大容量服务器机柜用电不大于4kW;
我们还能透过虚拟化技术,将10部实体服务器整并成一部,即可减少最高80~90%的服务器用电量。
  在IT技术不断普及的今天,数据中心的作用日益体现出来。如何建设一个绿节能、稳定可靠、能满足不断变化的IT需求的数据中心也成为数据中心的管理者和建设者们一个非
常关心的问题。而云计算虚拟化以及大数据数据中心中的应用,使得未来数据中心充满了活力也充满了变数,但我们可以相信更加节能稳定的数据中心离我们以及不远。
大量智能模块的应用;如电压调节模块、自动检测模块、系统自动控制模块可使机房在最节能有效情况下运行。
2、国家及企业对绿环保、节能的重视使机房耗电下降
国家有关部门高度重视我国数据机房的能效鼻PUE值在2.2以上,专家也呼吁尽快制定机房建设节能标准。估计新的标准PUE在1.2~1.6之间;
企业也在根据自己的需求建设技术先进、功能使用,经济合理、绿环保节能的数据中心上下功夫。在节能要求上尽量要求设计部门细致做到最先进的机房布局;采用自然进气,尽量减少制冷设备的使用。还有很多降低电耗的方法,如:
降低大容量服务器的用电量,比如我公司服务器并不需要绘图处理器等因此拿掉不需要的零组件,不但减少电力的浪费,由于零组件数量降低,风扇的使用数目也可减少,提升整体服务器的用电效率;
加装气流辅助设备,如果有建置高密度机柜的机房,高密度机柜容易产生热点,可以在机柜后方加装气流辅助设备,这样一来,热空气就不是透过热通道将热带走,而是透过气流辅助设备,将机柜的热量集中直接往天花板排送,加速机柜的的散热速度。