网站首页>>行业资讯
 
2015 数据中心能做什么?
日期:[2015-1-15 19:29:19]   共阅[5736]次
 

  虽然目前很多IT经理都把数据中心“绿化工程”提上日程,但是大多数用户的建设数据中心时忽略了一个很重要的环节:评估标准。
目前最火的事件莫过于哥本哈根大会的召开了。可是国际环保组织对哥本哈根气候大会的最终成果表示极度失望,认为各国元首错失了拯救人类气候的最佳历史时机。在倡导绿色和平的大环境下,绿色的口号喊了很久,可是一系列行动均没有得到有效实施。反而愈演愈烈。  
  从这样的趋势来看,社会各界都需要在各自的领域对“绿色”来付诸实践了。作为耗电大户的数据中心可以说是被关注的重点之一。虽然绿色数据中心建设仍有很长的路要走。目前的绿色数据中心管理工具仍然不太成熟,但在这样一个全国性的绿色时代转变中,实现绿色数据中心的畅想是必将亟待解决的事情。如果说避免2012成为真的世界末日,那么数据中心到底还能做些什么?   
  虽然目前很多IT经理都把数据中心“绿化工程”提上日程,但是大多数用户的建设数据中心时忽略了一个很重要的环节:评估标准。做了这么多事,费了这么大劲,到底节约了多少能源?如果不知道节省了多少能源,我们又该如何评估项目的投资回报?数据中心到底有没有成功绿化?   
数据中心需要新的规划、建设   
  节约能源,减少浪费,已成为企业数据中心必须面对的重要课题。在绿色数据中心建设和运营中,IT经理需要规划建设新的数据中心。  
  “绿色”已成为当今的时代主题,它包括减少一开始使用的能源和材料、提高楼宇的使用效率、延长楼宇的使用寿命、减少配件的更换和浪费等一系列行动。数据中心在全球的增长已令企业开始关注数据存储、传输和处理过程中使用资源的效率和生产率。   
  互联网应用的急剧增加和相伴而生的对宽带需求的增加,导致数据中心的数量、规模和密度也随之急剧扩大。虽然数据中心几经升级,但仍然难以跟上新媒体需求的步伐。根据一些调查反馈,2/3的IT经理说,不知不觉中他们的数据中心就用完了所有的空间、电源或散热容量。另有1/3的IT经理认为,以他们现在的增长速度来看,目前的基础设施如果不改变,顶多只能维持6个月,因此人们也不用感到奇怪——较为有远见的IT经理正在规划、建设新的数据中心。
数据中心电力消耗问题   
  目前数据中心所消耗的电力已占到美国全部电力使用量的2%,预计到2020年,这一数字将激增到9%。在所消耗的电力中,有很大一部分是为了满足网络电子设备与楼宇运行的需要。这些电子技术会产生大量的热,这时数据中心所面临的主要问题之一。随着温度的升高,IT硬件的可靠性大幅降低。据估计,温度每升高10度,电子设备的长期可靠性将降低50%。   
  数据中心运行所依赖的一些核心网络电子设备产生的热量正是导致其效率和寿命降低的因素。配件的频繁更换导致垃圾填埋场的废弃物增多,同时也提高了数据中心的运行成本。随着刀片服务器等高密度电子设备的使用越来越普遍,一台典型服务器的成本将低于支持其运行的散热成本。
  
  为了控制空气流动,大多数数据中心都采用了冷(电子设备)通道和热(地下布线和无源布线)通道的模式。这种模式中,冷空气的添加和热空气的移除都受到很好的控制,使得散热设备的运行效率很高。值得指出的是,热量对无源布线(无论是UTP铜缆还是光缆)的影响,都要比对有源设备的影响小。   
浪费在散热的能源相当与浪费资源和金钱。由于气流管理效率低下,大型数据中心提供的散热容量最高达到了设备所需散热容量的270%。为了减少这种浪费,有几条关于热管理的布线黄金法则:   
•使用综合布线系统限制气流阻塞   
•合理设计和管理架空地板下的电缆   
•高压电缆敷设在冷通道的地板下  
•低压通信电缆放在机柜下活直接放在热通道地板下   
•减少天花板的数量,或只是在有源机柜上方放置天花板   
  可以说减少浪费可以从许多方面入手。在无源系统中,使用综合布线将几大减少电缆数量,从而缓解通道拥挤和气流阻塞情况。空气流动的空间越大。热空气移除和冷空气循环所耗费的能源就越少。综合布线是使用主干电缆将大量光缆或铜缆敷设在一个区域,然后再在电子设备区域分成若干小段电缆。
数据中心服务器硬件实施   
  对数据中心来说服务器可算是一个耗电大户,IT经理认为即使只是一对一的更换服务器也可以节省更多能源消费,新的服务器也会更有效率。可是简单的更换服务器只是一个单纯的技术更新,既没有改变软件,也没有改变其功能,更没有改变其用户性能,这样就需要我们前期来对服务器进行评估。   
  现在我们就以数据中心现有的条件对刀片服务器进行应用评估。如果需要安装的刀片服务器数量仅为一个机柜或者更少,这项评估工作可能不需要做得太细致。但是,如果要安装的刀片服务器数据较多,就必须大大提高这项评估的深度和细致程度。  
  在评估中,需要收集有关供电和散热系统的能力的各种数据,包括标识牌的安放,但更重要的是实际能力。此外,必须对现有的负载情况进行评估,以确定负载量和物理分布。最重要的是,必须对数据中心的供电和散热分配系统进行调研,以便对系统为高密度负载提供电力和散热的能力进行量化。  
  如果应用刀片服务器的复杂程度较高,那么用电脑模型来对数据中心进行模拟是很有必要的,这样做一方面可以确定一下目前状况,更重要的是可以对设计方案进行验证。
  所有的数据中心管理人员掌握一些数据中心评估方面的基本知识是很有必要的。对于复杂的、高成本或高风险的安装,建议由专业人员进行专业的数据中心评估服务。
绿色数据中心相关解决方案   
  作为我们机房行业,尤其是机房设备,尤其是UPS、照明,监控这些厂家能做一些什么东西。目前的话,我们可以做的是全部的服务器,可以做到动态式调整。我们的智能已经不再是单一的风速的,我们完全可以做成随着负荷的变化做成动态,可以满足机房实际的服务器的需求。
  
  在这个层面上,我觉得我们能做的几个层面。第一,我从供电上讲一下,如果讲供电,我们看到服务器原来的做法是大UPS。冗余系统在机房系统进行大供电,这种供电方式造成了很大的误区,当你的负荷发生变化的时候,当服务器工作的时间运算的CPU工作的量是不一样的。另外他如果到负荷要怎么或者是减少的时候也不能做到动态调整,这时候的供电是成了一个固定供电,成为了固定的调整,这有一个瓶颈。如果我的服务器,我的机房IT的寿命可能就2年,2年之后就要增加新的东西了。我的固化就是固定死了,将来要调整电缆、UPS,这会造成极大的浪费,因为做不了动态的调整。

  我们现在提出了在国内大规模使用19寸机架的供电,所有的UPS供电系统全部采用机柜式的。这种供电的好处是把集中式供电变为分散式供电。我可以直接安放在服务器机柜,我可以省去大量的电缆。这种UPS本身自己带了自动化配电,它的供电系统直接从变压器直接到服务器,当中没有以前所谓的五大环节。从变压器开始到服务器机上的机电柜。
  
  另外全部采用的配置的话,第一可以达到灵活配置,所有的功率和服务器全部放在机架边上,服务器增加了,你要增加UPS。所以它完全可以得到灵活的增长,第二是可靠性比较高,可以做到N+2,我们做到可靠性的冗余。第三个方面是可靠性增加,第四是可用性增加,全部采用的是要所有的电源带休眠作用。如果只让UPS到4。多余的供电系统或者是模块,便可以自动做休眠。一旦负荷上去了,会自动的恢复上去,做到不间断。还有一个可用性,可以用到50%,这时候增加了供电的可用性。
  
  我们通过在绿色的机房里面,供电系统现在的负荷总量,在计算将来量的话,我们可以做灵活配置,我可以多增加19寸机架。举个例子,在石油部做最大的机房,大概是三千个服务器机架,每个机架单元的密度达到了23千瓦的功耗。在这时候我们怎么做电源和空调?要是比较复杂,每十个机架要耗掉230千瓦的供电,我们在每十个机架要放这个智能的供电系统,包括安放高密度的空调,我们叫“冰柜式空调”,我们只对高服务器制冷,而不对机房制冷。

  这里面全部要实现动态制冷,重点的话,我们提出了一个叫在线模块UPS。我们可以按不同的需要整合这样的模块,不需要供电的时候,如果负荷量下降的时候,我们可以自动的把一些单元进行休眠。
除了这个之外,我们再谈谈供电的要求,去年中国成立了数据中心的工作组会,提出了要求对供电的要求。如果数据中心有一个标准的话,对机房的绿色化和供电的污染提出了高的标准,甚至是接近美国的最新的数据中心的标准。我们中国提出的是ABC,国外提出的是一级到四级。正确的是所有的机房谐波和无功损耗都有一个要求,谐波要小于3%,这直接影响到供电损耗。一般机房如果供电的话,按照中兴通讯(41.55,-0.63,-1.49%)提出的是5级,变压器再到负荷,所有的无功损耗,可能要几十公里。现在如果是0.999比的话,可以差15到17,这对机房的绿色帮助很大。
  
  这是目前国际上最流行的单机双总线和并联双总线。另外讲讲空调,空调占了机房的35%,根据国内现在提出的三个机房的类型,一个低密度机房、一个中密度、一个高密度。低密度是8千瓦,中密度15,高密度是大于15。这样的话要维持的动态增长,不能用原来的机房来建设。以前的机房把电铺好了,一旦动态增长的时候,原有的配电站配电都已经浪费了,还有空调。我们要做智能化的19寸的方式,空调也采用了最新的概念叫“机架式的空调”,这是最新的,还有是冰箱直线服务器的,其实是相当于冰箱的状态,你的负荷是23千瓦的时候,我这冰箱里头就生产23到24千瓦的制冷。以前我的比配是1:2.5,如果一个机房一个千瓦的服务器耗电,我需要2.5个千瓦制冷空调的匹配。另外还要做损失在风压100米的组织上,这要做成1:1。
不同的密度我们有不同的方案,在中密度的时候,我们可以看到在上面相当于一个冰帽式设计。也可以做到最新的放在服务器机架边上,这样的话,直接不需要任何的面板,也不需要任何的空气组织。
  
  这个大家可以看一下,所谓冰柜式的,我可以做小的,也可以放长到10米,可以放相当多的机架。你可以自己去查你的服务器,直接放到我这样的空调系统里。这种空调我们在国外卖了很多银行,我直接提出这些冰柜,他就放在办公楼、地下室里头,可以把供电系统的UPO插到这个冰柜里头,形成局部的小环境,不再需要机房了。这也是将来的一种新趋势。大概在2011年左右可能一些厂矿企业不再需要专业的数据中心,中小企业全部采用的是集装箱式的,或者是冰柜式的。其实有的就是10、20个,不再投入相当大的数据中心上,用这样的模式代替将来的发展。这种耗电是最低的。他只对冰柜里头的服务器进行供电、制冷,他不会对房间制冷,也不对人制冷。所以这也是在未来可能会产生一个新的变革,两种理论已经提出来了,一种是越高,相当高。这也意味着要么向大型化发展,要么向小型化发展,中型的这个空间将会越来越窄。
  
  将来的空调对厂家提出什么要求?第一要数码化,全部带电磁阀,一个机房里头现在是大家各工作各的,没有一个群体化的概念。如果你的负荷我应该增加十几个探头,在机房里有哪个机房需要制冷不那么多,我可以靠到这个机柜,不管100个机架要不要制冷,空调都是同一个转速、风速,这需求没那么大,冷足够的冷了,热还不够热。根据你的负荷量我可以自动调节风压的速度。
另外我提一下在机房里头真正能省下来的钱,对机房的改造。首先要改善你的空调治理模式,我们不难发现最大的隐患其实是地板。所有机房的地板获得根本不计算面积。机房的开口面积不能太大,目前造成冷热不均匀,要不停的加大风量,加大风机转速,一定要精确计算开口地板,可以做一些计算的。
  
  按照我们的工程算法,差不多一个机架需要1/3的开口地板。现在欧洲提出了24种,尤其是像德国和意大利要求比较严,也就是说中国现在还是22,有些地方执行的是21。如果温度升高一度,我从22-25度,这比你买什么设备都强。我在清华大学做,我们用的压缩机也没有节省15%来,把室内的温度降一度的话,可以节省15%,这也是对各位领导参考一下。不需要片面的说都是22度,因为新的数据中心要求,国家规范的话,25、22度都是可以的,取决于服务器的情况。
  
  我们在国内最有代表力主推的东西是把室外降低,引到室内去。也就是说把室外的温度转到室内,现在这种已经很多人在做了。有一个机房,他们利用室外的冷对室内进行冷却,有的是通过水卡造成逆循环,直接把热的水带到机房里来。所有的模式都叫自然冷却,把室外的温将下来。
  
  以上所提到的一些绿色的概念以及新兴的手段都是希望我们的数据中心往绿色数据中心上更靠前一步。通过等等措施的实现,下一代数据中心必然是绿色的数据中心,降低能耗将始终被放在非常重要的位置上。作为建设数据中心的一员,我们凭借自己的力量去付出,去做我们能做到的。尽自己的微薄之力,希望为了可持续性发展,为了解救图瓦卢这样的小岛国不再面临整体被淹的命运,不让2012成为真正的世界末日。肩负着重要使命的我们必须从所有的方面一起努力去开启一个新的里程碑,实现绿色数据中心的畅想!

 
【字体:   【背景色 -               关闭
上一篇: 没有新闻了
下一篇: 中国成全球第二大数据中心市场
   相关文章
云势不可挡:全面解读2015云计算发展趋势 [01/20]
放飞梦想  舞在云端 [01/02]
2015云计算五大发展趋势:私有云获更大发展 [01/04]
云计算市场日趋成熟 [01/05]
云计算触发2012数据中心扩张计划 [01/06]
中国成全球第二大数据中心市场 [01/11]
 
烟台华莱数据技术有限公司  鲁ICP备11009799号 流量统计