科技行者

行者学院 转型私董会 科技行者专题报道 网红大战科技行者

知识库

知识库 安全导航

至顶网CIO与应用频道CIO加油站旧瓶难装IT新酒 数据中心破解两化融合

旧瓶难装IT新酒 数据中心破解两化融合

  • 扫一扫
    分享文章到微信

  • 扫一扫
    关注官方公众号
    至顶头条

马克思经典理论告诉我们:下层基础决定上层建筑。中国石油集团东方物探研究院的数据中心有过一段波折,这是一个基础设施影响IT系统的典型案例。比如刀片服务器的大量使用,在局部形成高密度数据中心,对承重和散热的要求飙升。

来源:CIO360 2010年11月10日

关键字: 数据中心 IT系统

  • 评论
  • 分享微博
  • 分享邮件

  马克思经典理论告诉我们:下层基础决定上层建筑。数据中心的下层基础是物理基础设施,上层建筑是IT系统。物理基础设施包括建筑装修、供配电、制冷、集中监控、消防、布线等系统,一旦这些下层基础出了问题,将极大地影响到由服务器设备、网络设备、通信设备、存储设备以及管理软件等IT系统构成的上层建筑。

  问题:旧瓶装不了新酒

  很多机构或企业的机房及其配套电气用了十几年,相对于安放其中的最新IT设备是一个旧瓶,如今,工业的旧瓶已难以装下IT的新酒。

  过去的机房多设在办公楼内,上世纪90年代,随着客户端/服务器计算模式的普及,人们开始使用廉价的网络设备,加上标准的网络布线,采用分层设计,将服务器单独放在公司的一间特殊的房间中,其规模多为200-300平米。随着IT设备越来越多,对业务连续性与安全的要求越来越高,这样的机房已无法作为一个标准的数据中心来使用。

  中国石油集团东方物探研究院的数据中心有过一段波折,这是一个基础设施影响IT系统的典型案例。在2002年,因为业务发展的需要,东方物探研究院的数据中心被迁至城里相对比较繁华的地方重建,2003年数据中心搬迁完成之后,不到一年的时间就出现了四大问题,以下是其计算机服务中心副主任兼信息办主任易良坤的总结:

  “第一,配电。当初设计时认为用电量不是很大,所以我们搬进去时,就只有一台1000千伏安变压器和一台800千伏安的变压器,想就能把整个楼给带起来了。发展到今天,我们经过两期的整容改造,现在整个楼的供电变压器容量已经达到了7800千伏安。

  第二,空调制冷。有两个事情,一是,我们把空调放到相邻楼的楼顶。而那个楼建时并没有考虑到楼顶会放一些震动物体,结果放上去后,那个楼就经常漏水,长期得不到解决。二是,随着我们单位计算机的发展,空调室外机数量的问题。现在的空调室外机已达到30多个,摆放起来有很大的问题。为此我们在楼的东侧设置了一个空调室外机架,把室外机的安置问题解决了。但是另外一个问题又凸显出来了,因为机房楼旁边就是家属区,噪音扰民问题非常严重,到现在也没有更好的办法解决。

  第三,谐波。2003年我们搬到新机房楼,就出现了几个问题。一是,电脑发热比较快。二是,变压器噪音特别大。三是,电容的补偿装置投不上去,还有电子器件烧毁。我们一查电源谐波很厉害,特别是UPS的谐波是一个很大的谐波源。当然现在用的很多设备,包括节能灯、变频空调都是谐波源。在这种情况下,我们花了将近两年的时间进行治理和诊断,最后采用了有源滤波的方法解决,因为这时要上电容电抗器不太现实。

  第四,承重。2003年我们机房搬迁之后,设计的负荷是650公斤,但按后来的发展到了高密度。现在我们一个800 平米的机房,已经放了130多个机柜,导致局部负载过重,一些浇铸层都出现了裂纹,所以后来对承重又做了调整。”

  以上还只是数据中心基础设施限制了IT系统,更严重的情况还在于基础设施的问题伤害到了IT系统,从而给业务带来不可估量的损失。一个例子是北京地税,它和北京国税在一个楼里,国税的地下水管道爆裂,地税中心的UPS就跳闸了。另一个例子是银华基金有一次数据中心制冷系统出现漏水,刚好把一台IBM P560Q给烧了,后来经过多方辛苦的努力,才将业务恢复过来。要知道基金公司的业务是不能够出现中断的,如果出现中断那将给公司、客户带来巨大的损失,基金公司也承受不了这种中断。

  原因:IT跑在了工业前面

  老机房这个旧瓶装不了IT设备的新酒,最大的原因在于IT发展过快,而与之配套的工业基础设施与支持又严重滞后。

  数据量的爆炸式增长以及信息化应用的不断深入,正在促使IT与业务的不断融合,同时也在促使传统的数据中心不断进行升级、改造。几年前,企业的数据量也就在几TB,但是随着信息化应用的不断深入以及数据、应用系统的逐步大集中,几百TB、PB级数据量的企业正在逐步增多。而且,由于很多法规都要求业务数据保存周期要长达数年,甚至有些行业企业的业务数据需要保存几十年,庞大的数据量和未来增长需求使传统数据中心场地、设备面临非常大的压力。很多企业的数据中心场地中已经塞满服务器,但远远不能满足未来需求,同时却令数据中心基础设施不堪重负。

  比如刀片服务器的大量使用,在局部形成高密度数据中心,对承重和散热的要求飙升。高密度数据中心承重负荷一般在每平米850—1000公斤,而普通数据中心的负荷一般为600—800公斤。结果,本来是可以节省空间的刀片服务器却因为承重的问题又不得不分散开来。

  目前的许多数据中心设计的功率密度为每个机柜3kW甚至更低。在这样的环境中按每个机柜10-30kW的功率安装刀片服务器时,这些刀片服务器需要消耗大量的电力和散热功能,这与机房最初的设计不成比例。

  数据中心自身也在朝着整合的大趋势发展。现在的数据中心基本都会在500平米以上,超过一万平米以上的数据中心也不鲜见,像农行的大型数据中心都是两万、三万平米。因为超级数据中心的出现,可能支持的范围都已经不再是某一个小的区域,而是一个国家,整个亚太区。因此,企业往往开始新的选址,把一整栋楼都用来建立新的数据中心。

  但是,有关数据中心的机房标准,1993年的《电子计算机机房设计规范》(GB50174-93)一直沿用到 2009年6月1日,取而代之的是《电子信息系统机房设计规范》(GB50174-2008)。在这16年里,由于受到1993年规范“机器会越来越小、性能会越来越高、用电越来越少”这种认识的影响,大多机房的设计面积偏小、承重不够、供电也不足。

  而要把一整栋楼都建成数据中心,面临着没有专业支持的困难。目前国内传统的建筑设计院都很少参与数据中心的建设,面临数据中心大楼设计的时候没有太多的经验。黑龙江国税的数据中心大楼就是一个典型案例,其背景是“金税”工程三期,批准全国三家能够重新盖大楼,而不是改造。当时黑龙江国税请了当地的甲级建筑设计单位,但是他们对于数据中心的建设的经验是空白,不得不专门设立咨询项目,请专业的数据中心专家做咨询,指导设计院做设计工作。

  最后行业内缺乏专业的工程监理。原来盖数据中心基本都是请CIO签字,后来发现这是不对的,这个流程不是很合法,应该由专业的监理来做,但是市场上没有专门的针对数据中心的监理,往往从土木行业请监理,但是他们又不懂数据中心的建设,这是很大的矛盾。

  解决:亟需工业与IT的融合

  新一代数据中心的核心是节能与扩容,也就是立足于绿色数据中心上的IT可持续性发展,这需要先进的工业支持,即专门针对数据中心的基础设施建设,工业基础设施与数据中心虚拟化、IT自动化相结合,从而建成新一代数据中心。

    • 评论
    • 分享微博
    • 分享邮件
    邮件订阅

    如果您非常迫切的想了解IT领域最新产品与技术信息,那么订阅至顶网技术邮件将是您的最佳途径之一。

    重磅专题
    往期文章
    最新文章