扫一扫
分享文章到微信
扫一扫
关注官方公众号
至顶头条
马克思经典理论告诉我们:下层基础决定上层建筑。数据中心的下层基础是物理基础设施,上层建筑是IT系统。物理基础设施包括建筑装修、供配电、制冷、集中监控、消防、布线等系统,一旦这些下层基础出了问题,将极大地影响到由服务器设备、网络设备、通信设备、存储设备以及管理软件等IT系统构成的上层建筑。
问题:旧瓶装不了新酒
很多机构或企业的机房及其配套电气用了十几年,相对于安放其中的最新IT设备是一个旧瓶,如今,工业的旧瓶已难以装下IT的新酒。
过去的机房多设在办公楼内,上世纪90年代,随着客户端/服务器计算模式的普及,人们开始使用廉价的网络设备,加上标准的网络布线,采用分层设计,将服务器单独放在公司的一间特殊的房间中,其规模多为200-300平米。随着IT设备越来越多,对业务连续性与安全的要求越来越高,这样的机房已无法作为一个标准的数据中心来使用。
中国石油集团东方物探研究院的数据中心有过一段波折,这是一个基础设施影响IT系统的典型案例。在2002年,因为业务发展的需要,东方物探研究院的数据中心被迁至城里相对比较繁华的地方重建,2003年数据中心搬迁完成之后,不到一年的时间就出现了四大问题,以下是其计算机服务中心副主任兼信息办主任易良坤的总结:
“第一,配电。当初设计时认为用电量不是很大,所以我们搬进去时,就只有一台1000千伏安变压器和一台800千伏安的变压器,想就能把整个楼给带起来了。发展到今天,我们经过两期的整容改造,现在整个楼的供电变压器容量已经达到了7800千伏安。
第二,空调制冷。有两个事情,一是,我们把空调放到相邻楼的楼顶。而那个楼建时并没有考虑到楼顶会放一些震动物体,结果放上去后,那个楼就经常漏水,长期得不到解决。二是,随着我们单位计算机的发展,空调室外机数量的问题。现在的空调室外机已达到30多个,摆放起来有很大的问题。为此我们在楼的东侧设置了一个空调室外机架,把室外机的安置问题解决了。但是另外一个问题又凸显出来了,因为机房楼旁边就是家属区,噪音扰民问题非常严重,到现在也没有更好的办法解决。
第三,谐波。2003年我们搬到新机房楼,就出现了几个问题。一是,电脑发热比较快。二是,变压器噪音特别大。三是,电容的补偿装置投不上去,还有电子器件烧毁。我们一查电源谐波很厉害,特别是UPS的谐波是一个很大的谐波源。当然现在用的很多设备,包括节能灯、变频空调都是谐波源。在这种情况下,我们花了将近两年的时间进行治理和诊断,最后采用了有源滤波的方法解决,因为这时要上电容电抗器不太现实。
第四,承重。2003年我们机房搬迁之后,设计的负荷是650公斤,但按后来的发展到了高密度。现在我们一个800平米的机房,已经放了130多个机柜,导致局部负载过重,一些浇铸层都出现了裂纹,所以后来对承重又做了调整。”
以上还只是数据中心基础设施限制了IT系统,更严重的情况还在于基础设施的问题伤害到了IT系统,从而给业务带来不可估量的损失。一个例子是北京地税,它和北京国税在一个楼里,国税的地下水管道爆裂,地税中心的UPS就跳闸了。另一个例子是银华基金有一次数据中心制冷系统出现漏水,刚好把一台IBM P560Q给烧了,后来经过多方辛苦的努力,才将业务恢复过来。要知道基金公司的业务是不能够出现中断的,如果出现中断那将给公司、客户带来巨大的损失,基金公司也承受不了这种中断。
原因:IT跑在了工业前面
老机房这个旧瓶装不了IT设备的新酒,最大的原因在于IT发展过快,而与之配套的工业基础设施与支持又严重滞后。
数据量的爆炸式增长以及信息化应用的不断深入,正在促使IT与业务的不断融合,同时也在促使传统的数据中心不断进行升级、改造。几年前,企业的数据量也就在几TB,但是随着信息化应用的不断深入以及数据、应用系统的逐步大集中,几百TB、PB级数据量的企业正在逐步增多。而且,由于很多法规都要求业务数据保存周期要长达数年,甚至有些行业企业的业务数据需要保存几十年,庞大的数据量和未来增长需求使传统数据中心场地、设备面临非常大的压力。很多企业的数据中心场地中已经塞满服务器,但远远不能满足未来需求,同时却令数据中心基础设施不堪重负。
比如刀片服务器的大量使用,在局部形成高密度数据中心,对承重和散热的要求飙升。高密度数据中心承重负荷一般在每平米850—1000公斤,而普通数据中心的负荷一般为600—800公斤。结果,本来是可以节省空间的刀片服务器却因为承重的问题又不得不分散开来。
目前的许多数据中心设计的功率密度为每个机柜3kW甚至更低。在这样的环境中按每个机柜10-30kW的功率安装刀片服务器时,这些刀片服务器需要消耗大量的电力和散热功能,这与机房最初的设计不成比例。
数据中心自身也在朝着整合的大趋势发展。现在的数据中心基本都会在500平米以上,超过一万平米以上的数据中心也不鲜见,像农行的大型数据中心都是两万、三万平米。因为超级数据中心的出现,可能支持的范围都已经不再是某一个小的区域,而是一个国家,整个亚太区。因此,企业往往开始新的选址,把一整栋楼都用来建立新的数据中心。
但是,有关数据中心的机房标准,1993年的《电子计算机机房设计规范》(GB50174-93)一直沿用到2009年6月1日,取而代之的是《电子信息系统机房设计规范》(GB50174-2008)。在这16年里,由于受到1993年规范“机器会越来越小、性能会越来越高、用电越来越少”这种认识的影响,大多机房的设计面积偏小、承重不够、供电也不足。
而要把一整栋楼都建成数据中心,面临着没有专业支持的困难。目前国内传统的建筑设计院都很少参与数据中心的建设,面临数据中心大楼设计的时候没有太多的经验。黑龙江国税的数据中心大楼就是一个典型案例,其背景是“金税”工程三期,批准全国三家能够重新盖大楼,而不是改造。当时黑龙江国税请了当地的甲级建筑设计单位,但是他们对于数据中心的建设的经验是空白,不得不专门设立咨询项目,请专业的数据中心专家做咨询,指导设计院做设计工作。
最后行业内缺乏专业的工程监理。原来盖数据中心基本都是请CIO签字,后来发现这是不对的,这个流程不是很合法,应该由专业的监理来做,但是市场上没有专门的针对数据中心的监理,往往从土木行业请监理,但是他们又不懂数据中心的建设,这是很大的矛盾。
解决:亟需工业与IT的融合
新一代数据中心的核心是节能与扩容,也就是立足于绿色数据中心上的IT可持续性发展,这需要先进的工业支持,即专门针对数据中心的基础设施建设。作为世界工业巨头,西门子已经涉足数据中心的建设领域,其在工业上的优势能够弥补面临IT的不足,实现工业与IT的融合,从而建成新一代数据中心。
西门子北京数据中心就是这一背景下的杰作,这是西门子在亚洲最大的数据中心,占地面积一期超过 490平米,拥有100个机柜和630台服务器,能够提供所有IT和语音服务。这个设施一流的数据中心是西门子地区性战略IT枢纽,可为中国乃至整个亚洲的内外部客户提供IT外包服务。在此,数据中心、通信中心和供电中心同在一个屋檐下。
西门子北京数据中心的PUE(电源使用效率)值在1.7~1.8之间,在最大功率容量的情况下可实现1.6的PUE值,这使得每台服务器的能耗负荷减少了36.78%。PUE是数据中心行业用来衡量数据中心效率的值,表明数据中心的绿色程度。
PUE值是大于1.0的。理想情况下,接近1.0的PUE值表明达到100%的能效(即所有电力仅被 IT设备消耗)。目前,还没有关于数据中心 PUE值分布的非常全面的数据。一些初步数据表明国内大多数据中心的PUE值可能达到3.0或更高。
西门子北京数据中心的PUE值如此之低乃是得益于先进的节能和冷却措施的采用。比如其独特的数据中心冷热通道设计打破了常用的IT设备排列方式,使各排机柜的布置方向为服务器前部相向布置,各排机柜的后部也相向布置。这种排列方式就形成了“冷热通道”布局。这种布局如果合理组织,可大大降低能量损耗,并可延长服务器寿命。
在许多老式数据中心中,地板下空间通常被设计为通风管道,然而,大量线缆同时也穿行其中。这影响了冷风在地板下的流动和进入服务器进风口。制冷系统为了达到相同的制冷效果,必须消耗更多能量。西门子北京数据中心采用了架空布线和1米高架空地板下无障碍风冷通道解决了这个问题。
这些先进的节能和冷却措施有很大一部分是来自于西门子自有的楼宇科技。上海浦东机场和金茂大厦、美国白宫和法国卢浮宫都是西门子楼宇的成功案例,北京2008奥运游泳中心——“水立方”弱电项目也由西门子承建。
西门子的楼宇科技特别适合整栋大楼的数据中心建设,这要求对整栋大楼的消防、电梯、空调、供配电等实现整体管理,为此,西门子开发了一套BMS软件,包含了若干个模块的管理:如能源、安防和消防。能源管理即针对供配电与制冷;安防是对数据中心进出人员监控和智能识别;消防系统中配有ASA专利技术传感器,能准确判断是真实火灾还是假象火灾,以减少误报造成不必要的损失。
以上的工业基础设施与数据中心虚拟化、IT自动化相结合,也就建成了工业与IT融合的新一代数据中心,即为西门子所称的革新型数据中心。西门子是极少能够同时自行设计、自行建造、自行维护数据中心的企业,如今,西门子旗下的IT解决方案和服务集团已把整套数据中心特有技术转向对外服务,这意味着西门子在输出先进工业技术的同时,也在分享一个端到端整合的数据中心建设经验!
如果您非常迫切的想了解IT领域最新产品与技术信息,那么订阅至顶网技术邮件将是您的最佳途径之一。
现场直击|2021世界人工智能大会
直击5G创新地带,就在2021MWC上海
5G已至 转型当时——服务提供商如何把握转型的绝佳时机
寻找自己的Flag
华为开发者大会2020(Cloud)- 科技行者