设为首页 加入收藏

公司名称:成都市炫指速记服务有限公司(原成都速记)
公司地址:成都锦江区净居寺南街203号
移动电话:13402813721 董女士
     13980893668 宋女士

TEL:028-84593518
网址:www.sujicd.com
电子邮件:10689464@qq.com 

 
2016年
2015年
2014年
2013年
2012年
2011年
2010年
2009年
2008年
2007年
2006年
2005年
2004年
  友情链接

 

 

 
学习心得
 
数据中心的振兴与发展研讨会
发布时间:2011-4-1 阅读:5093次  

成都炫指速记(原成都速记)为本次活动提供现场速记,以下为速记实录内容。


    主持人:欢迎大家参加我们今天有关数据中心振兴与发展这样一个主题的会议,我是网络世界的记者,我是今天的主持人宋家雨,我们这次活动是安排了抽奖的环节,刚刚在屏幕上可以看到一个手机号码,有什么问题可以发到这个号码上,我们都会有一份礼品送给大家。我们进入会议的下一个环节,我先抛砖引玉,谈一谈作为一个记者,从报社的角度来讲,我们是怎么看待数据中心建设与发展的,跟大家有这么一个简单的交流。
    我们都知道,说到IT业界大家可能会知道一些东西,我们IT说起来概念特别多,技术产品比较复杂,很多人说IT**是一个自娱自乐的一个圈子,你们自己造概念,然后自己来解答,然后把这个圈子搞得热热闹闹的,我们说新一代数据中心是不是这样一个结果呢?是不是属于业界厂商自娱自乐?然后我们造**一个新一代数据中心的概念给大家,多卖一点自己的产品啊,技术啊,是不是这样的想法呢?在我们看来不可否认,IT确实有自娱自乐的成份,处于商业的考虑确实有这样的现象,但是关于数据中心还不是一个自娱自乐的东西,实际上是对我们目前的用户业务和我们的业务需要发展是有帮助的。
    我们问什么是新一代数据中心?新一代数据中心有一个概由念吧,这个概念有六个衡量指标,这是谁给出来的呢?这是**早由美国网络世界,美国的一份专业的期刊,我们跟美国网络世界有一个合作的关系,我们中文也叫网络世界,是和IDG合作的一个概念,提出了6个概念,一个是整合、虚拟化、绿色节能、自动化、安全与广域数据加速,新一代数据中心有这六个要素。在这六个要素中实际上有一些东西都很专业的,比如说像整合、虚拟化、安全、自动化、广域数据加速,这些东西来讲其实都是很专业的一些东西,应该是我们做IT的人才明白的一些东西,对于业务部门来说,你跟他说这些东西,他觉得跟他没有什么关系。对CEO来说,认为你整合也好,虚拟化也好,自动化也好,安全也好是你们IT部门要做的,你不要给我讲整合怎么样,虚拟化怎么样,你给我把系统做好,这是你的责任和义务。对CEO来说,我们要提醒大家,那五个部分都是你自己要做好的,你跟CEO讲我这个做的怎么样,CEO可能都不觉得,他觉得这是应该的。
    对CEO来说有一点是我们的机会,**是绿色,有6个指标嘛,有一个指标**是绿色,绿色对CEO来讲是很关心的,为什么这么说呢?你们也看了很多媒体的报道,可能在多种场合下也听了很多的演讲,从目前的发展来讲整个IT系统的运维成本,也**是说花在电费上,花在管理的成本上,运维超支已经超过用于IT的成本,一天你把整个的系统运维成本考虑下来以后,运维成本超出你的购买成本,对于CEO来说实际上来讲,运维**一种支出,运维这种支出都是要从这个兜里掏钱的。我们接触到一些用户,很多用户**说,电费,尤其运维成本这一块,电费这一块,我根本不关心,为什么我不关心呢?电费不是我们信息部门来掏的,我们的电费支出都是我们后勤部门啊,都是他们付费的,我们只管用不管花钱,如果你们做信息系统的经理你们要想到一点,是不从你的兜里花钱,但是从我们的企业CEO里面花钱的,对CEO来说,无论是后期部门的钱还是你信息部门钱,左兜换右游兜,能降低你们的成本,这是我们的一个成绩,是我们给CEO节省的资金,这是他所认真考虑和关心的,我们认为新一代数据中心对CEO**有说服力的是绿色,所以你也看到很多的媒体报道,关于新一代数据中心的说法,他们**叫绿色数据中心。
    在绿色这个东西上讲也有一些东西,希望跟大家交流一下,你要问用户,说你们现在重视绿色吗?很多用户说我们重视啊,在我们采购招标的时候都有一套指标,这个指标是什么呢?在满足运用的前提下优先选择绿色节能的产品,只要你满足需求,你有绿色我**买,这是中国目前用户的状况,我觉得这跟国际相比还是有差别的,在满足应用的前提下优先选择绿色节能的产品,也可以翻译这一句话,我可以不选择绿色节能产品,因为他无法满足应用,在国外不是这样,国外没有满足应用的前提,**直接把绿色作为一个业务,一个目标,它今天可能有一个任务,**是让它的数据中心变成绿色,这个对绿色的态度来讲还是有一些不一样的。
    说到绿色,它的目的**是为了降低运营成本了,也不仅仅是这么简单,不是省几个钱的问题,我们知道IBM、HP,英特尔在去年做了很重要的事情,他们把原来全球几十个数据中心缩减为三个,缩到两三个数据中心给整个全球的业务做支持,通过这种收缩带来一个好处是什么呢?对它企业流程管理的一个改造,把它原来分散在各个中心的权利集中起来了,是一个权利再分配的过程,然后通过数据中心的改造,通过改造把现有的管理方式重新改变了,所以我们认为对数据中心来说,不仅仅是一个IT发展的需求,其实也是你整个管理企业的需要,你现在的管理,企业你想再提升一步怎么办呢?有可能通过IT的手段来改变你现在很多不好改变的东西。这是讲的一个概念,讲新一代数据中心的概念,它可以给我们带来整个管理的集中,我的服务水平也得到了****和统一,我们**说这个东西好,不错,我们要构建一个绿色数据中心,但是构建绿色数据中有一些问题需要大家注意的,这边有两个图片,这两个图片是什么意思呢?这是川庆物探,一个企业,他们的室外数据风扇,为什么给大家看这个风扇呢?他们信息化的规划做的很好的,他们IBM做的规划,英特尔做的具体的,那一套实施计划跟发展是吻合的,但是在具体的实施过程中发现问题,因为新的数据众信和企业的办公楼是隔在一起的,因为新建了一个办公环境,环境有一部分是给信息中心来用的,信息中心入住以后,一进去一看所有的计划不要提了,因为室外的空间限制,**是这么大的空间,只能放这么多的室外风扇,**决定了什么?你的智能,你的智能**决定你能支持多少的计算,这是一个话题吧,我们构建这个新一代数据中心的时候需要注意什么事情呢?**是我们要根据新一代数据中心的业务发展需求,从土木建筑,我**尽早的介入,这样我把我的需求提出来,以后你的发展才可以做到限制,有一些事情你想做也做不了的。
    说到新一代数据中心,你们知道有一些指标和数值,一个是SPUE,PUE和CPU,可能PUE你们也听说过,衡量数据中心,比如说100瓦的供电有多少是用在计划上,当然PUE越小越好。一般来说国外的数值会小一些,PUE**做的好一些,国内相对差一些,但是这个牵扯的内容比较多,可能我们做记者的也不是那么专业,但是我知道衡量新一代数据中心,基本上大家饮用**多的一个是PUE值,知道PUE值。PUE没有反映出有多少的计算有多少电力提供给关键的部件,针对这三个值,大家也总结了一下,我为了实现更好的指标,或者是说它都有一些固定的办法了,比如说我要降低PUE值,它有一些办法,等一会刘洋会讲到一些,比如说风道的设计改造,比如说空调制冷,从上面来的制冷,我通过下抽风的方式,对PUE有所改善,比如说这里列举了很多降低PUE值的办法,降低事SPUE值也是一个办法,比如说选用更好的高效的电源,你任何的设备,网络设备也好你都有电源的,电源本身也是耗电的,它的耗电是我们显然不希望见到的,我希望转换效率更高的电源,在数据中心也是一样的,针对数据中心不同的办法,这些办法大家下来了可以看一看。
    说到整个数据中心构线有几个东西,从我的角度来讲有几个东西推荐给大家的,一个是上走线,从上面走线的好处是,因为要做下送风现在比较流行的是走上走线,这两个照片大家可以看一下,不太一样,左边的照片是一种走线方式,只有一层,右边是有两层,上走线也是有一个注意的,走的不一定包括我们的网线,有电线,强电和弱点线走到一起是有干扰的,后面的案例更加充分一些,把强电和弱电****分开了,底线走的弱电和网线,强电是上走线,上走线的好处是对智能效能有帮助,****比较灵活,容易感觉。通过放大的照片,可以看布线是怎么走的?布线和网络结构是一个比较有意思的话题,在传统的数据中心网络构建里面,我们**常知道的应该是三层结构,****层是不是接入层,****层是汇聚层,第三层是构建层,很多改要采用两层结构,去掉中间层的汇聚层,**到了核心层了,减少了这一层也有好处,因为现在支持设备的能力在提升,****有条件做到两层,我**不需要汇聚一层了,这是一个很好的结构,带来你整个数据中心管理更加简单了,等一下会有厂商给你讲到,你监视了一层,你**会把这层的压力转嫁到哪里去了?转嫁到布线去了,等一下他们还会讲。
    数据中心有一个话题是跟大家讲关于高密度区的话题,高密度区计算密度比较高,代表刀片,刀片服务器,现在大家提到的在你的数据中心机房里面,你不是所有的都是平均来分配的,根据不同的应用需求选择不同的设备,不同的设备有不同的特点,**应该有高密度区和低密度区,高密度区,高密度区有高密度区的好,因为它计算密度高,大家知道它也有不好的,刀片服务器,既然是高密度服务区,可能通过简单的下送风**不太适合,这个照片给大家看一下,左边的照片**是在两个戴尔之间的一个空调设备,然后**是叫做水平制冷的方式,在高密度区通过这个方式把风从前面吹出来,后面的图还是空调设备,把这些热风往里吸,在前面出冷风,在后面把这个热风吸进来,通过这样的空调设置,我们是****可以满足高密度区散热需求的,其实通过合理的配置来讲,会给整个高密度带来一些好处,我们为什么要设置这样的高密度区呢?实际上给刀片带给的好处是一样的,刀片带来的好处是三点,****容易部署,因为减少了线,部署起来很快,都是高度集成化,有故障排查的时候,你传统的方式,一条一条理线,到时候哪一条线掉下来的,到时**不用了,刀片的线缆是非常少的,这是一部署,****是节能节电,相对来说跟我们的绿色有一些关系,因为它是跟机架服务器不一样的,它是采用一些共享的部件,共享的电源,共享的部件,减少了风扇的用量,同时又有一个局部的小环境,这样它消耗的电能是比较少的,基本上有一个笼统的算法吧,如果是基价服务器是1.5的话,刀片**是1,我说的1.5和1**是电流,如果是1对应的服务器**是1.5安培,这是一部署一管理和绿色节能,我们通过这样的管理**能对我们的绿色管理有帮助。
    刀片服务器里面要注意的是网络模块,网络模块实际上大家也可以看一下,不同厂商是不一样的,在它的背部有几个地方接入网络模块的,我给大家看这张图,这是非常有意思的图,这张图前面大概16个刀片服务器,16个刀片服务器全部通过后面的网络接口,通过这一根线(PPT),跟后面的存储进行连接,很多用户说你这样网络存储奠定肯定是瓶颈,实际上来讲这个是有点问题的,我****可以不这样配,网络后面有很多的接口,你****可以让你哪一个刀片哪一个口,**直接的是有一个模块,跟我刀片没有网络接口,我可以把刀片的每一条线接出来**不存在网络瓶颈,对刀片大家感兴趣我**稍微提醒一下,刀片网络模块这一块大家更多的研究一下。
    说到模块这一块,大家可以看到一些,它有很多的其他的模块,比如说光线的模块,如果你做光纤的计算,还有以前大家常用的网络这一块,这种不同的模块,现在不同的厂商是尽可能把标准开放出来,也有一些选择性吧,但是你只能在刀片这一块选择,但是不是说任何一款都可以接入到刀片中来,刀片还是有刀片专用的网络模块,可以把模块反映一下,网络交换机,像HP是有四个口吧,然后四个口都可以用,这样大家可以关注一下**可以了。
    另一个话题是刚刚说到六个指标,新一代数据的六个指标,其中有一个是自动化,关于自动化这一块也是挺有意思的,因为整个机房部署起来,方方面面的细节也特别多,比如说领导来参观,会觉得这儿不好看那儿不好看,肯定存在这样的情况,我推荐大家数据中心的管理我们****单独拿出来做,拿到外面来做,目前有一些厂商提供这样的解决方案,我觉得当观众参观的时候,你让他参观数据化自动中心,不要去机房,因为机房频繁进出**谈不上自动化了。比如说温度,你可以在外面通过监控的屏幕和监控的中心,**可以了解到整个数据中心里面的温度啊,整个运行的情况**可以了解到,通过这种管理方式来自动化的对它作出一些管理和控制。我觉得这样既减少了对你业务的干扰,同时也让你的整个管理水平提升一步。
    说说虚拟化,虚拟化也是业务指标之一。我们见得**多的是服务器的虚拟化,实际上除了服务器虚拟化,针对服务器有一个应用的虚拟化,应用虚拟化和服务器虚拟化不一样,应用虚拟化也是我比较看好的一种东西,对应用虚拟化非常重要的,我个人的感觉它以后能带动上网本的发展,上网本****的问题是什么呢?计算能力不太强,但是应用虚拟化干什么呢?**是不让你本地做计算,把所有的应用都搁到后端去了,搁到服务器里面去了,哪怕跑一个WORD也是在后面的跑,前面只是一个接入,大量的后端都在后面计算,既然不需要计算,上网本热潮**来了,你用这样**可以带来很多的方便,另一个应用虚拟化有一个前提,**是网络无时不在,接入无限制,比如说我在这儿有网络接入,我**把所有的后端**计算。我觉得管理水平是不一样的。对应用虚拟化可以更多的关注一点儿,服务器虚拟化**不用更多的说了,把一个物理级虚拟成多个虚拟级,虚拟跟整合也是搁在一起的,以前我们有5、6个系统,通过虚拟化来整合,虚拟化显然是一种整合的手段,不管是服务器虚拟化、应用虚拟化还有存储的虚拟化,这方面也可以关注一下,存储的虚拟化和服务器的虚拟化不一样,存储的虚拟化也是用于整合的,大的企业内部可能有多套的网络存储系统,比如说SAN,这套系统,你多套系统之间是无法进行存储共享的,它可以通过存储虚拟化,把多个设备连接起来,共享网络资源,让你存储水平更高一些,所以虚拟化推给大家的是服务器虚拟化,应用虚拟化和存储虚拟,大家多关注一下。
    **后说一下云计算,云计算比较流行了,什么都是云,不管是内部云,外部云,公共云,私有云,反正说得挺热闹的。关于云计算跟数据中心有关系,我觉得有一点结论是一样的,云计算是构建在新一代数据中心基础上的,如果没有新一代数据中心,没有整合、绿色、安全为基础,我觉得谈云计算**是空中楼阁的,也没有什么意思了。所以对云计算来讲一定是构建在新一代数据中心基础上的,你也可以翻译一下是什么呢?云计算一定成功也等于新一代数据中心,我把新一代数据中心建好了,你计算**是云计算了,如果你没有这些基础,我觉得谈云计算还是比较遥远的一个事情。好,谢谢大家!以上东西也是给大家做一些分享,也是个人的一些观点。
    接下来有请APC的专家刘洋来给我们演讲一下,有请刘洋。
    刘洋:各位嘉宾下午好!下面由我为大家介绍一下APC在数据中心振兴与发展做的工作,首先我自我介绍一下,我叫刘洋,是APC西南地区的技术支持顾问,APC可能很多用户都比较了解,很多用户觉得APC只是一个UP市场价,可能觉得只是提供UP或者是机房的设备,随着本世纪初APC在全球走访有三百个以上的大中型数据中心,充分到客户中去了解,用户在使用我们的设备和其他设备的情况下,数据中心已经出现的一些问题,将来可能出现的一些问题,或者用户对数据中心,在以后的数据业务发展的时候可能还有哪些需要,所以APC已经从一个单独的UP厂家,或者空调厂家成了一个数据中心整体解决方案的公司,基于这么一点,在前年APC公司被施耐德公司收购,APC下面已经写成了施耐德旗下的一个公司,施耐德也是一个管理公司,很看重这一块的业务,我们同时由施耐德电器作为供配电,因为施耐德在这一块也有一些贡献,我们在机房中心可以说可以提供一个比较完善的方案,我们刚刚谈到APC在之前到很多用户那里去,看用户的数据中心出现的问题,包括我们IT技术迅猛发展,了解数据中心可能出现的问题,在05年的时候我们提出一套叫InfrastruXure的一个系统,这样一个InfrastruXure解决系统是由很多部分来解决的,首先是**基础的供电,我们是作为UPS的一个配电,包括机房中的机架,还有包括机房中的管理的功能,还有下面的包括**先的设计,到后期的管理我们都是作为一个整体的方案呈现给客户,可能有一些用户初期有一些了解,但实际上对我们的方案有一些误差,我们下面看一下,哪一些地方遗憾用户对InfrastruXure系统的误解,首先是APC  InfrastruXure只适合中小数据的规模中心,全球数据中心,**采用我们InfrastruXure整体套的方案,采用这一整套方案以后,  因为这一套方案是提供高密度,包括效率的考虑,所以采用这一套方案以后,对数据中心实际上可以做到百万美金以上的节约,所以InfrastruXure不是一个中小数据规模的中心,****个InfrastruXure刚刚谈到包括万象,因为机房中除了服务器,除了一些布线我们没法做,拟稿的配电、空调、管理,安防、监视都可以作,不是一个简单的方案,是把产品品抽到一起,另一个觉得我们可能说机房已经应用,我再要用这一套系统,其实这些都是用户的误解,这个我们在后面有一个详细的说明,第三个是APCInfrastruXure对于情况复杂的大型数据中心来说并不合适,大家可能我们在做InfrastruXure这个方案的时候来说有一个分级的,包括一到三级的小型配电是一个设置,包括5—6个机柜是一个中小型的机房,对20个机柜以上,或者更大面积我们有相应的设施支持这欧大型的数据中心,同时我们整套的系统都是采用模块化的设计。这不是说小型的可以用,大型的不能用,我们通过标准的模块化,到用户现场根据用户的需求,我们可以把小的应用扩展成大的应用,这些都是应用一些初期的误解。
    这个地方提到****个我们InfrastruXure的通用性,不管是大的,小的,高密度低密度,老的或者兴建的,都可以完成这样一个建设,****个拓展,这也跟我们IT技术整体发展是一样的,IT发展到现在,从以前的非机架式的服务器,到现在机架式的服务器,也是一个模块化的方向,我们紧跟着IT技术的发展,我们在设计我们的UPS,设计我们的空调,设计我们的监控安防,用户的机房,包括机柜,都是标准的模块化的组建,如果我们在后期需要拓展,只是增加相应的模块**可以,不存在像一线的方式,必须全都推导重建来做。第三个是标准化、模块化带来的标准化,包括机房后面的可预见化,实现机房总价的控制和可用性。
    **后一个简单,也是基于模块化和标准化来实现,我们设计的时候都是标准,可以很快的设计,安装也可以很快,另一个可以马上实施,而不是传统的方案跟很多的打交道,造成整个系统都很慢,我们InfrastruXure系统可以鉴于我们所有的IT设备,包括我们其他的管理系统,包括我们楼宇监控系统,包括我们的管理系统都支持这些方案的,第五我们刚刚说的施耐德电气旗下,我们可以把下面的一些产品,等等一些产品都可以用在下面。到小型的中星的大型的我们都可以用InfrastruXure的方案,对现有的数据用房我们可以继续保有使用,我们可以在下游的机房中布置一个区,在其中做一个区的混合型的配件服务,我们在现有的环境下部署,这对保护用户在初期的机房投资也是一个很好的做法,延长了整个机房的使用寿命,这是我们刚刚提到的高密度区域,插入式的高密度岛,这是我们在初期做了一个,初期我们非刀片式的设备,甚至刀片式的设备比较少,慢慢我们刀片式的服务器越来越多,我们在一个区域肯定会有相对的高密度区域出现,这个也不是说整个机房都上刀片式服务器,只是一两个机柜,四五个机柜要上,这不是说我全部都要重建,我们可以在这样的机房中,比如在图上红圈的部分,做一个高密度区域,作为一个独立的单独区域来说,但是也不影响你整体机房的环境,针对这样一个区域我们提供供电和制冷,这**可以提供机房,在插入高密度设备的问题,这**可以看到,**初我们可以是一个低密度的数据中心,可以这用现在很常见的房间级的制冷,在机房的周围我摆放上下的空间,包括有稳定制冷,比如我们现在在机房中增加刀片式服务器以后,肯定会出现这种热点,这种是不能****解决问题的,以前我们只能在设计的时候,在每一个机柜平均的设计,可能一个只能做到2.5千万,现在戴尔机柜,如果放四个刀片框,**多是可以做到60千瓦的一个供电,需要60千瓦的配电,包括制冷,你传统的空调送风是不能满足这个要求,**造成在机房中因过热导致当机的风险,对我们的机房管理也有问题,**后我增加服务器怎么增加?包括服务的费用,在以前的机房中可以加一个高密度区域,比如说空调,来解决这一部分高密度设备的问题,同时我也可以保留以前我这样做的一个低密度的区域,这对我们用户的数据中心是有相当好处的,这虽然说刚刚谈到一个数据中心的节能,节能肯定是减少平时运行的费用,如果我通过这种混合的方式,是节约了我数据中心改造费用在里面的,包括我延长了机房的使用寿命,并不是说我上了刀片服务器把这个机房全部拆掉,我们只是做部分的改进,以前你只能做5年的机房,现在能用7、8年,这也是帮用户节约后期上的一些费用。
    后面我们会有一些相应的产品看一下如何使用高密度高区域,这是我们高密度区采用的方案,包括没有气流的系统,包括机柜候补的热空气遏制系统,或者是整行系统的热通道系统。刚刚我们看到多种方式来解决高密度,同时我们也是,采用了靠近这种负载的动态制冷,解决我们的高密度,同时我们针对高密度机柜可以进行一些门禁的管理,对机柜进行管理,第三块是模块化可扩展组建,这是拓展我的数据机房…实现效率****化的问题。
    刚刚我们看到的是用户在使用刀片式服务器的时候,如何来应用于高密度区域,我下面讲一个虚拟化,这是刚刚提到数据中心,虚拟化也是一个很重要的方案,用户物业觉得比较奇怪,APC只是作为一个机房物理基础设施的一个厂商,包括在去年做路演的时候我们**谈到虚拟化,虚拟化根据国外的一个调查可以知道,在国外到2008年是有60%的大中型用户实现了虚拟化,在09年还有多余的15%的用户继续做虚拟化,这个数据是在美国做的调查,大家都知道,在国外IT的整体应用比中国IT应用稍微走的靠前一点,很多技术都是那边在用,传到中国再用,现在中国暂时虚拟化还没有应用到这么广泛,但是我们看到虚拟化是数据中心以后发展的一个方向,我们在虚拟化的时候我们如何来帮助用户完成虚拟化过后,虚拟化对基础设施的一个要求。
    首先我们看一下虚拟化的好处,****个好处**是提高CPU的利用率,从而减少电路的消耗,从CPU的利用率从以前的10—15%达到80%的使用率;****因为采用虚拟化,我可以多个应用集中到多台服务器的处理集中到一台服务器的处理,我可以把服务器合并起来,**大大降低的购买需求,包括后期维护的需求,包括用户也是减少了很多维护的成本;第三个是提供了机柜的可用空间,以前可能一百个平方的机房,我采用虚拟化以后可能60个平米**可以做完,以前要一个机房才放得满的设备,现在半个或者更少的位置**可以放,这也是一个显著的作用;第四因为各个虚拟化有一个备份,提供了它的连续性和灾难恢复的能力,另一个我整体的设备都减少了,也减少了后期的人力成本。但是对虚拟化来讲,虚拟化和效率不能两者并存,以前用户觉得我采用虚拟化技术以后,是不是在机房中不能做到这么高的效率,我们考虑虚拟化的时候,用户会觉得,这种服务器减少了,是不是以前我建UPS供电**满足我现在的要求?我是不是**考虑软件的提升?我是不是考虑我硬件**不需要做改动,这也是一个误差。第三我们在实现虚拟化整合设备的时候,是不是要等到下一个大型数据中心建设的时候全盘使用,而不是我现在部分可以用,我先用,而是说等到必须****来建好,这些都是以前用户存在的一些问题。虚拟化也会导致我们在一个机房中,一个IT的合并,首先**是一个全面的合并,包括把低密度数据中心,可以合并成这种高密度的数据中心,全新、更小的数据中心;****个是集中运算,以前可能有几种分布的网点,现在可以集中在一个数据中心来做这个运算;第三个是部分的整合,这个跟我们刚刚谈到的普通的数据中心和高密度的数据中心有区别的,这也是虚拟化带来的对不同方式的数据中心的影响。刚刚我们谈到,采用虚拟化以后我们是不是可以不考虑的数据中心改进,这个地方我们可以有一个简单的示例,红色部分表现我放的服务器,这是一个UPS,整个机房供电的容量,左边的蓝色,现在是房间级制冷的容量,现在我需要的一些供电制冷的一些情况,做完虚拟化以后,我们其实可以看到,因为虚拟化可以把服务器整合,整合以后,****个是我机柜的空间,是明显的减少了,可能是以前减少了一半以上,****个因为我服务器减少以后,我整体的配电更小一些,所以我UPS的容量比以前更小,我UPS的容量小了,UPS包括我服务器进去的电,**后都是转化成热能出来了,我服务器出来了以后,我出来的热也更少,自然我对空调的量也**小了,很多用户**觉得,现在这已经是达到效果了,因为我现在供电更小,空调使用的更少,是不是我整体机房运营费用**更低了呢?这也涉及到我们以前对空调设计上的一个问题了,以前我们在机房中配置**包括UPS和空调的时候,以前固定的一个UPS,比如说80无千伏的,减少以后还是一个80千伏,已经达到80%的负载率,大家80%的负载率UPS的效率是挺高的,通过虚拟化以后我UPS只有40%的负载率,40%的负载率**是一个减少,传统机房的空调,不是说我会因为机房这种对机房的需求更少我**减少冷空气的制造和产生,我还是会继续按照我以前的方式来工作,可能冷量还是保持一致,空调也没有节约,我现在反正还是会按照这样来工作,整体来讲实际上容量没有变,机房总体的规模没有变,只是你实际运算的占的功率减少了,比如说**开始DCIE做到供电29%,这个29%是作为,**算做了虚拟化以后,你IT负载降低了以后,效率**只有16%,所以我机房的DCIE是降低的,不是像用户讲了以后用的效率更高,DCIE是我现在实际做到运算工作的这部分占到我容量的数据,这个效率实际上降低了,机房不是说做完虚拟化**可以****高的效率。
    我们看**后一个方式是把效率提高到63%,这是怎么完成的呢?首先我们可以看到,****个,我们是把UPS的容量降低了,像以前比如说只需要40千伏以后,机房放到我们服务器中,相对的容量会降低,整体来了以后,**可以把整个机房的效率提升,刚刚我在之前准备的时候,我刚刚也看了一个,我们在网上有一个工具,可以帮助客户自己来计算机房一年的费用。刚刚我用这个工具算了一下,比如说我现在机房设置的总的功率是300千瓦,我IT设备达到30千瓦的时候,这时候我采用传统的方式,不考虑节能,一年的费用电价按1块来,电价是达到83万,如果我们采用更高效率的UPS,包括我采用模块化这种,可以根据我的这种容量来调整,包括我们以后会谈到行业的空调和制冷,可以降低年运用费用的40%左右。我们用户可以到我们APC官网下载工具,来计算一下,**可以了解到以后的数据机房对用户很重要的一个影响。
    另一个**是刚刚我们看到,虚拟化以后,比如说****个因负载不足导致的低效,因为我刚刚看到,采用虚拟化以后,我们一下子负载**降低了一半左右,因为我们这个地方刚刚谈过了,超过一半点率是一样的,所以我实际负载减少,但是我配电和负载是没有减少的,IT负载是降低,这时候我机房中过渡的供电和制冷**是我机房的电耗。很多用户会提出,比如我现在实际负载只有一百千伏,要考虑一定的玉量,有可能这一百千伏变成两百千伏。这都是过渡的规划供电和制冷的系统导致机房的浪费,第三个是虚拟化使负载大幅度的减少,可能会减低的特别低,这也是会造成过渡的供电和制冷的问题,所以供电和制冷系统的容量可以随时拓展,也是对我们以后建设数据中心需要考虑的问题,我们的供电和制冷也是随着我IT负载的增加,随着这样的工具来增加,而不是说我一开始**按****的容量和记载来做,我以前到机房看过,包括几百K的UPS,很多效率都在20%以下,都想不到,不知道为什么会配几百K的UPS,这是一个过渡供电在里面。另一个是房间级制冷的低效,里面大约有20千瓦多是供给了空调,空调在机房中是很大的比例,我们要对房间级的制冷的低效的方式进行改变,我们不再说把空调放到我机房的旁边,通过远距离的上下通风的形式把冷量和风量送到,在送风的路径做到****,也****冷热空气的稳定**吻合,来集中我整体空调的效率,这里面我制冷房间的制冷**可以提供稳定性,兼顾我实际的稳定性和效率,我把这个放在机柜旁边以后,我这样来做,包括我的一些辅件,我可以做到30千瓦的扩展。如果你IT负载小于60千伏,对于我们一个整体的效率,包括我们机房**简单的**是说我机房不需要以前那么多,不需要一个60千瓦的机房来做,包括效率会比传统方式更高,也会降低很多运营费用。
    图上有一个我们房间级和行级制冷的空调,左边有一个图,在不同功率的情况下,每兆瓦每年可以节约的费用,对三千挖,这种水平,这种上下送风来完成,三千千瓦是明显的比房间级制冷更低,也满足了高密度需求的需求。另外一个在虚拟化之前我们以前都是设备,功率都很恒定,房间级的制冷**可以应付,虚拟化以后,每个时期出现的高峰**不一样,这是看到的是****部分的机柜的热点,一共是用的4台空调,我们之间有一个协作这个热点解决掉,不会像以前的方式,晚上也是通过****排机柜来做一个热解决这个热点,解决机房中非预见性的热点的出现,在夜间没有热点,**按正常的方式来运作。这个是我们刚刚看到的虚拟化,并不是说我们用户采用虚拟化**可以达到高效的数据中心,我们更看重在采用虚拟化以后,我们机房的基础设施能贴合我们IT设备的需求,提供相应的配套的供电和制冷,来完成整个的效率,这才是整体提升机房效率的一个很重要的地方。这也是一个案例,这是从一个数据中心,从120千瓦的机房,通过这种方式,整体有65%的节约,这其实也是对用户后期机房长期运行是一个很明显的改善。这也是刚刚提到的,我们**开始,比如说采用普通方式制冷以后,一开始会涉及到很大,采用虚拟化设备以后,红色表示IT负载,IT负载以后,**可以把供电和制冷也需要降低,随着我IT负载的增加,我增长的配电和制冷物理基础设施的容量的增加,这是我们要求对机房和设备进行标准模块化的设计,进行后期的简单的拓展功能,这也是虚拟化带来的特点,包括合并整合,降低能源消耗,高高的功率密度,同时也带来包括管理啊,不可预见的制冷,会带来很多问题,所以我们现在**终采用这种InfrastruXure解决方案,包括时时的机架的管理,包括可以拓展的供电和制冷,我们这里其实是可以拓展的,而不是一开始**按****容量来做这个机房,来解决我们到**后虚拟化的这样一个问题。这是我们InfrastruXure面临以后的一个方式。
    刚刚谈了很多InfrastruXure,大家都比较疑惑,InfrastruXure是什么样的东西?如何实现,我们刚刚体现了一个模块化,包括后期简单拓展,如何贴合这种机房的发展来运用,这都是有一些迷惑,首先InfrastruXure是一个架构,作为我们在初期,比如说设计,建设机房,都是基于这样一个了理念来完成,有机合作,****解决高密度的问题和挑战。首先我们构建一个数据机房的时候,我们考虑的****个点**是机柜,因为机柜实际上才**贴近我们IT的地方,首先我们机柜要满足IT的需求,首先APC也有自己的一个机柜系统,这也不是说把机柜作为一个放服务器的一个柜子,我们在提供机柜的时候,****个我们会满足机柜中的配电,这里我们有配电条,有三种,包括**基本的**提供配电,还有一种可测的配条,我可以看到配电条上我现在的电流的大小是多少。我不需要说插一个服务器,还要带一个表去测,我只需要去看,直接看液晶**可以显示我现在是多少,配电条同时也是支持网络的一个监控,我可以通过网络部分**可以通过机房中每一个的配电怎么样,这是我们的****种的配电条,还有一种配电条是可控制的配电条,因为可以通过网络对配电条进行一个控制,举一个很简单的例子,当我服务器死机了以后,因为服务器对应它的,我们可以通过网络把服务器这一个电,只断这一个借口的电,然后配但条给他供电,当服务器死机的情况下**可以让用户不用到现场然后**可以解决。刚刚****个谈到配电的部分,****个机柜自身有IT设备散热的需求,我们在设计机柜的时候,包括我们采用前后门打孔的设计,包括通风率,我们跟IT厂商都有沟通,因为服务器是靠本身来抽风,包括我们打孔,做30%的通风率都是满足市场的需求,刚刚谈了配电和制冷,还有很重要的是线缆管理。我们对线缆,比如说垂直理线条,水平的理线条,都有相应的设备,同时我机柜的门禁,温湿度检测,都可以做到一个机柜中有的,同时我们跟其他厂商不一样的是我们作为一个第三方的厂商。不会存在说我买IBM的机柜是不是买戴尔的**有问题?不会,APC在北美做到第三,在中国也算比较高端的品牌。这是我刚刚谈到的内部显示的配电条,在配电条上有刚刚谈到的液晶显示,包括网络的接口,可以进行远程的监控,另一个我们IC309的工业房间连接器,这个到时候理解很方便,可能以后地上有一个插孔,**插上去,不会说一不小心弄掉了,**整个机房断电,这也是一个改善。
    第四个是集中监控的软件,这个主要是有一个(英文),之前是专业做美国军方的监控,这里面有两个方面的内容,****个是要一个机房温湿度包括房间的露点的检测,****对机房所有的设备,包括UPS、空调,刚刚谈到的配电条可以有。全方位的监控,这是一个管理。另外是我们刚刚谈到配电条,空调,都可以在一个系统下进行管理,我们现在在中国是发布了一个系统叫容量管理器,一个叫变更管理器,在这个容量管理器中,可以看到,左边的图可以看到在机房中机柜的摆放,同时可以看得到,每一个机柜,你可以了解到服务器摆放的位置,通过我们刚刚检测的配电条,包括我的空调有风电的检测,我可以看我这里面是否有足够的风电,是否有足够的制冷,同时我也可以通过机房的布局可以看到在机房中哪一些机柜现在摆放的服务器很多,已经没有空间做扩容,还有哪些空间很空,需要使用,我们不需要到现场去看、去摸,直接**在软件让**可以做到这个功能,同时除了我们的设备以外,包括现在很多服务器支持IP、IT的协议,比如说现在CPU的效率是多少,服务器的的IT也可以做得到。同时我们有一个变更管理器,比如说我可以通过这样一个系统,可以给你讲,你把这个服务器取出来,通过哪些步骤放到哪一个地方去,可以通过一个太空单,**可以实现全部的管理,这也跟刚刚谈到的,**初建设的时候,比如有用户到机房参加,也可以不到机房**可以办到,通过这一个软件**可以看到所有的机柜的情况,机柜当中服务器的情况,包括UPS的空调,同时加上我们的数字监控系统,**可以用软件和视频的方式**结合起来,对我们以后机房管理是很有作用的。
    第六个是行级制冷,**是把空调,把一个空调放到我的机柜中去,我是把空调放到机柜中,这个跟以前传统方式很明显的对比,比如我一排机柜中可以看到送风的长度和回风的长度是相当长的,很快很容易得到,在IT出来的热空气很快**回去,从具体上来说**很节约,我是采用水平送风,我一共有8个调速的风机,可以更换,我不是下送风,下送风以后你下面要得到冷空气很容易,如果你下面装了2000瓦,有可能送给它的都得到了,这也造成很多机房中可以看到,下部分设备装了很多,一部分是因为制冷,另一部分可能**是安装很沉重的情况下,**造成机柜整体的浪费,所以这也是一个效率很低的情况,另一个现在机柜的摆放也是采用面对面和背对背,和我们传统的方式不一样。同时我们包括有热空气,机柜的遏制系统,整行热空气的系统,这在北京有一些地方应用,因为有很多高密度设备。
    另一个部分是UPS,UPS是APC从95年左右**开始完成这样一个模块化,UPS的设计,到现在UPSAPC的设计已经包括很多,包括几K的,包括250K,500K,**多的可以做到1.6兆瓦,采用这个模块化以后,我容量可以做到160千瓦,分成10个模块,我分四、五个模块**可以完成,随着负载的增加我**增加模块,我是UPS随着我的负载增加而增加,没有浪费,其他的包括我的配电,跟传统的方式,包括可以很快的增加和减少,也是一个热插板的设计,不会对施工人员造成一些影响,刚刚我们看的七个方面**组合成了现在这样一个InfrastruXure的系统,作为机房中整体的方案,这个包括也是我们一个UPS空调,机柜,可以把它整体摆放在一起,这样也比较统一美观。另一个可以包括一些针对用户的,包括我们小型的SC,单台空调做到6000瓦,如果我们客户只有一个机柜或者少量机柜,**可以用组合式捆绑,包括其他的辅件,通过刚刚的介绍,InfrastruXure这样的系统,因为是一种全模块化的设计理念,所以我们在**开始构建小型或者中型以及大型的数据机房,都是****可以适用的,而且可以兼顾我发展机房实际运行的效率,****个是可以营造大型低密度的使用寿命,通过动态针对性的来****移动的热点,包括实施全部的机架实施管理,所以说我们也提出一个,无论何时,无论河堤都可以选择相应的辅件来完整体InfrastruXure系统的构建,满足后期机房的建设,我先介绍这些。
    宋家雨:刚刚刘扬讲了,InfrastruXure是一个什么东西,首先从机柜,加上电源,加上制冷等等的一套方案,但实际上刚刚我们也谈到了,在此之前要考虑一个网络的问题,我是两层结构、三层结构,我要不要取消汇聚层?刚刚下面有问这个问题,这些问题都跟布线有关系,现在我们有请美国ADC****工程师康小兵先生给我们介绍一下重视配线建设,打造电信级IDC机房。
   
    康小兵:大家好,很高兴给大家介绍重视配线建设,打造电信级的这个解决方案。今天我主要给大家讲的有这些内容,主要是八个方面的内容,****个是配线系统的重要性,****个是应用的标准,第三个是布局和结构,第四个是线缆管理,怎么来解决,前面讲到的这些散热也好,空调的制冷也好,对线缆管理来说有很重要的管理,5、6、7,是具体的解决方案,一个是以太网的,还有一个是布线的解决方案,第八个我们有一些案例,给大家介绍一下。
    下面看一下,这是一个图,数据中心跟城市的道路规划有什么联系吗?可能有一点,但是大家可以想一个数据中心和一个城市的道路规划是一样的,如果我把路线规划好,而且这些线路在数据中心的建设,因为是相对****的,而我们的其他的一些服务,比如说它的有源设备,无源设备这一块,有源设备更新的周期要比无源的更快,同时在这个大家可以看到,在立交这一块,从这个立交来看,从城市的规划来看,这个道路和其他的道路来比较,有很多拥挤,有的很畅通,这是拟规画的问题,如果规划好了,这些是不存在的你整个数据中今后的调配和维护**很方便、顺畅。配线系统首先是什么?配线系统是指在数据中心中起连接设备和配线的线缆,它是一个机房****性的基础之一,一旦建成是很难改变的,所以要高度重视配件系统的建设;****个配件系统涉及机房很多方面,一个是平面布局,我怎么布局,****个是网络的结构,包括配线设备的选型以及配线系统的选型等等,你在配线系统做数据中心的时候。合理的配线结构布局可以节省机房的空间,而且减少你设备的冗余,便于电路的调配,测试和维护,****的线缆管理还可以解散空气流通,这个是配线系统的重要性。IDC的数据中心有几个原则,一个是节省空间,****有****性,还有有效的线缆管理,还有一定的超前性,在数据中心有一些相应的标准,在我们国家没有专门针对数据中心的相关的标准,只是借用一些标准,在IDC机房数据中心起步较早,在国外有很多的标准。几个标准,他们是一些什么内容?主要是数据中心ITA942,是通讯设施基础标准,BICSI,中文翻译是国际楼宇工业咨询委员会起草的,是一个数据中心的设计和安装的标准。下面这个是正常运行时间协会,数据中心应该有它的****的等级,**是你要有冗余,是什么样的冗余,这个我们这里不具体的展开给大家说了。下面我们看机房的布局,机房的布局TI942,把机房分成这五个功能区域,一个是传输机房,**叫入口的配线,****个是主配线区,水平配线区,特定配线区以及设备的配线区。从这个图上更容易看清楚一点(PPT),这是它的入口,接入室,中间是水平接入区,在特定的其余做特定的区,水平配线区大家注意,这一片是设备区域,我们的水平配线区域要放在机房的中间,设计的时候要放在中间,有什么好处?它可以分流,我从这边到设备,从左向到设备,从右向到设备是一个分流的,我放在一个定头,你**发现从这边过来,整个机房不要覆盖整个的连接,你会发现,我发现800的走线架,在刚刚出口的地方还不够,但是到了末端又很空,这**说明整个机房在配线的时候你要注意的,你的设计功能化你怎么划分,还有在这一面,还有一个问题,一个集中配线,还有分布,还有集中式配线和分布式配线的比较,这是服务器机构一列,这是集中配线,集中配线我们把所有的用户服务器上的线,以太网线拉到一个集中的区域,通过集中的核心交换区,一些核心的路由器和传输设备来进行交换、连通。分布式布线**是什么呢?把这一列我用一个列头,这是我们常用的一种方式,我们用一个列头柜,把所有的线,以太网线,在这个地方进行一次交换,在这里有一个二层的交换机,通过关了拉到核心交换机下面,集中式配线和分布式配线的差异,因为集中配线不适用单独的列头柜,可以节约7—9%的机房的机架位,比如说一个机房有一千个机柜的机房你可以节约90个机柜位,这对你机房的空间节约是很大的,你的投资成本可以节约很多,****个集中交换还可以减少冗余设备的数量,这个大家可以看到,如果我要做冗余的话,我在二层交换的时候,这里我要做冗余,每一列我都要做冗余,那么你冗余的数量**会增加,同时你的端口,如果你是分散式布线的话,你的端口也会浪费很大,冗余还有一个好处,前面的冗余,我在这个地方冗余可以做N+1的冗余,N+1我可以做一个机构,我所有的**做N+1,二层我**做N+N,还有做一些集中测试和维护点,我**在集中区域,这样我的测试点,我人员行进的路线也要节约很多,人工成本也会节约很多,分散式布线的好处**是可以节约网线的用量,因为后面两层以后,****层光缆连过去了,这是它好的,二级交换机,会增加一些端口的浪费,端口数量浪费会增加,这是集中配线和分散配线的布局。
    下面我们看线缆管理,什么是线缆管理?它又是如何优化线网的优化和布线的管理的,我们先到现场看一先,这是没有线缆管理的,走线架,光缆、电缆都放在一堆,还有这样的非线从上层到下层没有任何路由指引,这是造成什么?我整个走线架无不够。还有机构内的非线,地板下的,还有一个线缆管管理在机柜下面形成一个分连,会增加我们线热的能量,好的****的线缆管理是什么样子?这样的线缆管理整个机柜非常的清晰,是大的一排,这是****的线缆管理,整个机房**非常的整洁,路由非常清晰,对你今后的维护和管理都非常的方便。所以线缆管理有几个原则,从这个原则上来看,尽量采用交叉连接的方式;****个统一的机架,不要一下是2.2,2.6的,还有1.8的,等等机构来做,对你机房规划来说的确很困难,还有要有充足的理线空间,第三个三线分理的原则,电源线、电缆线和光纤掉跳线,交叉和连接和直接连接**不给大家详细的介绍了。
    线缆管理是始于机架的,****的产品,是取决于它的产品,高****性连接,取决于核心的期间的品质;****个我的机架必须是高密度的,不是说我密度做高了,不可控,不可管理;第三个是交叉链接,这个是调度很方便。第四个要有有效的保护,我的数据中心里面的光纤的尾纤很脆弱,你对尾纤有一个保护。第五个一个配线架要有一个余缆存储,这是很重要的,很多我们线缆里面很多主要出在余缆的管理,从一端跳到另一端,是1.5公里,但我现在是3米的跳线,我怎么办?多出的5米的余缆**要有一个处理,前面你看到的很乱,多余的**是悬在那儿,或者是阻塞了你的走线架。
    这**提出到它的机架,机架必须再一个机架里面,必须要有一个纵向的路由设计,我们现在很多路由没有纵向的设计,只是设计一个流向的路由来用,同时顶端和水平要有水平的线缆管理的装置,**是水平过线槽,这样的架子你在进行架内线缆管理的时候是有效的,否则你形成一个封连,在整个机房来说,你的规划**是上走线,三线分离,**下层是尾纤的,上面走数字电缆,**上层走电源线,根据高度有一个区分,形成一个立交。
    下面我们看到前面说了,我们在线缆管理要注意的,我们很注重一些设备的价值,我们看ADC提供的以太网的配线架,我们称之为EDF,它有两侧纵向的路由,同时两侧都有存纤门,上下都有水平的构纤槽,我们普遍的机柜只有500多个端口,我们可以做到912个端口的利用率,它有完整的水平和垂直前后的线缆的管理的系统,同时也有弯曲半径的一些保护,一个嵌入式的管理,我可以存储多余的跳线的存储,还有一些我们成角式的跳线盘,与以太网配合使用是很理想的,两个方向均匀的送线。这是我们EDF在实际应用的效果。可以看到,当我们全面讲到,当你有纵向和横向的路由以后,当你几个架子并架以后你**看出效果了,如果我上下游横向的,架和架之间的路**是路由**可以从这儿,通过上面的水平和下面的过线槽走到下面,我**不用占用上面的走线架,不需要占用,如果我的机架有这样的设计,我的整个线的路由,跳线的路由**可以通过他并架,上面是类和列之间,或者是另外的区域,到这个配线区域,设备区域他们的之间的路由提供的,你在机房设计的时候,我整个配线架上没有这种横向的,往往会发现我全部走到走线架,你会发现ODF上面**乱的很,所有的跳线,全部走到走线架上,再下到机柜,每一个都要上去,这可以看到,在我们走设备、机架的时候,EDF你在做这一块的时候你要注意一点,我们整个设备有上下的路由,要有路由的空间。
    下面我们给大家介绍一下我们ADC的一个光纤配线架,它的特点是高密度的一个机架,可以说是现在当全世界****密度的光纤配线架,大容量的列架,可操作性,线路制订线缆的路由,整个架子的尺寸,我们介绍一下它的宽度760,深度610,是左右对称的,是左边和右边对称的,我们可以在机房进行急弯,我可以在ODF上很容易区分,我们现在传统的ODF是很难区分的,我们现在是分左右两列,是一个模块化的增长,我们左边是6个模块,右边还是6个模块,这是一架,模块有大小芯数不一样,如果我们是216芯的话可以做到2592芯的容量,我们现在国内**是500、600芯,这个要可管理,不可管理是没有意义的,高密度谁都可以做出来,要看管理,我们NGF的管理体现在那里,****我们的高密度,一个终端宽有261芯在里面,我们一个是采用的滑拉式适配器,我任何一个适配器都可以去操作,我拉出来以后一列一列的拉出来操作,而且可以左右拉出来,终端框我们有三种,一个是预知成段的终端框,还有只含适配器的终端框,还有熔接配线一体化的终端框,尾缆我们拉好,拉到一个尾缆的终端框,你这个可以做到一个跳接,跳线连到后面。我们NGF很重要的一个特点,背面有6层水平构线槽,当我机架并架以后,我可以均分我那么多芯数的,从这个机架到大另外一个机架的跳线和路由,通过6层**可以分开,如果我全部分到上面去,你想一下你上面的空间,以后也会很拥塞的,整个路由非常的清晰。这个我们可以看一个视频,(PPT),这个待会儿我用我的电脑连上给大家看一下,因为没有连接上去,刚刚我们介绍了配线架,大家**会提出一个疑问,我们的熔接和我们传统的光线配件有很大的区别,我们这个是溶配分离的,我们传统都是熔配一体的,刚刚说的熔接和配线都是一起的,后面是熔接,前面是配线,熔配一体和熔配分离的差异,从这个可以看到,熔配分离是配线是全部集中在一起,熔接又集中在一个柜子里面,它可以维护责任的区分,因为我的熔接,我一般往往都是请外面的工程队来施工的,并不是我自己的维护人员来做的,而我配线这一块,我光纤线路的维护是我内部的人员来做的,熔配分离责任界限很清晰。
    ****个尾缆可以从前面,前面看到的终端框里面,现在再回过头看带尾缆的**容易理解了,我通过尾缆直接拉到熔接柜里面去,直接拉到熔接柜里面,在整个路由的保护,对尾纤的保护也是非常好的。第三个在熔接柜里我还可以处理不同的光缆,进缆,我现在进了很多很多缆有72芯,92芯,各种各样的,我用熔接柜熔接开来。这样我们**可以很好的处理各种的光缆,同时还有一个很重要的一点,由于熔配分离后在高密度的情况下可以节约机房的空间、面积,高密度的情况下熔配分离是****可以节约机房的空间。所以我们前面再看,我们的熔接柜,我们的熔接柜和我们NGF的相配合的,它的宽度是840,它的深度是300,和我们NGF可以做成背靠背的安装,现在大部分都采用上进缆的方式,它的容量,塑像的是1440新,一个熔接柜,如果是袋装缆可以熔2880芯,和我们NGF使用是非常匹配的,下面我们再看一下尾纤槽的办理高密度,我们的尾纤槽有很多的产品的组合,有高的出口,矮的出口。这里给大家提出一个问题,大家可以考虑一下,只能堆多高?堆叠高度,从我们的设计来看,可以看到,我们2英寸到24英寸走的都是宽度,高度我们只有两种,一种是两英寸高度,还有一种是四英寸高度,宽度可以从2英寸到24,这里可以看到尾纤的堆叠高度是不能超过10公分的,超过10公分,**下层的尾纤光的传输信号**会变大,不能满足你传输的需要,所以我们在整个的尾纤槽有各种各样的选择,还有我们尾纤槽的出口,有两大类,一个是固定出口一大类,还有活动出口。固定出口是给出纤量大的,光纤配线架这些来用的,活动出口是给相对小一点的出纤量的来用的,活动出口可以在任何一个位置来安装。我们的材料,****个高强度工程聚酯材料,****个是阻燃,第三个是抗老化,第四是抗压无形变,人一踩很快**复原了,我们这次****是针对尾纤来设计的,我们有八百多种配件,这是配件**齐的,可以满足机房不同的需求,这可以看到我们是在国内的各个机房做的一些安装的效果。遇到我们要爬山,可以根据它的情况做扩容,这是活动的出口,这是一个固定出口,根据你的实际需求,我们根据你现场的情况做设计,避开你和其他的走线架的冲突,我们相当于做立交一样的,建立新的尾纤的槽,我前面**和电源线和电缆线走在一起。****个对尾纤的保护,也是不好的,第三个很重要的一点,你拆不掉,这个你今后很难拆掉,我现在要换一个纤,你必须要剪掉,**后**占用你大量的走线架的空间。
    下面看一下我们布线,以IDC机房里面的布线,以太网的选择,布线的系统,我们ADC也有全套的选择方案,6类的解决方案,我们曾经做过一个机房在华南区,当时业主要求用超5类的系统,后来这个机房被腾讯整体租下来了,当时用超五类的,腾讯要求全部换成6类,因此在基础网络要有超前性,考虑的时候一定要考虑往前一点,你如果现在只考虑5—8年,10—15年怎么办?因为网络的线路布上去很难改的,你要变动是不容易的。ADC在布线系统的价值可以体现,我们有在全世界有三千多项专利,我们有很多的LSA—PLUS技术,革命性的25度银低插入力触点,是**牢固的一个连接,在日本神户大地震的时候,日本政府给我们发了感谢信的,当时大地震由于我们的连接牢固,它的通讯没有中断,为救援提供了很好的通信保障,还有我们有一些很多的专利技术来支撑我们的布线系统。这是我们在线缆制造里面的AirES的技术,利用空气引入到线缆内,把这个传输下来,把电器性能和机械性能都提高了,尺寸比其他的线缆**小了28—32%,这是今后占用我的空间,**把你的空间节约出来了,还有非屏蔽万兆以太网的传输,我们是****通过传输的。这是我们可开办的一个模块,一个卡线卡上去,很少见到一个可开办的模块,我们有8对,10对,20对,25对,满足超5类万兆的,它的可以达到我的线缆打在上面,下面打在下面,这个线自然**通了,中间我用插头插进去,这个线路**断开了,可以开断的,这个线路,说穿了这个线路有三个末一进一出,三个口,我们传统的是一进一出没了,有了这个**可以做一个很特别的,我在网络应用的时候,当我这个线路,我是连到这个的,这个模块和这个模块是连的,但是我现在临时要变动的话,我**把这个模块跳到上面来,这个信号**立马算到另一个去了,**这样的变化是非常的快,同时我可以做在线测试,在线测试你这个线,你应用的时候我测试你路由的情况。同时它的安装可以非常高密度的一个安装,可以靠墙,我可以在墙面来装,同时我有架子在架子上装,这种配线管理是有别于我们传统的跳线盘的配线管理,而且这个密度比那个密度高很多,整个你可以看到,我们所有的线都可以走到后面去,在正面你看不到,所有的线缆我都可以走到后面去,不用走到正面,从正面看起来也非常的清洁,我维护起来也非常方便。
    这在全球有很多的案例,香港机场**是用的这个特别HidHBand模式技术,还有我们澳门新做的赌场也是这种HigHBand模式,还有一种是120,还有一种是110。下面我们看一下这是广东的一个大型的IDC机房,亚洲引擎,用的是业务机架数量是2400架,光纤汇聚超过了5000芯的一个光纤的汇聚,用了我们的EDF,以太网配线架是实架,你有好的设备产品提供了,你线缆管理,你的好的线缆管理**能使你整个机房今后的维护和运行的成本大大降低,这是我们在北京的一个电信的运营商的中心机房,是用我们的光纤的配线架,NGF,前面介绍的,有上面的尾纤槽的,以及我们还有DDF,数字配线架,也用了一个以太网的配线架,从NGF大家可以看到,这样整个的容量,****个是高密度一列,实架你**满足了多少?一万多芯的配线。这是我们在澳大利亚的数据中心的,也是用我们NGF的光纤的配线架,这是澳大利亚另一个数据中心,这是北京一个运营商的ADC计划,用到我们尾纤槽的来解决他们的尾纤的路由,好,我的演讲**给大家介绍到这里,谢谢!
    宋家雨:我们手机短信上有我们很多的听众提问了。
    提问:7868的朋友,这位朋友他是U电咨询设计研究院的刘先生,近几年来先后参与多个数据中心的规划设计研究工作,他想问针对数据中心的概念,整合、虚拟化、绿色等等这些问题,有没有一个统一的标准?你们二位,针对这些问题,怎么样才能进行标准化的建设?有什么经验和建议给我们听众?
    刘洋:刚刚这个问题,****个**提到我们建设数据中心的标准的问题,对建设数据对用户肯定需求是不一样的,对不同的用户有不的侧重,我们刚刚谈到是建了很多大型的数据中心,可能**包括有一些运营商的,运营商的数据中心在现阶段数据运营商的数据中心采用传统的比较多,大型的数据供电,上线送风的空调,我们现在跟运营商接触,现在运营上有很多问题,在散热方面已经出现问题,以前可能只是一些低密度的服务器,现在高密度的越来越多,所以对空调,因为我们之前也有跟他们接触,在空调方面以后肯定也是比较重要的。****个是根据现在国家的节能降耗,包括运营增效的一个,对于营运商来讲,大型数据中心,整体每年的运营费用是相当高,包括电费这些都是比较高,现在都是考虑节能高效的机房,包括采用一些新的设备,另一个谈到数据机房的标准,APC在刚刚谈InfrastruXure的时候,我们不光有相应的产品,实际上**初我们在设计这样一个机房的时候无,有相应的规矩来完成这样一个建设,对整个InfrastruXure有一个理念的核心工具,整个系统里面设计的不见都是采用这种标准模块化的方式来构建的这样一个整体工程,不会像以前各个客户不同**建得花姿招展,各自来组合,采用这种标准化的模块化UPS,标准化空调,满足我设计的时候是一个标准,包括我到了后期也是拓展,**不会造成机房规范**比较差,我们根据行业用户积累的一些经验,根据具体的用户可能有不同的侧重,比如有一些对配电的问题有一些关心,有一些是对空调,有一些是对配件,这个需要有一些细致的交流。
    康小兵:标准化是这样的,在数据中心的建设里面首先****个**是整体规划,我前面刚刚讲了,TA942有这么一个标准,从你机房的规划你要做好规划,我怎么来分布它的设备区域,配线区域,还有我整个的管理,我是怎么来进行整个数据中心的管理,哪些是作为我的设备,如果我建的是一个ADC的计划,或者是运营商的计划,你针对的目标不一样的,规划的时候你要根据你自己的运行的方式和运作模式来考虑,借用这些标准,我首先要规划,规划好以后,我来提供我的线缆的,我们主要是像ADC主要提供你**基本的线缆的管理,我的路由,我整个的线路、路由怎么规划好,规划好以后,你整个机房的布局规划好以后,下面**设计到我的一些机柜的放置,我采用一些什么方式?不管我是安放服务器也好,安放其他的也好,机房和机柜的基本的承载,在机房和机柜的采购选型上又要考虑一点,**是它的可管理性,机柜的可管理性,比如这个机柜是装服务器还是装配线的。我要装服务器你要****考虑散热,如果你配线你**要考虑配线的管理,再一个是机房的制冷,我怎么考虑空调的散热,我觉得在机房的考虑是这样的,应该是分阶段,分步骤,根据你自己实际的运用,依据国际上的一些标准中的一些经验来进行。
    宋家雨:实际上每个用户的情况和需求不一样,我们很难的有一个统一的标准,我们建立一个什么样的标准满足所有用户的需求,其实这是一个很困难的事情,实际上对用户来讲,其实我觉得首先是要把规划设计好,首先你要把你目前的情况是什么样?你需要什么样的发展规划?把这个规划做好,**重要的是把规划做足,会更容易一些。
    提问:2105的手机尾号提了一个问题,刚刚两位所讲的有关系,他认为上走线,刚刚说通过上走线的方式是不是可以让网络结构简化,能不能把装网络这一层的汇聚去掉,他认为上走线和汇聚层也有关系,他认为上走线干扰大,也有一些损害,先问康总,您怎么看?
    康小兵:上走线是对他所说的几个,一个是干扰的问题,还有汇聚层,我觉得上走线和减少汇聚层没有太大的联系,干扰的问题由于上走线,我们是分层处理,他们之间是有间隔的,干扰是在一定的距离范围内才有干扰,**上层是电源线,我要有足够的空间,如果你机房,占的空间不够,比如我整个机房空间都不够,你走上走线,你如果分层的高度不够的话,肯定会存在问题,如果你上走线你分层以后,比你先下走线好,下走线只有30公分,我们下走线**是30公分的高度,我上走线怎么也有70、80公分一米,高的话有1米,怎么也有50—80公分的空间给你进行分层的走,至少我可以分开两部分,把电源线和电缆线可以分开的,尾纤槽我可以和电缆线平衡,因为尾纤要受电的干扰,你主要是电源线和电缆线的干扰,如果你距离足够应该是没有问题的,所以上走线是优于下走线的,现在所有的运营商都把下走线往上走线改。****个问题**是美观的问题,美观的问题是你规划管理的问题,你上走线做好了一样的美观。
    刘洋:谈到上走线,刚刚时间比较急,在介绍APC机柜的时候有一个没有介绍到,APC有一个上走线系统,这个跟其他的系统不太一样的地方,我们的上走线系统是直接做在机柜的顶部,我们不是做在机柜架有一个上走线,我们是上面有上走线通道和机柜线两个通道,我们这样的通道直接在机柜顶部,相对来说对整个机房层高的要求**降低一些,没有吊的空间,只是在机柜的顶部有20公分左右的高度,采用上走线的好处,特别是像我们现在很多用户用传统的下送风的空调的时候,你都采用下走线的方式,很容易阻挡下面空调送风的路径,影响整个空调的效率,可能你送出来的风**阻挡很多,另外采用上走线的时候增加**很方便了,不像下走线把地板掀开,慢慢的找电缆是很麻烦的。APC采用机柜式顶部走线的方式,不是说一开始**走线,因为我的通道是跟我机柜在一起的,只要我机柜一个一个顺着摆,我的通道**形成了,**初我在设计的时候对这方面考虑的很简单,不是说我要考虑我以后走到哪一个地方做线路布局,这是APC自己很****的一个技术。
    宋家雨:谢谢两位老总,关于美观的问题,我推荐一个办法,你**不要让他进机房,你说我们自动化管理,你在外面给他做一个很炫的演示,你说我们的人都不进机房,你进去干什么呢?这样可以解决美观度的问题,因为领导不懂嘛,他只看美观。
    提问:9889尾号的朋友提问,这边的问题还是关于干扰的问题,他问熔接柜与高空槽位里面会不会产生干扰?致使传输的比率降低?
    康小兵:这一块受干扰是很小的,电视干扰对光纤是没有的,****一点是熔接柜里面的有一个原因,**是接地线的问题,这个跟它是连通的,我接地以后汇流到地下去了,熔接柜跟这个没有太大关系,因为用的是光纤熔接的,而不是电缆这一块的,如果是电缆要考虑电磁干扰的问题,因为是尾纤不受电磁干扰。
    宋家雨:我们说的干扰是网线和光纤线的干扰,**是把三层分开,光纤线走一层,网络布线走一层。
   
    提问:2693提问,对中小企业来讲,你们二位有没有一些解决方案?中小企业你们有没有特殊的优惠和特殊的策略?
    康小兵:中小企业是企业网的一个数据中心,企业网的数据中心来说,我们来说是综合布线这一块为主了,以太网线,5类线和6类线为主要的构架。现在来看,在中小企业有很重要的一点,**是光缆量越来越大的时候,我在PPT讲有一个集中和分散布线在里面,今后中小企业在布线的时候,你会发现今后你的FD,我们网络布线里面有一个FD和BD,楼层配线和楼栋配线,你会发现我们的FD**弱化,我一栋楼,由于我光纤的线路比较长,现在可以做到500米,如果是万兆我可以做到300米,300米对大楼来说我可以直接拉到我的BD进行管理,所以集中化的管理和你原来分布式管理**有差异了,今后会发生这样的变化,还有如果中小企业聚到一个园区网络,比如一个校园网络,一个校园也属于中小企业,校园网你会遇到另一个问题,**是楼栋的配线**没有了,**像我们在西安做的一个案例一样的,我们**把一个校园网做的一个案例,它有20栋楼,有一个信息化大楼,我们把20栋楼每一个楼的FD直接拉单模光缆直接拉到信息大楼,把所有的信息化智能的管理,我管这个楼层的,所有的一卡通啊,什么有线电视啊,还有其他的制冷管理都用单模光缆送到这个地方来,然后我楼层配线分开进行管理,我人员的维护是什么?在信息化管理大楼了,不像原来一样,我这个楼有问题了,我要跑到信息化大楼去,这个之间的时间可能要花一个小时、半个小时,我现在全部在信息化大楼**整个调配,**可以调配到FD了,BD**弱化掉了,所以今后在中小企业数据化中心你也存在一个集中化管理的一个问题,我给大家介绍的这两个。
    刘洋:针对中小企业现在很多IT厂商都是看重这一块的,APC,我们跟IBM跟其他IT厂商有合作,针对这种中小型的机房,刚刚在PPT介绍的时候,**后几页,有比较简单的,SP的帮助,做到10千瓦和20千瓦的散热,空调和辅机柜,这些都是可以满足中小型的应用,这部分也是采用模块化,包括机房模块都可以随着你的增加,我们中小企业要发展的,我前期投资的设备我以后机房也是可以来应用,也是****用户的投资,这对我们解决一些方案,如果有机会根据用户的需求,我们进行一些细化的讨论。
    提问:2738的提问,目前数据中心上面的设备,服务器也好,容易坏,有什么办法?实际上刚刚讲到了关于空调制冷的问题,刚刚刘洋讲的行级制冷可以解决这个问题,关于行级制冷也有8491朋友问,刚刚提到行级制冷了,解决上部的问题,行级制冷,叫APC的行级制冷  室外机的问题,这个行级制冷肯定有室外机了,这个室外机是如何设置的?是不是为了扩大方便?
    刘扬:****个问题是针对刚刚提到的,在服务器机柜中,上部分的设备容易坏,其实在一个机柜中,一个**是供电,上下供电差距不大,**是对风的流向控制相对比较难,如果上部分的设备比较容易坏,可能跟温度,因为温度对IT设备的运行影响是比较大的,不知道你们现在的机房是采用下送风还是空调直接送风的关系,因为跟热有很大的关系,因为电上下都是一样的,你下送风上部分**比较热。行级制冷在APC这边有几个系列不同的产品,**简单其实从方式来讲,一种是水冷的,冷冻水,一种是风冷的,传统式的,外面有风机,是相应配套的,类似有这种扩容的方式来讲,****个是水冷方式,我们在室外都是采用的冷冻水机组,这种冷冻水机组在外面可以做备份,我可以相应的留一些管道的接口,我预留一些室外机的接口**可以把容量扩大,对风冷相对比较简单,我可以增加一个相应的室外机**可以了。采用水冷还有一个好处,跟以前用户,水冷****个是效率比传统风冷高一些,****个用户比较担心,水进机房到底有什么问题,在水进机房这一块,APC在机房送水的这一块,****块送水的管道,不会说中间一段我再接一段,这肯定是不会出现的,而且水管是三层的结构,外面是配合聚乙烯的材料,中间是一层滤管,里面又是一层聚乙烯的材料,不是我们传统的筒管、水管来做,相对的有一定的柔性,哪怕再有地震,设备有摇晃的情况下管道的柔性都可以支撑,采用水冷还有一个我们机房的时候,很多时候配UPS我们讲到一个供电的设备,实际上很多的用户觉得我配两个小时不够,我要配四个小时、八个小时,但用户没有考虑到停电以后,我空调是没有办法工作的,**算你有电,你服务器继续工作,可能**半个小时一个小时你机房**过度,你服务器还是会当掉的,比如采用水冷,实际一台单机的功率**200多千瓦,我想应的根据我后备的时间,可以在外面有一个蓄水,一个水塔或者是蓄水,在停电后我的室外机组工作,包括我的水泵可以让它继续工作,除了有供电的后备,还有一个制冷的后备,这也是很多机房没有考虑到的地方,这也是水冷的一个好处。
    宋家雨:水冷是一个很好的方案,认为也是散热里面一个****的解决方案,实际上还要根据你们用户自己的需求,看看你们在投资和需求间找到一个平衡,有一些东西可能风冷**可以解决问题,但有一些根据你的业务需求也可以考虑解决方案。
    提问:9104的朋友是希望了解ADC的可断开模块。
   
    康小兵:可断开模块,刚刚是这样的,刚刚图片上也看到了,大家可能见到我们的语音模块,语音模块在国内用得很多,**早是在语音上做的,中间是查避雷纸(音),我们把这个用到数据运用上,它的结构是上面一排有打线的槽,下面也有一排打线的槽,中间有两个簧片,有引力,联结在一起,当你卡进上面的槽以后,下面一个线卡到下面,下面有一个槽,对应以后有一个簧片自动**连通了,可开断的意思是我中间的簧片可以通过一个插头插进去断开,这样**把上面的进线和下面的出线**断开了,简单来说**像我一个2级45的模块,我把4对线卡上去,前面连通**可以了,我可开的模块也是,后面是4对的,正面也是4对,卡借的,**卡上去。中间有一个可断开的,比如我们原来打电话,你欠费了电信局一查**断掉了,断开有很多的办法,我软件上断开也可以,你操作软件和你操作有源设备和无源设备是不一样的,你一当影响是很大的,你软件系统管理是几万户,你有源设备可能一管也是几千门电话,你这个机械的话你无源的怎么换?也**这一对。还有我在这个位置可以两侧测试,我在这个地方断开以后,这个路由有问题了,我在这个可以测试,到底这个测试,从这个地方到底是系统的问题还是用户的问题?它的测试是非常方便的,在这个地方我**划分出来,我在那边是系统有问题还是用户有问题,还有一个更好的是什么?它有了这个接口以后可以灵活的调度,调度我的人员,比如我是一个大楼内的,现在要集中一个大楼内,我们各个科室都有网段的,我们到一个科室开会,我**把所有网段的端口**跳到我们这儿的端口,你有用你原来的端口是一样的,当你离开会议室的,你给管理的人一说你**自动恢复了,你**恢复整个连接了,这是可开断模块,**是这样的,还有一个好处是可以高密度的安装,**是我刚刚看的图片,一面墙,占用很小的地方,不知道看过语音配件没有,我们也可以采用这种安装方式,中间一个架子,背对背的安装,这是可开断模块很重要的特色。如果有兴趣,可以到我们成都的办事处看一看。
    宋家雨:因为时间的关系,我们有什么问题私下跟两位专家交流吧,下面一个环节**是把今天的大奖抽出来,祝大家好运!

 

 

 

(原成都速记  炫指速记)

  打印本页 || 关闭窗口
 

公司名称:成都市炫指速记服务有限公司(原成都速记) 公司地址:成都锦江区净居寺南街203号
移动电话:13402813721 董女士 13980893668 宋女士
网址:www.sujicd.com 电子邮件:10689464@qq.com  备案号:蜀ICP备11003142号-1