您现在的位置:首页 > 资讯中心 » 专题文章 » 正文

H3C搭建超5星级“中国西部信息中心”

来源:通信产业网 作者:佚名 2012-08-06 10:00:03
http://down0.51hvac.com/down/uploads/allimg/110721/1-110H1091G40-L.gif
专题
现代科技的发展对IT、电信企业的要求逐步提高,为了满足市场要求和行业竞争,企业必须不断投入人力物力进行硬件加强,随之,研发..

    在成都高新南区,有一组气势如虹的深灰色大楼,这就是中国电信筹建的重点通信工程――中国西部信息中心。该中心由中国电信集团公司投资建设,是其在西部最大的灾备中心、世界级云计算实验基地以及移动互联网基地。


  中国西部信息中心一期规划占地6万平方米,项目投资近10亿元,数据中心机房建筑面积为3万平方米,机架数量超过3500个,出口带宽200GG。作为一个集电信优质资源、国际领先的软硬件基础设施、统一的安全管理平台、协同的运维保障平台、先进的云计算服务平台和顶尖信息化服务为一身的综合信息服务基地,中国西部信息中心可提供基础资源租赁、带宽租赁、云计算、灾备、信息安全等多种服务,已先后为互联网企业、跨国公司、金融、政府机构等30余家高等级客户提供安全优质的全方位信息化外包服务。


  2年出口带宽超1TB:网络面临挑战


  对中国西部信息中心IDC业务来说,稳定畅通的网络连接,是衡量其服务质量的一个重要标杆,也是客户的基本要求。目前,中国西部信息中心IDC机房可容纳超过3500个标准机架;整个中心存储能力不少于1000PB,中国西部信息中心的数据交换总容量,相当于5万个美国国会图书馆的数据。如何确保中国西部信息中心总出口带宽网络连接的稳定性和快速响应,是中国西部信息中心网络系统面临的巨大挑战。


  作为中国电信CHINANET骨干网九大节点之一,中国西部信息中心具有极为优越的网络资源,通过多条链路直连到中国电信CHINANET、CN2等骨干网络,构建了数百兆的出口带宽。但规模大、设备多、业务复杂,给中国西部信息中心的网络系统带来的考验压力也更大。


  整个中国西部信息中心建设规模极为庞大,一期合计可容纳3500多个标准机架,存储能力不少于1000PB。2012年的出口带宽将超过500G,预计到2014年将会达到1TB的带宽量。而且在实际操作中,出口能力会随实际流量和客户需求有计划地进行带宽扩容,若机房出口带宽使用率达50%,就会立即启动带宽扩容工作。同时,在业务提供能力方面,中国西部信息中心既为游戏、视频、门户网站、电子商务、电子政务等客户提供托管服务,也为银行、保险、证券等客户提供金融灾备服务。


  虽然客户需求侧重不一,但对基础网络平台的稳定性、安全性和可用性要求都非常高。尤其是视频、门户网站、游戏等互联网行业客户,对带宽、丢包率、延迟等与网络品质相关特性非常看重,要求基础网络平台不能出现任何情况的损断;而金融、政府类用户则对网络安全性要求更为苛刻。


  作为中国电信集团新一代五星级数据中心的典型代表,中国西部信息中心面临的是一个高密度、大容量的网络应用场景,对网络的带宽、端口密度、安全防护和管理等方面都提出了严峻的考验。

 
   如今基于云计算应用的数据中心流量不再只有的简单汇聚型流量,相对固定的交互流量,而是呈现出高密度的不定向突发性和并发性,而传统的城域网交换机性能难以满足需求;如果数据中心设备高密度摆放,传统城域网交换机横插板的左右风道设计也不能满高效散热的需求等。


  革新IDC网络平台建设


  新的应用趋势要求新一代数据中心网络方案必须具备高万兆宽口密度、40Gbps/100Gbps接口、虚拟化能力、突发流量吸收、IPv4/IPv6支持、绿色节能等特征。


  在数据中心网络部署上,中国西部信息中心采用扁平化的整体网络架构,不仅降低带宽收敛比,还提高整体网络带宽,同时也满足网络带宽快速增长的需要。


  在新的需求驱动下,对数据中心网络灵活的应用扩展能力和一致的业务连续性的要求,促使层次化的网络结构将向着集约化架构发展,将层次化的网络扁平化,复杂的网络模型简捷化,摆脱物理连接的束缚和空间因素的限制。目前中国西部信息中心采用的是两层交换架构,通过提供更高密度的交换机把网络架构从原来的核心、汇聚、接入的交换三层架构简化并扁平化变成两层架构,网络的距离相对更小,提供带宽的能力更高。


  从服务器数量上看,数据中心呈现出一个明显的发展规律:万台服务器规模的数据中心将是发展方向。同时,随着单台服务器集成的计算核心数量的增长,其消耗的带宽也在同步增长,而10GE网卡所采用的硬件加速技术也使得服务器的吞吐能力接近线速。


  从端口密度来看,一个10000台服务器的数据中心,如果按照1:4的收敛比,至少需要250个万兆汇聚端口。考虑核心设备与其他设备互联的端口,至少需要约300个万兆端口,且绝大多数都需要线速端口。


  现在相当大的数据中心出口带宽已经达到了100Gpbs以上,每年还以50%以上的速度在增长。如果采用传统的10Gbps接口,则需要用16-40个端口捆绑才能满足未来一到两年的需求。采用多端口捆绑不仅消耗了大量的光纤资源,也加大了管理维护的工作量。伴随着40Gbps/100Gbps标准的最终定稿,一场40Gbps/100Gbps接口的普及风暴很快就会到来。


  云计算不仅需要服务器和存储实现虚拟化,网络设备同样需要与时俱进。虚拟化的网络不仅可以实现网络资源的动态调配、在线扩展,也简化了网络配置与管理,大大提高数据中心网络的可靠性和可用性。由于不同时间服务器上分布的应用都是动态调配的,服务器之间交换频率也较现在独立应用高许多,所以云计算环境下流量特征更为复杂、更难预测。


  革新助力成长


  随着数据流量的爆炸式增长和云时代的来临,IP网络正面临新的挑战,需要在数据中心、IP骨干网、IP城域网等领域不断创新,以支撑大规模云服务的开展。中国西部信息中心数据交换系统后期随着信息量的不断增长,如何解决数据交换系统可扩展性及与其他设备厂商产品兼容性问题成为一道难题。

  中国西部信息中心在筹建初期,对基础网络平台的建设非常重视,并最终选择了H3C提供的高性能、高可靠、易扩展、绿色节能的数据中心网络方案来搭建中国西部信息中心基础网络平台。


  当前,整个中国西部信息中心对外数据吞吐量达到上百Gbps,具备扩至1Tbps以上的能力。如此巨大的数据吞吐量,使得中国西部信息中心网络设备必须具备高密度的10GE、40GE甚至100GE端口,并且所有端口能够实现无阻塞的线速转发;同时具备超大的分布式数据缓存能力,严格保证在突发流量频繁时不丢包。


  因此,中国西部信息中心采用了拥有576个10GE端口的数据中心级交换机S12518作为网络的核心设备,借助其大吞吐量的技术优势,来应对数据交换压力。同时,采用具备高密度接入能力的S7610来担任网络接入设备,从而实现网络的扁平化,将传统的三层网络架构简化为两层,进一步保证网络的带宽能力。

  西部信息中心在网络整体设计和设备配置上还均按照冗余要求进行了设计,以保证其核心业务的不中断运行。核心设备采用主控板和交换网板物理分离设计,在网络连接上消除单点故障,提供关键设备的冗余切换。关键网络设备之间的物理链路采用双路冗余连接,按照负载均衡方式工作,关键主机可采用双路网卡来增加可靠性。


  更重要的是,中国西部信息中心的网络设备都采用了H3C的IRF2(第二代智能弹性架构)虚拟化技术。传统的网络冗余机制都是利用VRRP结合STP来实现的,VRRP存在一主一备,STP存在阻塞端口的问题,两条链路不能同时使用,带宽利用率不高。而采用核心层、接入层设备IRF2虚拟化后,通过跨设备的链路聚合技术轻松实现了链路的负载均衡,两条链路双活,大大提高了带宽利用率,保护倒换时间也从原来的2~4秒缩短到50ms以内,达到电信级的可靠性要求,让西部信息中心网络的稳定性和可靠性得到了充分保障。


  经过此番扩容,中国西部信息中心在软硬件上得到极大提升,除了传统的IDC业务外,还分别为中国电信集团公司、中国电信四川公司提供业务云、支撑云资源池的云计算服务。将来,中国西部信息中心将加速以云计算、物联网、移动互联网、三网融合为代表的前沿信息技术的研发和应用,通过构建国家级信息产业多维汇聚平台,形成立足西部、辐射全国、面向全球的移动互联网时代的综合信息服务基地、前沿技术实验基地和对外合作发展基地。(广文)

免责声明:
1.本网站部分文章内容、图片或视频来源于网络、作者投稿等,版权归原作者所有,仅供学习参考之用,不具有任何商业用途,如涉版权、侵权等问题,请及时联系我方进行处理(联系电话:022-84220470,电子邮件:help@51hvac.com);
2.本网站对转载、分享内容、特约发布、陈述、观点判断保持中立,不对所包含内容的准确性、可靠性或完善性提供任何明示或暗示保证,仅供读者参考,并请自行核实相关内容;
3.只要不用于商业目的,本网站的文章欢迎任何形式的传播和转载,转载请取得授权、注明出处、保持作品完整;
4.本网站有权根据中华人民共和国法律、法规及规范性文件、互联网变化及自身业务的发展情况,不断修改和完善本声明。
微信扫描左侧二维码,文章分享到朋友圈
暖通空调在线公众微信:ehvacr
每日行业微信日报,订阅有礼了!
责编:cuilei
新闻投稿:news@51hvac.com
高端访谈更多>>
  • 许鹏教授:抗击COVID-19ASHRAE与REHVA对策之对比及借鉴
  • 张泉:数据中心节能方向及相关技术研究的进展
官方微信