HCC2015在来自超过80多个国家,上万人的热情参与下落下帷幕,大会延续了往届“精简IT,敏捷商道”的主题下,诠释“云转型、新标杆”的新理念,传递出华为秉承开放合作理念,与合作伙伴共同在云生态建设上,成就企业向云端转型的能力和决心。
在本届大会上,华为和QLogic联合发布了基于25Gb以太网技术的横向扩展文件存储OceanStor 9000,成为华为推进全IP架构分布式存储战略的重要一环。
从10Gb提升到25Gb,是客户体验的巨大提升
随着云计算和大数据快速发展,企业IT建设向云化转型是大势所趋,这对业务网络带宽和存储性能提出了更高的要求。受限于IP网络发展缓慢的限制,在存储后端高速网络阵营里一直缺少IP的身影,几乎是InfiniBand和FC的天下。很多时候我们可以通过4通道的10Gb以太网来实现40Gb的性能,可是会带来在运维上更多的麻烦,比如更多的线缆、占地空间、散热等问题,若是直接用40Gb以太网技术来实现,又会给数据中心带来更大的投资负担,很多情况下用户后端的数据存储网络还用不满40Gb以太网的处理能力。
为此,25Gb方案率先在欧美兴起,2014年7月,包括谷歌、微软、Mellanox、Arista网络和Broadcom在内的成员单位成立了25Gb以太网联盟,希望发展可优化成本的带宽扩容25Gb/50Gb以太网技术。之后,IEEE成立“用于服务器互联的单通道25Gb以太网”研究组,并将25Gb以太网建设确立为以太网标准发展路线之中。
相比40Gb以太网解决方案,25Gb以太网技术仅需一个通道,而40Gb以太网需要4个通道,以此来看从25Gb以太网方案向100Gb的方案的过渡会更加平滑。正如华为存储产品线总裁范瑞琦所讲:“从10Gb提升到25Gb,不仅仅是以太网互联技术性能提升2.5倍,而且能更好地支持QLogic产品平滑演进。”
“最早从1Gb到10Gb,我们花费7年时间才达到200万端口交付量,现在我们用3年时间就达到了200万端口交付,25Gb技术是基于通用的基础架构,性能和带宽上可以提升2.5倍,不但能够提升更多的带宽,并且在端口成本上降低50%。”QLogic公司VP Pohan Chiang补充说。
OceanStor 9000前后端网络均升级
根据IDC 2014年的统计,华为OceanStor 9000在媒资广电NAS市场份额第一,占据28%的份额,在中国省级卫视的部署超过40%。OceanStor 9000能取得这样的成绩离不开其采用的全对称分布式架构,让用户在Isilon之外有了更加经济的选择,而且通过此次25Gb以太网技术升级在性能上超越了对手。
OceanStor 9000前端网络从10Gb以太网演进到25Gb以太网,网络带宽能力提升2.5倍,单台服务器网络负载也将大幅提升到3GB/s,这对存储系统的性能要求将更加严苛。OceanStor 9000以其Scale-out架构,性能线性扩展,整体系统带宽可达400GB/s的超强处理能力。凭借OceanStor 9000系统的超强性能,能够从容应对应用服务器更高负载的I/O压力,这将大幅提升应用的效率,让业务更敏捷。
更令人高兴的是,此次OceanStor 9000同时将后端网络同样升级到了25Gb,这就意味着OceanStor 9000真正实现了25Gb数据流动通道的升级。华为海量存储业务领域总经理肖苡解释说:“如果OceanStor 9000只是将前端升级到25Gb,但是后端还是10Gb的话,这意味着用户的网络带宽还是跑在10Gb的带宽下。考虑到客户未来部署25Gb新环境时,势必要对整个环境更新,华为此次对前后端网络均升级到了25Gb,省去了客户的后顾之忧,对用户负责。”
另外,值得一提的是QLogic支持RoCE协议(RDMA over Converged Ethernet),该技术能降低CPU负载和网络时延,增加带宽能力,这也有助于OceanStor 9000存储的数据共享和分析效率的提升。
25Gb以太网技术引领云数据中心建设标准,OceanStor 9000成产业示范
25Gb以太网是一个面向云和企业数据中心环境的开放以太网连接标准,为了推进25Gb到100Gb的应用演进,QLogic成立了25Gb以太网联盟,成立联盟的初衷就是为了利用生态系统,推进合作伙伴社区发展,让25Gb以太网技术更快速地应用到更多行业。
在构建开放生态系统方面,一直以来华为存储秉承开放合作的理念,与合作伙伴携手共同为客户提供有竞争力的解决方案,并构建良好的产业生态环境。
“QLogic公司是数据中心网络和存储网络基础解决方案的领先供应商,华为与QLogic公司合作多年,基于25Gb以太网的OceanStor 9000存储发布,使双方再次携手在业界率先将25G以太网技术实现从标准到产品的转化。”范瑞琦这样说到。
声明: 此文观点不代表本站立场;转载须要保留原文链接;版权疑问请联系我们。