存储市场上从来不缺少特立独行的厂商,纵使技术非常完善的领域,也会有厂商不满意当下的标准而走上自主创新的路,实际的案例很多,比如HDS不满当下主流的闪存技术而自己研发了HAF闪存模块;NetApp不跟随主流存储厂商做分层存储而自己为闪存研发了Flash Pool和Flash Cache两种技术,此外大量的初创厂商更是寻找各种各样的传统架构中的不合理从而找到新的机遇,对于闪存来讲,市场需要大量的标准化协议来规范加速生态圈的建立,但是也需要特立独行的玩家为市场注入新鲜的血液。
笔者之前在文章《NVMe推动PCIe与闪存紧密结合》中提到了NVMe标准对PCIe闪存发展的重要性,一方面NVMe尽力挖掘闪存的潜能,并使之与PCIe更好的配合,另一方面NVMe不仅使得PCIe闪存卡快速的发展,而且存储相关的技术也得到了快速的发展,这就好像SAS不仅是一个磁盘接口,而是一个完整的协议体系,支持多个磁盘通过SAS进行组合成为一个更高级的存储系统,而NVMe如果启用多路访问,是不是有点像SAN存储系统的多路径驱动,或者集群NAS的全局命名空间?它针对于需要1个以上PCIe NVMe控制器设备来进一步提高性能,或者增加共享/高可用特性等场景。这样一来则会推动PCIe交换技术的发展,而未来通过PCIe闪存实现大规模存储成为了可能。
这样想来NVMe统一了PCIe闪存的接口协议标准,而且为大规模存储系统构建提供了一个良好的基础,接下来顺利成章的应该是一系列相关的技术和产品都会被制造并建立起自己的生态。当然笔者也极为相信有英特尔、EMC、PMC、NetApp这些巨头的推动,未来NVMe必定是闪存的一个通用的标准规范,但是上文提到的Fusion-io恐怕并不认为NVMe现在已经是大行其道的前夕,在其最新发布的原子系列的PCIe闪存卡(ioMemory PX600和SX300)中,我们并没有找到NVMe的身影。
事实上从上图所列的NVMe联盟成员中也并没有Fusion-io的身影。很显然Fusion-io更相信自己的技术能够满足大部分客户的需求。笔者并没有Fusion-io的产品与其他的PCIe/NVMe闪存卡之间谁强谁弱的对比,而且Fusion-io新的PX600和SX300都采用了8x 的PCIe 2.0 接口,而英特尔最新的PCIe闪存卡采用的则是4x 的PCIe 3.0接口,Fusion-io并不认为当下市场已经做好了接受PCIe3.0闪存卡的准备,这些都是为了说明一个事实就是Fusion-io的做法与其他的厂商非常不同,所以除非是在实际的数据中心搭建实际的应用环境进行评测,否则并没有非常大的可比性。
回过头来我们看Fusion-io的发展之路以及其对市场造成的影响,当大部分厂商依然靠着SATA/SAS接口的SSD摸索闪存发展方向时,Fusion-io就已经开始将自己的PCIe闪存卡插进谷歌、FaceBook的数据中心了,这种做法在当时是非常少见的,总结起来Fusion-io做了三件事,首先将PCIe与闪存结合了起来并研发出了高性能的PCIe闪存卡;其次是是优化算法使得MLC能够成为用于企业数据中心的闪存颗粒;最后是以超高性能的PCIe闪存卡产品使得市场认识到闪存不是高速磁盘的替代品而是新一代的存储介质。如果闪存厂商现在还局限在SAS SSD或者价格高昂的SLC上,那么今天数据中心中闪存的应用将不会如此广泛。
所谓存在的就是合理的。Fusion-io如此不从众,但是其产品并不缺乏客户。在其原子系列发布之初,惠普就宣布成为了Fusion-io新品的OEM合作伙伴,在双方合作的新闻稿中提到Fusion-io与惠普的合作由来已久,并将继续携手提升闪存产品的创新力,目前已有近20个涵盖虚拟化技术、虚拟桌面基础架构(VDI)数据库和运行安全的参考架构推向商用市场。例如,在使用了上一代ioMemory产品后,惠普和Fusion-io运行甲骨文数据库的过程中实现了120万IOPS,而整个服务器和闪存解决方案仅需12个机架设备。Fusion-io和惠普创下了VMware VMmark(量化和衡量虚拟数据中心性能的行业基准)的六项世界纪录, 再次验证了其在当今虚拟化领域的领导地位。
在实际的应用之中,Fusion-io的产品依然表现抢眼,这正是说明了本文开始所提出的观点,大量的技术和产品标准化是必须的,闪存这个领域也是如此。虽然Fusion-io并没有明显的拥抱NVMe(Fusion-io没有过多支持NVMe的产品,但是随着NVMe的日益成熟,相信Fusion-io未来也是会将很大的精力投入NVMe产品的研发上来),但是Fusion-io证明了自己产品能够给合作伙伴提供最足够好的使用体验以及在实际应用场景中的能达到足够高的性能和稳定性,这些对于Fusion-io来讲就足够在当下的市场上有自己一席之地了,未来会怎样,那要未来才能知道吧。
声明: 此文观点不代表本站立场;转载须要保留原文链接;版权疑问请联系我们。