公有云的前进脚步如同一股龙卷风,电光火石之间我们的数据已经为其所吞噬。
在激烈的云服务供应商市场营销大战当中,谷歌公司的云Nearline存储服务已经成为其中一股新势力,旨在将客户的数据以及存储投资转移到谷歌的新战线当中--从而成为其重要收入来源。
最近一段时间,云归档存储、云接入网关以及混合内部/云数据管理等领域已经迎来了突破性进展,预计这一切都将加快企业数据向公有云转移的脚步。
这一趋势的基础性思路在于,公有云当中的超大规模数据中心拥有突出的规模经济效应,其足以凭借着相较于内部及管理机制极为可观的成本优势将企业客户的数据吸引到其内部。当然,数据在实际转移过程当中需要耗费一定网络传输时间,而且在云当中进行数据检索也几乎不可避免,这就意味着公有云并不适合存储那些内部应用程序需要使用的主要数据。
考虑到这一点,我们可以预测出以下五种适合由公有云负责承载的数据类型:
• 将内部备份数据交由云打理,目前大多数备份供应商都支持此类选项。
• 利用Box以及Dropbox等服务通过云实现文件同步与共享。
• 面向云环境的内部归档:其中以CommVault等厂商为代表。
• 云环境下的灾难恢复方案。
• 面向云应用程序的主要数据。
双重模式
此类模式分为两种具体类别:其一将内部应用程序尚不需要处理的数据发送至云端,从而在本地数据丢失或者不可用时进行恢复。其二为将云应用程序正在处理的数据发送至云端。如果大家的应用程序本身即运行在云环境下,那么其需要访问的数据自然也可以位于同一体系之内。
而从成本角度来讲,在将无需本地处理的数据发送至公有云的同时,我们可能也需要保留一部分本地恢复能力。事实上,利用云存储资源在成本方面要远低于自行构建存储体系。此外,使用公有云服务也能够使我们只需要承担运营成本--而不像过去那样还要考虑整体拥有成本,因为大家不必再购置存储阵列以及/或者磁带库来托管内部数据。
通过将这类数据迁移至云环境下,大家能够彻底告别存储阵列以及磁带库,从而空出这些设备在数据中心内部所占用的空间。与此同时,由于这些设备不复存在,我们也用不着再承担由其配套供电及冷却系统所带来的内部总体持有成本。
公有云存储资源的成本可以低到令人惊讶的水平。Amazon公司提供S3对象存储、EBS块存储以及EFS文件存储服务,而以保存归档存储数据知名且于2012年8月正式上线的Glacier服务能够将存储成本控制在每月每GB 0.01美元。而作为其直接竞争对手,谷歌公司提供的同类服务方案则将成本进一步压低到了每月每GB 0.007美元。
以往的数据检索过程往往需要耗费数个小时,但那是因为原先的数据被保存在离线磁带当中。
谷歌公司今年公布的Glacier竞争对手Nearline服务在使用成本上同样为每月每GB 0.01美元左右,但其几乎能够瞬间完成数据检索工作--其平均响应时长为3秒,这意味着我们在需要使用这类数据时几乎无需刻意等待。
另一大令人惊艳的竞优势在于,谷歌公司宣称用户可以拥有高达100 PB--是的,就是PB--的免费存储空间。数据的检索成本为每GB 0.01美元,这一价格与Amazon公司的Glacier归档成本保持一致(超出每月固定的免费检索量之后)。而谷歌公司在其TCO网站上就此与S3进行比较,因为只有S3能够提供即时数据检索,而Glacier并不具备这一能力。
事实上,Glacier单纯从使用成本角度看要比谷歌Nearline更便宜--因为Amazon最近刚刚进行了服务价格下调,同时假设用户的存储数据总量为0.5 PB以下。如果数据量进一步增加,其检索成本与数据存储成本需要额外进行加法运算。Nearline胜在响应速度更快,而且我们发现已经有大量本地磁盘备份及归档数据流开始被转移到Nearline当中,因为其在更低使用成本的前提下提供更具竞争力的访问速度。
云主要数据访问速度
目前已经有多种云存储网关能够将数据发送至Amazon以及谷歌的云环境。Avere公司的FXT方案能够提供本地缓存,并将后端数据存储设定为Amazon以及谷歌Nearline。根据该公司的说法,其Virtual Edge Filers以及相关技术能够将云存储转化为适合承载主要数据的平台。
Avere解决方案总体示意图
这确实是种令人惊讶的能力,因此值得我们深入了解。Avere公司表示其FXT前端文件存储方案立足于本地NAS文件存储之前,采用WAN连接机制,且面向本地Cleversafe对象存储(由Avere方面负责完成文件与对象之间的转换)以及Amazon S3存储云。该方案符合SpecFS基准规范,且在每秒操作以及ORT(即整体响应时间)方面拥有以下水平:
• 本地NAS:每秒180538次操作,0,88 ORT。
• 远程NAS:每秒180043次操作,0.87 ORT。
• Cleversafe:每秒180394次操作,0.89 ORT。
• Amazon S3:每秒180141次操作,0.86 ORT。
这一结果已经相当明确。基本上,四种文件存储机制在文件数据访问速度方面的表现几乎没什么差别。
如果数据中心能够通过闪存存储机制的介入而使得主要数据存储与计算更为贴近,即剥离网络以及磁盘访问所带来的延迟,那么我们预计Avere的filer加速技术将能够被用于将主要数据文件存储转移至云环境当中,并负责将其交付至服务器端的闪存体系。
另一种实现方式则是利用同样的单一逻辑存储资源池覆盖整个混合私有/内部存储与公有云体系,目前NetApp等厂商已经开始提供相关数据结构方案。
混合云数据管理
NetApp公司的内部FAS阵列由其ONTAP操作系统负责控制。云ONTAP是一套纯软件版本,其能够运行在公有云环境当中。NetApp公司的数据结构概念在于利用ONTAP交付并管理通过无缝化方式由内部及公有云处访问到的数据。
其能够在内部与公有云之间提供效率出色的数据传输能力,从而实现对二者中数据的一致性管理。这套方案目前正处于研发过程当中,其目标在于尽可能发挥云直接接入机制的优势,同时提升客户数据中心与云环境之间的数据迁移速度--当下Amazon与Azure都已经成为受支持的云环境目标。
NetApp Private Storage、Azure与Equinix实现体系。
在NetApp公司Private Sotrage for Azure的帮助下,NetApp阵列能够被安置在Equinix一级协同数据中心之内,并通过ExpressRoute与Azure建立连接。这是一套私有的低延迟高传输带宽链接。数据通过快照技术由客户的ONTAP阵列被移动至Equinix ONTAP阵列。NetApp公司表示,这部分数据将被存储在邻近的云环境下--而非随机云环境--这意味着大家能够保留对数据的控制权。
关注重点
保留对数据的控制权非常重要,特别是考虑到不同国家乃至不同州/省份对于数据监管拥有不同的政策要求。另一项关注重点则面向云可靠性:我们已经经历过一系列公有云服务停机事故,而安全方面的关注亦同样不容忽视。
作为云存储网关供应商,Nasuni公司会定期对其客户的公有云接入性能进行审查。在该公司今年5月发布的报告当中,其审视了谷歌、Amazon以及微软Azure三大主要公有云方案,其中Azure与Amazon拥有最为出色的性能表现。该公司同时发现,IBM的SoftLayer出现了服务停机问题,这意味着其并不推荐客户采用蓝色巨人的云服务方案。
不过以Amazon、微软与谷歌以及尾随其后的惠普、IBM及其它厂商为代表的各云存储供应商已经意识到了这一重要问题。每一次存储容量方面的提升,由以往的数PB升级到数十PB、并最终增长至数百PB乃至数EB级别,都会给这些云服务供应商带来新的可靠性保障挑战。
那么故障域的规模应该拥有怎样的水平?他们要如何以近乎完美的举措防止数据丢失状况?他们应该采用怎样的区域数据中心基础设施?他们又该如何在这样的存储成效前提下保证服务方案的可靠性与性价比?
新时代下的庞大迁移规模
目前我们尚处于大洲内部以及跨大洲规模化数据迁移趋势的发展初期,而且整个发展周期可能需要耗时数十年。因此大家用不着急于将数据迁移至云端。云服务供应商未来仍将继续存在,而且届时其将拥有更出色的组织能力、优化水平更高的基础设施以及更理想的使用体验与可靠性表现。
数据面向云端的迁移趋势类似于过去的移民潮--规模庞大而且不可阻挡,正如近现代众多国家之内由于城市工业化转型所引发的由农村向城镇的人口转移。这一过程过去几十年中一直存在,而且目前仍在进行当中。换个角度看,这类似于人们开始把现金由自家保险箱转移到银行,或者电力能源由独立发电机转向作为公共事业重要组成部分的国家电网。
目前公有云正以可观的规模与数据总量共同发展,其拥有着宏大且积极的发展意图,我们认为这样的趋势将成为历史潮流。为了实现更为显著的规模化经济效益,各供应商必然拿出更多具有吸引力的解决方案,而也会有越来越多的安全证明本地存储机制已经失去经济活力。随着时间推移,这将成为必然的结果。
而无需满足即时需求的应用程序数据将成为这股云迁移浪潮中的先锋,换言之公有云正是其最理想的归宿。而运行在云环境下的应用程序也将顺理成章地倾向于直接从云内获取数据--而非跨越网络与内部数据中心相对接。
我们正处于混合云的时代,其中内部数据中心扮演的正是私有云要素的角色。除非具有压倒性的成本优势,同时提供足够安全且便利的数据访问机制,否则公有云与私有云将长期并存下去--当然,一旦这几项条件得到满足,私有云将很快成为空壳。
声明: 此文观点不代表本站立场;转载须要保留原文链接;版权疑问请联系我们。