很多机构都面临数据过多的问题,或者,更为准确地说,当数据复制一如既往、持续不断地生成,企业需要面对存放和保护这些副本所需的存储问题。
在这个节约和缩减成本的年代,我们必须自问,对于过多的数据,是否存在一种更好的管理方式。很遗憾,与这一问题纠缠了十多年的公司,如今仍然未能摆脱存储管理的困境:信马由缰式的数据增长、乏善可陈的资源利用率,以及毫无效率可言的规划,而应对这一核心难题的技术,也寥寥无几。具有潜力的最新技术是云存储,但它会比其他技术更好吗?
让我们回顾一下 SAN(存储区域网络)的早期,抛弃直接连接的存储设备,转而拥抱存储阵列和 SAN 架构,其主要原因之一是期望通过资源利用率的改善而获得更高的效率。SAN 本来是能够带来一些益处的,如可用性和恢复性的改善,但在很多环境中,利用率仍然未能达到理想的状态。
之后的一大创新是信息生命周期管理。其理论在于,以数据的商业价值为依据,制定存储分配和发布策略,从而能够减少昂贵的高端存储设备的数量,这样也就缩减了成本。不过现实的结果却是:许多机构购买了一堆额外的存储设备,但大量的成本节约并未成为现实——至少远未达到预期的数量。
更为新颖一项技术是自动精简配置(thin provisioning)。由于目前应用程序和操作系统的限制,这一技术虽然具有潜力,但多多少少仍然属于小众化的利基技术(niche technology)。另一项技术是重复数据删除(data de-duplication),其设计初衷是为了获得较磁带存储更低的硬盘备份成本。无论是自动精简配置,还是重复数据删除,在未来都会有助于提高存储的效率。
无效的策略
我们也不可忽视这样一个事实,一直以来众多机构在努力应对存储效率的难题的同时,存储数据所需的实际设备的成本也持续而快速地下降。那么,为什么面对这一问题时我们感觉如此困难而无从下手呢?
在很多程度上,回答这一疑问关键在于,在绝大多数机构中,一直缺乏对存储管理策略——即数据管理策略——的深入理解。有关数据和存储的使用以及趋势,缺少记录和衡量的规则,这使得存储的问题更加严重。以数据清除为例,我们来考虑一下这个问题。就象钻石那样,数据一旦创建便永远存在。通常,我们会对数据进行保持、备份、复制,有时还要进行归档,所有这些操作都需要更多的存储空间。但真正将数据清除的可能性是非常低的。
非常值得关注的是,存储管理目前这种无法令人满意的状况,可能正是云存储的绝佳机遇。云存储可以作为数据存储的第二层,或者更为可能的,将其作为第三层。然后,可以根据时效和访问策略,通过人工手动或自动化数据转移程序,将数据——主要是非结构化的数据——转移至云存储中。这样就能够释放更多的存储空间,并减缓设备购买的频率,此外,不再需要对这些数据进行备份或复制,从而避免存储问题导致的乘数效应。更进一步,如果云服务提供商是真正地以服务未导向,那么他们将会提供更为完善的服务等级协议,以及有关这种数据的记录和衡量标准,而不是只向内部提供这种服务。
很明显,将数据转移至云存储中,并非一件轻而易举的小事。需要考虑的事情很多,如安全性、可用性、访问和控制。还有很重要的一点需要慎重对待,对于某些类型的数据,云存储虽然能够提供物美价廉的服务,为整体的成本带来改善,但云存储的实施必须具有明确具体的存储和数据管理策略。
声明: 此文观点不代表本站立场;转载须要保留原文链接;版权疑问请联系我们。