2010-07-28 13:13:01
来 源
中国存储网
存储资讯
几乎每天都会有一款来自大厂商或者小厂商的云存储新产品发布,但事实上,抛开企业防火墙不说,云存储的潜力是受到限制的。 这其中有两个原因:带宽限制,常用于云服务的商用驱

 几乎每天都会有一款来自大厂商或者小厂商的云存储新产品发布,但事实上,抛开企业防火墙不说,云存储的潜力是受到限制的。

这其中有两个原因:带宽限制,常用于云服务的商用驱动器所带来的数据完整性问题。这两个因素限制了企业数据存储用户对外部云的使用。

      云挑战

云存储的理念就是自我管理、自我均衡和自我复制,采用一般的数据检验和来找出不同存储技术无法被发现或者误修正的错误率。云存储依赖于能够管理多个文件副本及检验和,在存储云之间进行常规且分布的检验以保证安全性。

这是一个不错的理念,但却面临诸多挑战,例如可靠性、安全性、数据完整性、复制时间和成本。但是其中最大的难题就是硬件将被割离。磁盘和磁带驱动器在两方面被割离:

·达到介质的硬错误率,这在发生错误之前是字位平均数体现的

·达到年损坏率,这是以设备使用小时数体现的

最常见的故障类型被称为厂商的比特差错率,它是数据传输中出错比特数与总比特数的百分比。

这些数字看上去不错,但需要注意的是,这些数字在最近10中几乎没有太大变化,但密度却有迅猛增长,性能提高幅度不大。随着差距的增大,这可能会导致一系列问题。所以通过厂商提供的最佳数据,迁移数据的时候会发生多少错误,在云中复制的时候应该使用哪一种设备?

显然,甚至在1TB企业驱动器上迁移100PB数据可能导致严重的数据丢失,而且就我所知很多云并没有采用RAID或者通过镜像来保护数据。记住,完美的情况是没有通道故障、内存损毁和其他所有类型硬件故障和潜在损毁。那么如果情况并不完美,故障率以数量级恶化的话呢?

以现有技术来说,你可能会丢失900TB数据,这并不是一个小数字,需要花费不少时间来进行复制。

声明: 此文观点不代表本站立场;转载须要保留原文链接;版权疑问请联系我们。