Amazon Web Services(以下简称AWS)在公有云服务领域仍然占据着绝对的统治地位——是“绝对”的“统治”地位。即使经历了微软与谷歌的大踏步前进,Gartner公司分析师Lydia Leong估计AWS本身所拥有的IaaS计算资源仍然能够达到其它十四家得到Gartner密切关注的云服务供应商总和的五倍。
即使如此,AWS的状况却称不上牢不可破。就算是最为忠实的支持者也必须承认,Amazon AWS的资源在追踪与监控方面表现得实在有些笨拙。今年三月出席谷歌云计算大会的与会者中有不少AWS用户,他们高度关注谷歌一直以来采用的用量计费模式——该模式能够在满足特定使用标准后自动计算折扣。
如此便利的处理方案自然比利用电子表格追踪AWS使用量胜出一筹,谷歌大会上坐在我旁边的一位开发人员这样评论道。他目前还没有投入谷歌云怀抱的打算,但他坦言谷歌云确实值得认真关注。
正如一位AWS观察家所言:“Amazon希望向用户出售一份巨无霸汉堡,但其计费方式却被分割成了面包、蕃茄酱、洋葱、酸黄瓜以及秘制酱料。很多人仅仅想直接买个汉堡,而对那些组成部分的具体价格不感兴趣。”
不少开发人员认为DigitalOcean提供的“水滴”一体式资源方案更加便捷易用,其将基于SSD的存储机制、内存、CPU计算核心以及数据传输整合起来并提供一套综合性价格区间,每月使用成本在5美元到80美元之间。在上周的Structure展会上,DigitalOcean公司CEO Ben Uretsky表示DigitalOcean从来没有推出过任何价格折扣方案。
AWS挑战:变复杂为简单
总结而言,任何坚持认为Amazon仍能保持王者地位的朋友恐怕都没有实际感受过Amazon云的恐怖。该公司随新一代t.2“突发式”EC2实例一同推出的CPU储蓄概念证明其将继续对自身服务作出调整。
在上周的一次采访中,Amazon公司数据科学总经理Matt Wood并没有对未来的自动化发展计划作出任何评论,但他指出CPU储蓄概念(显示在客户的CloudWatch控制台当中)的设计目标之一在于帮助使用者摆脱自行计算使用量的难题。
AWS宣传人士Jeff Barr在博文中写道:
“大家应对突发性资源需求的能力源自‘CPU储蓄’概念,也就是说各位可以把平稳阶段剩余的资源储蓄下来、并在负载强度较高时拿出来使用。大家可以为实例设定适度的规模与成本,同时又能继续利用储备资源在面对峰值计算能力需求时顺利加以应对。”
因此Amazon很清楚其需要在服务方案中引入更多自动化与易用性特质,但其面前的发展道路仍然相当漫长。最新t.2实例的推出甚至让复杂性更上一层楼,RightScale公司首席云架构师Brian Adler指出——这是一家为多种云环境提供管理与监控工具的厂商。
在一篇博文中,Adler写道:
“虽然新的t2.small实例在使用成本上比m1.small实例低出40%,但m1.small实例当中保存存储资源、而新的t2实例则并不提供。除此之外,t2家族还一贯采用共享式CPU模式。举例来说,作为基准配置,t2.small实例仅仅为用户提供单一CPU计算核心资源的20%。”
RightScale公司作出的小型AWS EC2实例比较结果。其中ECU为EC2的基本计算单元。
此外,Adler还补充称:
“尽管t2服务家族拥有1到2个虚拟CPU,用户仍然需要共享这些虚拟CPU、因而只能使用其中的一部分计算能力。AWS还提供一套ECU指标(即EC2计算单元),用于描述不同实例类型之间的相关处理能力。但是在t2实例这边,其公布的ECU评分由于存在突发式机制而被设定为‘变量’,这导致用户很难将其与其它实例类型进行直观比较。”
我们希望Amazon能够在服务当中引入更多自动化机制,从而在未来进一步简化用户的使用体验。本周四于纽约举行的AWS峰会就是个很好的起点——就算此次活动没有相关新消息放出,相信将于今年十一月召开的AWS Re:Invent大会也将给我们带来惊喜。
声明: 此文观点不代表本站立场;转载须要保留原文链接;版权疑问请联系我们。