5月18日凌晨,Google CEO Sundar Pichai在I/O大会上正式公布了第二代TPU,又称Cloud TPU或TPU 2.0,这一基于云计算的硬件和软件系统,将继续支撑Google最前沿的人工智能技术。
Cloud TPU( 运算能力180 TFLOPS)
第一代TPU于去年发布,它被作为一种特定目的芯片而专为机器学习设计,并用在了AlphaGo的人工智能系统上,是其预测和决策等技术的基础。随后,Google还将这一芯片用在了其服务的方方面面,比如每一次搜索都有用到TPU的计算能力,最近还用在了Google翻译、相册等软件背后的机器学习模型中。
今天凌晨,Google宣布第二代的TPU系统已经全面投入使用,并且已经部署在了Google Compute Engine平台上。它可用于图像和语音识别,机器翻译和机器人等领域。
新的TPU包括了四个芯片,每秒可处理180万亿次浮点运算。Google还找到一种方法,使用新的计算机网络将64个TPU组合到一起,升级为所谓的TPU Pods,可提供大约11500万亿次浮点运算能力。
64块卡组成的TPU Pods
另外,为了让人工智能开发者更好的享受TPU所带来的性能红利,谷歌在此次I/O大会上还正式推出了Cloud TPU云计算服务,谷歌云服务用未来都可以租用。至于收费也将可能采取和原本GPU运算服务相同的收费模式,按分钟来计价。
声明: 此文观点不代表本站立场;转载须要保留原文链接;版权疑问请联系我们。