发布于: Sep 24, 2020

AWS 已将 Amazon EC2 Inf1 实例的可用性扩展到欧洲(巴黎)、亚太地区(孟买、新加坡)和南美洲(圣保罗)。Inf1 实例由 AWS Inferentia 芯片提供支持,AWS 专门设计用于在云中提供高性能和最低成本的机器学习推断。 

与基于最低成本 GPU 的实例相比,这些实例的吞吐量高达 30%,且单位推理成本降低可达 45%,非常适合图像识别、自然语言处理、个性化和异常检测等应用程序。 

开始使用 Inf1 实例的最简单和最快速的方法是通过 Amazon SageMaker,这是一个完全托管的服务,用于构建、训练和部署机器学习模型。希望自行管理机器学习应用程序开发平台的开发人员可以通过包括 Neuron 开发工具包的 AWS Deep Learning AMI 启动 Inf1 实例开始使用,也可以通过适用于容器化机器学习应用程序的 Amazon Elastic Kubernetes Service (EKS) 或 Amazon Elastic Container Service (ECS) 来使用 Inf1 实例。 

Amazon EC2 Inf1 实例有 4 种大小,提供多达 16 个 Inferentia 芯片、96 个 vCPU、192GB 内存、100 Gbps 网络带宽和 19 Gbps 的 Elastic Block Store (EBS) 带宽。这些实例可按需、作为预留实例、Spot 实例或者 Savings Plans 的一部分购买。它们已在全球 11 个区域推出,包括美国东部(弗吉尼亚北部、俄亥俄)、美国西部(俄勒冈)、欧洲(法兰克福、爱尔兰、巴黎)、亚太地区(孟买、新加坡、悉尼、东京)和南美(圣保罗)。 

要开始使用,请访问入门指南。要了解更多信息,请访问 Amazon EC2 Inf1 实例页面。