发布于: Nov 19, 2020
AWS 扩展了 Amazon EC2 Inf1 实例的可用范围,现已包括美国西部(加利福尼亚北部)、加拿大(中部)、欧洲(伦敦)、亚太地区(香港、首尔)和中东(巴林)。Inf1 实例由 AWS Inferentia 芯片提供支持,这是 AWS 专门设计用于在云中提供高性能和最低成本的机器学习推断的芯片。
与 Amazon EC2 G4 实例相比,这些实例的吞吐量提高了 30%,单次推理的成本降低了 45%,而 Amazon EC2 G4 实例先前一直是云端机器学习推理成本最低的实例。Inf1 实例非常适合图像识别、自然语言处理、个性化和异常检测等应用。
开发人员可以通过包括 Neuron 开发工具包的 AWS Deep Learning AMI 启动 Inf1 实例,也可以通过适用于容器化机器学习应用程序的 Amazon Elastic Kubernetes Service (EKS) 或 Amazon Elastic Container Service (ECS) 来使用 Inf1 实例,从而自行管理机器学习应用程序开发平台。这些新区域中的 SageMaker 即将支持 Inf1 实例。
Amazon EC2 Inf1 实例有 4 种大小,提供多达 16 个 Inferentia 芯片、96 个 vCPU、192GB 内存、100 Gbps 网络带宽和 19 Gbps 的 Elastic Block Store (EBS) 带宽。这些实例可按需、作为预留实例、Spot 实例或者 Savings Plans 的一部分购买。这些实例现已在全球 17 个区域推出,包括美国东部(弗吉尼亚北部、俄亥俄)、美国西部(俄勒冈、加利福尼亚北部)、加拿大(中部)、欧洲(法兰克福、爱尔兰、伦敦、巴黎)、亚太地区(香港、孟买、首尔、新加坡、悉尼和东京)、中东(巴林)以及南美洲(圣保罗)。
要开始使用,请访问入门指南。要了解更多信息,请访问 Amazon EC2 Inf1 实例页面。