发布于: Aug 13, 2020

AWS 扩展了 Amazon EC2 Inf1 实例的提供范围,现已包括美国东部(俄亥俄)、欧洲(法兰克福、爱尔兰)和亚太地区(悉尼、东京)区域Inf1 实例由 Amazon 自定义设计的 AWS Inferentia 芯片提供支持,在云中的单位推理成本极低,并且让开发人员日常大规模使用机器学习的门槛也较低。 

与基于同类 GPU 的实例相比,Inf1 实例的吞吐量高 30%,且单位推理成本降低可达 45%,非常适合图像识别、自然语言处理、个性化和异常检测等应用程序。开发人员可以使用 AWS Neuron 开发工具包将其机器学习模型部署到 Inf1 实例,该开发工具包集成了 TensorFlow、PyTorch 和 MXNet 等受欢迎的机器学习框架。它包含一个编译器、一个运行时和各种分析工具,可优化 AWS Inferentia 的推理性能。

随着在更多区域推出,Inf1 实例现已在美国东部(弗吉尼亚北部、俄亥俄)、美国西部(俄勒冈)、欧洲(法兰克福、爱尔兰)以及亚太地区(悉尼、东京)等 AWS 区域开放。Inf1 实例有四种尺寸供选择,最多包含 16 个Inferentia 芯片,可提供每秒多达 2000 万亿次运算 (TOPS) 的吞吐量以及高达 100 Gbps 的网络带宽。它们可按需作为预留实例、Spot 实例或者在 Savings Plans 中购买。 

开始使用 Inf1 实例的最简单和最快速的方法是通过 Amazon SageMaker,这是一个完全托管的服务,用于构建、训练和部署机器学习模型。希望自行管理机器学习应用程序开发平台的开发人员可以通过包括 Neuron SDK 的 AWS Deep Learning AMI 启动 Inf1 实例开始使用,也可以通过适用于容器化 ML 应用程序的 Amazon Elastic Kubernetes Service (EKS) 或 Amazon Elastic Container Service (ECS) 来使用 Inf1 实例。

要了解更多信息,请访问 Amazon EC2 Inf1 实例页面。