发布于: Oct 25, 2019
Amazon Elastic Inference 已推出名为 EIA2 的新 Elastic Inference 加速器,支持最大为 8GB 的 GPU 内存。客户现在可以在更大的模型或输入大小更大的模型上将 Amazon Elastic Inference 用于图像处理、对象检测、图像分类、自动化语音处理、自然语言处理和其他深度学习使用案例。
Amazon Elastic Inference 让您可以将适量 GPU 驱动的加速功能附加到任何 Amazon EC2 实例、Amazon SageMaker 实例或 Amazon ECS 任务,从而将运行深度学习推理的成本降低多达 75%。借助 Amazon Elastic Inference,您可以选择最适合应用程序的总体 CPU 和内存需求的实例类型,以及单独配置所需的推理加速量级而无需更改代码。过去,您可以在 Elastic Inference 上预置最大为 4GB 的 GPU 内存。现在,您可以在 3 种新的加速器类型中进行选择,分别为 2GB、4GB 和 8GB 的 GPU 内存。Amazon Elastic Inference 支持 TensorFlow、Apache MXNet 和 ONNX 模型,即将推出更多框架。
新的 Elastic Inference 加速器适用于美国东部(弗吉尼亚)、美国西部(俄勒冈)、美国东部(俄亥俄)、亚太地区(首尔),以及欧洲(爱尔兰)。即将在其他区域提供此支持。
有关更多信息,请参阅 Amazon Elastic Inference 产品页面。