发布于: Sep 17, 2019
Amazon ECS 支持将 Amazon Elastic Inference 加速器附加到容器,使运行深度学习推理工作负载更具成本效益。 借助 Amazon Elastic Inference,您可以将适量 GPU 驱动的加速功能附加到任何 Amazon EC2 实例、Amazon SageMaker 实例或 ECS 任务,从而将运行深度学习推理的成本降低多达 75%。
借助 ECS 中的 Amazon Elastic Inference 支持,您现在可以选择最适合应用程序需求的任务 CPU 和内存配置,然后单独配置所需的推理加速量级而无需更改代码。这让您能够有效地使用资源并降低运行推理的成本。使用的 Linux 容器和任务也使用 EC2 启动类型时,支持此功能。Amazon Elastic Inference 支持 TensorFlow、Apache MXNet 和 ONNX 模型,即将推出更多框架。
ECS 中的 Amazon Elastic Inference 支持适用于提供 ECS 和 Elastic Inference 的所有区域。要开始使用,请查看我们的文档。