張貼日期: Sep 17, 2019
Amazon ECS 支援將 Amazon Elastic Inference 加速器附加到您的容器,讓執行深度學習推論工作負載更具成本效益。 Amazon Elastic Inference 可讓您將適量的 GPU 支援加速功能附加到任何 Amazon EC2、Amazon SageMaker 執行個體或 ECS 任務,最多可節省 75% 執行深度學習推論的成本。
您現在可以透過 ECS 提供的 Amazon Elastic Inference 支援,來選擇最適合應用程式需求的任務 CPU 和記憶體配置,然後單獨設定所需的推論加速數量,無須變更程式碼。這可讓您有效率地運用資源,進而降低執行推論的成本。在使用 Linux 容器和使用 EC2 啟動類型的任務時支援此功能。Amazon Elastic Inference 支援 TensorFlow、Apache MXNet 和 ONNX 模型,未來將會支援更多架構。
在 ECS 中提供的 Amazon Elastic Inference 支援在所有提供 ECS 和 Elastic Inference 的區域中皆已推出。若要開始使用,請參閱我們的文件。